Lines Matching refs:a6xx_gpu

18 	struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu);  in _a6xx_check_idle()  local
21 if (!a6xx_gmu_isidle(&a6xx_gpu->gmu)) in _a6xx_check_idle()
88 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_submit() local
148 gmu_read64(&a6xx_gpu->gmu, REG_A6XX_GMU_ALWAYS_ON_COUNTER_L, in a6xx_submit()
268 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_set_hwcg() local
269 struct a6xx_gmu *gmu = &a6xx_gpu->gmu; in a6xx_set_hwcg()
324 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_ucode_init() local
326 if (!a6xx_gpu->sqe_bo) { in a6xx_ucode_init()
327 a6xx_gpu->sqe_bo = adreno_fw_create_bo(gpu, in a6xx_ucode_init()
328 adreno_gpu->fw[ADRENO_FW_SQE], &a6xx_gpu->sqe_iova); in a6xx_ucode_init()
330 if (IS_ERR(a6xx_gpu->sqe_bo)) { in a6xx_ucode_init()
331 int ret = PTR_ERR(a6xx_gpu->sqe_bo); in a6xx_ucode_init()
333 a6xx_gpu->sqe_bo = NULL; in a6xx_ucode_init()
340 msm_gem_object_set_name(a6xx_gpu->sqe_bo, "sqefw"); in a6xx_ucode_init()
344 REG_A6XX_CP_SQE_INSTR_BASE_HI, a6xx_gpu->sqe_iova); in a6xx_ucode_init()
378 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_hw_init() local
382 a6xx_gmu_set_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_hw_init()
516 a6xx_gpu->cur_ring = gpu->rb[0]; in a6xx_hw_init()
553 a6xx_gmu_clear_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_hw_init()
556 a6xx_gmu_clear_oob(&a6xx_gpu->gmu, GMU_OOB_BOOT_SLUMBER); in a6xx_hw_init()
574 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_recover() local
590 gmu_write(&a6xx_gpu->gmu, REG_A6XX_GMU_GMU_PWR_COL_KEEPALIVE, 0); in a6xx_recover()
657 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_fault_detect_irq() local
666 gmu_write(&a6xx_gpu->gmu, REG_A6XX_GMU_GMU_PWR_COL_KEEPALIVE, 1); in a6xx_fault_detect_irq()
730 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_pm_resume() local
735 ret = a6xx_gmu_resume(a6xx_gpu); in a6xx_pm_resume()
747 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_pm_suspend() local
751 return a6xx_gmu_stop(a6xx_gpu); in a6xx_pm_suspend()
757 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_get_timestamp() local
760 a6xx_gmu_set_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_get_timestamp()
765 a6xx_gmu_clear_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_get_timestamp()
772 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_active_ring() local
774 return a6xx_gpu->cur_ring; in a6xx_active_ring()
780 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_destroy() local
782 if (a6xx_gpu->sqe_bo) { in a6xx_destroy()
783 msm_gem_unpin_iova(a6xx_gpu->sqe_bo, gpu->aspace); in a6xx_destroy()
784 drm_gem_object_put_unlocked(a6xx_gpu->sqe_bo); in a6xx_destroy()
787 a6xx_gmu_remove(a6xx_gpu); in a6xx_destroy()
790 kfree(a6xx_gpu); in a6xx_destroy()
796 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_gpu_busy() local
799 busy_cycles = gmu_read64(&a6xx_gpu->gmu, in a6xx_gpu_busy()
845 struct a6xx_gpu *a6xx_gpu; in a6xx_gpu_init() local
850 a6xx_gpu = kzalloc(sizeof(*a6xx_gpu), GFP_KERNEL); in a6xx_gpu_init()
851 if (!a6xx_gpu) in a6xx_gpu_init()
854 adreno_gpu = &a6xx_gpu->base; in a6xx_gpu_init()
862 a6xx_destroy(&(a6xx_gpu->base.base)); in a6xx_gpu_init()
872 ret = a6xx_gmu_init(a6xx_gpu, node); in a6xx_gpu_init()
874 a6xx_destroy(&(a6xx_gpu->base.base)); in a6xx_gpu_init()