Lines Matching refs:a6xx_gpu
13 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in _a6xx_check_idle() local
16 if (!a6xx_gmu_isidle(&a6xx_gpu->gmu)) in _a6xx_check_idle()
230 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_set_hwcg() local
231 struct a6xx_gmu *gmu = &a6xx_gpu->gmu; in a6xx_set_hwcg()
286 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_ucode_init() local
288 if (!a6xx_gpu->sqe_bo) { in a6xx_ucode_init()
289 a6xx_gpu->sqe_bo = adreno_fw_create_bo(gpu, in a6xx_ucode_init()
290 adreno_gpu->fw[ADRENO_FW_SQE], &a6xx_gpu->sqe_iova); in a6xx_ucode_init()
292 if (IS_ERR(a6xx_gpu->sqe_bo)) { in a6xx_ucode_init()
293 int ret = PTR_ERR(a6xx_gpu->sqe_bo); in a6xx_ucode_init()
295 a6xx_gpu->sqe_bo = NULL; in a6xx_ucode_init()
304 REG_A6XX_CP_SQE_INSTR_BASE_HI, a6xx_gpu->sqe_iova); in a6xx_ucode_init()
324 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_hw_init() local
328 a6xx_gmu_set_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_hw_init()
389 gmu_write(&a6xx_gpu->gmu, REG_A6XX_GPU_GMU_AO_GPU_CX_BUSY_MASK, in a6xx_hw_init()
391 gmu_rmw(&a6xx_gpu->gmu, REG_A6XX_GMU_CX_GMU_POWER_COUNTER_SELECT_0, in a6xx_hw_init()
393 gmu_write(&a6xx_gpu->gmu, REG_A6XX_GMU_CX_GMU_POWER_COUNTER_ENABLE, in a6xx_hw_init()
458 a6xx_gpu->cur_ring = gpu->rb[0]; in a6xx_hw_init()
474 a6xx_gmu_clear_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_hw_init()
477 a6xx_gmu_clear_oob(&a6xx_gpu->gmu, GMU_OOB_BOOT_SLUMBER); in a6xx_hw_init()
495 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_recover() local
511 gmu_write(&a6xx_gpu->gmu, REG_A6XX_GMU_GMU_PWR_COL_KEEPALIVE, 0); in a6xx_recover()
578 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_fault_detect_irq() local
587 gmu_write(&a6xx_gpu->gmu, REG_A6XX_GMU_GMU_PWR_COL_KEEPALIVE, 1); in a6xx_fault_detect_irq()
678 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_pm_resume() local
681 ret = a6xx_gmu_resume(a6xx_gpu); in a6xx_pm_resume()
691 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_pm_suspend() local
697 a6xx_gmu_wait_for_idle(a6xx_gpu); in a6xx_pm_suspend()
705 return a6xx_gmu_stop(a6xx_gpu); in a6xx_pm_suspend()
711 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_get_timestamp() local
714 a6xx_gmu_set_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_get_timestamp()
719 a6xx_gmu_clear_oob(&a6xx_gpu->gmu, GMU_OOB_GPU_SET); in a6xx_get_timestamp()
734 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_active_ring() local
736 return a6xx_gpu->cur_ring; in a6xx_active_ring()
742 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_destroy() local
744 if (a6xx_gpu->sqe_bo) { in a6xx_destroy()
745 if (a6xx_gpu->sqe_iova) in a6xx_destroy()
746 msm_gem_put_iova(a6xx_gpu->sqe_bo, gpu->aspace); in a6xx_destroy()
747 drm_gem_object_unreference_unlocked(a6xx_gpu->sqe_bo); in a6xx_destroy()
750 a6xx_gmu_remove(a6xx_gpu); in a6xx_destroy()
753 kfree(a6xx_gpu); in a6xx_destroy()
780 struct a6xx_gpu *a6xx_gpu; in a6xx_gpu_init() local
785 a6xx_gpu = kzalloc(sizeof(*a6xx_gpu), GFP_KERNEL); in a6xx_gpu_init()
786 if (!a6xx_gpu) in a6xx_gpu_init()
789 adreno_gpu = &a6xx_gpu->base; in a6xx_gpu_init()
797 a6xx_destroy(&(a6xx_gpu->base.base)); in a6xx_gpu_init()
807 ret = a6xx_gmu_probe(a6xx_gpu, node); in a6xx_gpu_init()
809 a6xx_destroy(&(a6xx_gpu->base.base)); in a6xx_gpu_init()