Lines Matching refs:reset_domain

110 	struct amdgpu_reset_domain *reset_domain = container_of(ref,  in amdgpu_reset_destroy_reset_domain()  local
113 if (reset_domain->wq) in amdgpu_reset_destroy_reset_domain()
114 destroy_workqueue(reset_domain->wq); in amdgpu_reset_destroy_reset_domain()
116 kvfree(reset_domain); in amdgpu_reset_destroy_reset_domain()
122 struct amdgpu_reset_domain *reset_domain; in amdgpu_reset_create_reset_domain() local
124 reset_domain = kvzalloc(sizeof(struct amdgpu_reset_domain), GFP_KERNEL); in amdgpu_reset_create_reset_domain()
125 if (!reset_domain) { in amdgpu_reset_create_reset_domain()
130 reset_domain->type = type; in amdgpu_reset_create_reset_domain()
131 kref_init(&reset_domain->refcount); in amdgpu_reset_create_reset_domain()
133 reset_domain->wq = create_singlethread_workqueue(wq_name); in amdgpu_reset_create_reset_domain()
134 if (!reset_domain->wq) { in amdgpu_reset_create_reset_domain()
136 amdgpu_reset_put_reset_domain(reset_domain); in amdgpu_reset_create_reset_domain()
141 atomic_set(&reset_domain->in_gpu_reset, 0); in amdgpu_reset_create_reset_domain()
142 atomic_set(&reset_domain->reset_res, 0); in amdgpu_reset_create_reset_domain()
143 init_rwsem(&reset_domain->sem); in amdgpu_reset_create_reset_domain()
145 return reset_domain; in amdgpu_reset_create_reset_domain()
148 void amdgpu_device_lock_reset_domain(struct amdgpu_reset_domain *reset_domain) in amdgpu_device_lock_reset_domain() argument
150 atomic_set(&reset_domain->in_gpu_reset, 1); in amdgpu_device_lock_reset_domain()
151 down_write(&reset_domain->sem); in amdgpu_device_lock_reset_domain()
155 void amdgpu_device_unlock_reset_domain(struct amdgpu_reset_domain *reset_domain) in amdgpu_device_unlock_reset_domain() argument
157 atomic_set(&reset_domain->in_gpu_reset, 0); in amdgpu_device_unlock_reset_domain()
158 up_write(&reset_domain->sem); in amdgpu_device_unlock_reset_domain()