Lines Matching refs:reloc_cache
258 struct reloc_cache { struct
271 } reloc_cache; member
485 if (!eb->reloc_cache.has_fence) { in eb_validate_vma()
489 eb->reloc_cache.needs_unfenced) && in eb_validate_vma()
549 if (eb->reloc_cache.has_fence) in eb_add_vma()
573 static inline int use_cpu_reloc(const struct reloc_cache *cache, in use_cpu_reloc()
879 GEM_BUG_ON(eb->reloc_cache.rq); in eb_destroy()
892 static void reloc_cache_init(struct reloc_cache *cache, in reloc_cache_init()
920 static inline struct i915_ggtt *cache_to_ggtt(struct reloc_cache *cache) in cache_to_ggtt()
923 container_of(cache, struct i915_execbuffer, reloc_cache)->i915; in cache_to_ggtt()
927 static void reloc_gpu_flush(struct reloc_cache *cache) in reloc_gpu_flush()
938 static void reloc_cache_reset(struct reloc_cache *cache) in reloc_cache_reset()
975 struct reloc_cache *cache, in reloc_kmap()
1007 struct reloc_cache *cache, in reloc_iomap()
1071 struct reloc_cache *cache, in reloc_vaddr()
1116 struct reloc_cache *cache = &eb->reloc_cache; in __reloc_gpu_alloc()
1201 struct reloc_cache *cache = &eb->reloc_cache; in reloc_gpu()
1236 bool wide = eb->reloc_cache.use_64bit_reloc; in relocate_entry()
1239 if (!eb->reloc_cache.vaddr && in relocate_entry()
1242 const unsigned int gen = eb->reloc_cache.gen; in relocate_entry()
1299 vaddr = reloc_vaddr(vma->obj, &eb->reloc_cache, offset >> PAGE_SHIFT); in relocate_entry()
1305 eb->reloc_cache.vaddr); in relocate_entry()
1383 vma->size - (eb->reloc_cache.use_64bit_reloc ? 8 : 4))) { in eb_relocate_entry()
1494 reloc_cache_reset(&eb->reloc_cache); in eb_relocate_vma()
1517 reloc_cache_reset(&eb->reloc_cache); in eb_relocate_vma_slow()
2204 reloc_cache_init(&eb.reloc_cache, eb.i915); in i915_gem_do_execbuffer()
2355 GEM_BUG_ON(eb.reloc_cache.rq); in i915_gem_do_execbuffer()