1 #ifndef IOU_ALLOC_CACHE_H
2 #define IOU_ALLOC_CACHE_H
3
4 /*
5 * Don't allow the cache to grow beyond this size.
6 */
7 #define IO_ALLOC_CACHE_MAX 512
8
9 struct io_cache_entry {
10 struct io_wq_work_node node;
11 };
12
io_alloc_cache_put(struct io_alloc_cache * cache,struct io_cache_entry * entry)13 static inline bool io_alloc_cache_put(struct io_alloc_cache *cache,
14 struct io_cache_entry *entry)
15 {
16 if (cache->nr_cached < cache->max_cached) {
17 cache->nr_cached++;
18 wq_stack_add_head(&entry->node, &cache->list);
19 /* KASAN poisons object */
20 kasan_slab_free_mempool(entry);
21 return true;
22 }
23 return false;
24 }
25
io_alloc_cache_empty(struct io_alloc_cache * cache)26 static inline bool io_alloc_cache_empty(struct io_alloc_cache *cache)
27 {
28 return !cache->list.next;
29 }
30
io_alloc_cache_get(struct io_alloc_cache * cache)31 static inline struct io_cache_entry *io_alloc_cache_get(struct io_alloc_cache *cache)
32 {
33 if (cache->list.next) {
34 struct io_cache_entry *entry;
35
36 entry = container_of(cache->list.next, struct io_cache_entry, node);
37 kasan_unpoison_range(entry, cache->elem_size);
38 cache->list.next = cache->list.next->next;
39 cache->nr_cached--;
40 return entry;
41 }
42
43 return NULL;
44 }
45
io_alloc_cache_init(struct io_alloc_cache * cache,unsigned max_nr,size_t size)46 static inline void io_alloc_cache_init(struct io_alloc_cache *cache,
47 unsigned max_nr, size_t size)
48 {
49 cache->list.next = NULL;
50 cache->nr_cached = 0;
51 cache->max_cached = max_nr;
52 cache->elem_size = size;
53 }
54
io_alloc_cache_free(struct io_alloc_cache * cache,void (* free)(struct io_cache_entry *))55 static inline void io_alloc_cache_free(struct io_alloc_cache *cache,
56 void (*free)(struct io_cache_entry *))
57 {
58 while (1) {
59 struct io_cache_entry *entry = io_alloc_cache_get(cache);
60
61 if (!entry)
62 break;
63 free(entry);
64 }
65 cache->nr_cached = 0;
66 }
67 #endif
68