Home
last modified time | relevance | path

Searched refs:rxe_dev (Results 1 – 24 of 24) sorted by relevance

/Linux-v5.4/drivers/infiniband/sw/rxe/
Drxe_loc.h40 int rxe_av_chk_attr(struct rxe_dev *rxe, struct rdma_ah_attr *attr);
52 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq,
55 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe,
70 int rxe_mcast_get_grp(struct rxe_dev *rxe, union ib_gid *mgid,
73 int rxe_mcast_add_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp,
76 int rxe_mcast_drop_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp,
95 struct rxe_mmap_info *rxe_create_mmap_info(struct rxe_dev *dev, u32 size,
135 int rxe_mem_map_pages(struct rxe_dev *rxe, struct rxe_mem *mem,
145 struct sk_buff *rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av,
148 enum rdma_link_layer rxe_link_layer(struct rxe_dev *rxe, unsigned int port_num);
[all …]
Drxe.h70 static inline u32 rxe_crc32(struct rxe_dev *rxe, in rxe_crc32()
91 void rxe_set_mtu(struct rxe_dev *rxe, unsigned int dev_mtu);
93 int rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name);
98 static inline struct rxe_dev *rxe_get_dev_from_net(struct net_device *ndev) in rxe_get_dev_from_net()
105 return container_of(ibdev, struct rxe_dev, ib_dev); in rxe_get_dev_from_net()
108 void rxe_port_up(struct rxe_dev *rxe);
109 void rxe_port_down(struct rxe_dev *rxe);
110 void rxe_set_port_state(struct rxe_dev *rxe);
Drxe.c44 static void rxe_cleanup_ports(struct rxe_dev *rxe) in rxe_cleanup_ports()
56 struct rxe_dev *rxe = container_of(ib_dev, struct rxe_dev, ib_dev); in rxe_dealloc()
76 static void rxe_init_device_param(struct rxe_dev *rxe) in rxe_init_device_param()
154 static int rxe_init_ports(struct rxe_dev *rxe) in rxe_init_ports()
179 static int rxe_init_pools(struct rxe_dev *rxe) in rxe_init_pools()
258 static int rxe_init(struct rxe_dev *rxe) in rxe_init()
288 void rxe_set_mtu(struct rxe_dev *rxe, unsigned int ndev_mtu) in rxe_set_mtu()
305 int rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name) in rxe_add()
320 struct rxe_dev *exists; in rxe_newlink()
Drxe_verbs.c46 struct rxe_dev *rxe = to_rdev(dev); in rxe_query_device()
58 struct rxe_dev *rxe = to_rdev(dev); in rxe_query_port()
86 struct rxe_dev *rxe = to_rdev(device); in rxe_query_pkey()
107 struct rxe_dev *rxe = to_rdev(dev); in rxe_modify_device()
123 struct rxe_dev *rxe = to_rdev(dev); in rxe_modify_port()
140 struct rxe_dev *rxe = to_rdev(dev); in rxe_get_link_layer()
147 struct rxe_dev *rxe = to_rdev(uctx->device); in rxe_alloc_ucontext()
181 struct rxe_dev *rxe = to_rdev(ibpd->device); in rxe_alloc_pd()
199 struct rxe_dev *rxe = to_rdev(ibah->device); in rxe_create_ah()
217 struct rxe_dev *rxe = to_rdev(ibah->device); in rxe_modify_ah()
[all …]
Drxe_net.c50 struct device *rxe_dma_device(struct rxe_dev *rxe) in rxe_dma_device()
62 int rxe_mcast_add(struct rxe_dev *rxe, union ib_gid *mgid) in rxe_mcast_add()
73 int rxe_mcast_delete(struct rxe_dev *rxe, union ib_gid *mgid) in rxe_mcast_delete()
195 struct rxe_dev *rxe = rxe_get_dev_from_net(ndev); in rxe_udp_encap_recv()
457 struct sk_buff *rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av, in rxe_init_packet()
516 const char *rxe_parent_name(struct rxe_dev *rxe, unsigned int port_num) in rxe_parent_name()
521 enum rdma_link_layer rxe_link_layer(struct rxe_dev *rxe, unsigned int port_num) in rxe_link_layer()
529 struct rxe_dev *rxe = NULL; in rxe_net_add()
531 rxe = ib_alloc_device(rxe_dev, ib_dev); in rxe_net_add()
546 static void rxe_port_event(struct rxe_dev *rxe, in rxe_port_event()
[all …]
Drxe_mcast.c37 int rxe_mcast_get_grp(struct rxe_dev *rxe, union ib_gid *mgid, in rxe_mcast_get_grp()
78 int rxe_mcast_add_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_mcast_add_grp_elem()
122 int rxe_mcast_drop_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_mcast_drop_grp_elem()
186 struct rxe_dev *rxe = grp->rxe; in rxe_mc_cleanup()
Drxe_verbs.h356 struct rxe_dev *rxe;
384 struct rxe_dev { struct
418 static inline void rxe_counter_inc(struct rxe_dev *rxe, enum rxe_counters index) in rxe_counter_inc() argument
423 static inline struct rxe_dev *to_rdev(struct ib_device *dev) in to_rdev()
425 return dev ? container_of(dev, struct rxe_dev, ib_dev) : NULL; in to_rdev()
468 int rxe_register_device(struct rxe_dev *rxe, const char *ibdev_name);
Drxe_recv.c39 static int check_type_state(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, in check_type_state()
101 static int check_keys(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, in check_keys()
154 static int check_addr(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, in check_addr()
216 struct rxe_dev *rxe = pkt->rxe; in hdr_check()
277 static void rxe_rcv_mcast_pkt(struct rxe_dev *rxe, struct sk_buff *skb) in rxe_rcv_mcast_pkt()
331 static int rxe_match_dgid(struct rxe_dev *rxe, struct sk_buff *skb) in rxe_match_dgid()
360 struct rxe_dev *rxe = pkt->rxe; in rxe_rcv()
Drxe_mmap.c49 struct rxe_dev *rxe = to_rdev(ip->context->device); in rxe_mmap_release()
93 struct rxe_dev *rxe = to_rdev(context->device); in rxe_mmap()
144 struct rxe_mmap_info *rxe_create_mmap_info(struct rxe_dev *rxe, u32 size, in rxe_create_mmap_info()
Drxe_queue.h70 struct rxe_dev *rxe;
79 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf,
85 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe,
Drxe_srq.c39 int rxe_srq_chk_attr(struct rxe_dev *rxe, struct rxe_srq *srq, in rxe_srq_chk_attr()
101 int rxe_srq_from_init(struct rxe_dev *rxe, struct rxe_srq *srq, in rxe_srq_from_init()
149 int rxe_srq_from_attr(struct rxe_dev *rxe, struct rxe_srq *srq, in rxe_srq_from_attr()
Drxe_pool.h93 struct rxe_dev *rxe;
126 int rxe_pool_init(struct rxe_dev *rxe, struct rxe_pool *pool,
Drxe_cq.c38 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq, in rxe_cq_chk_attr()
84 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe, in rxe_cq_from_init()
Drxe_queue.c39 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf, in do_mmap_info()
79 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe, in rxe_queue_init()
Drxe_qp.c45 static int rxe_qp_chk_cap(struct rxe_dev *rxe, struct ib_qp_cap *cap, in rxe_qp_chk_cap()
86 int rxe_qp_chk_init(struct rxe_dev *rxe, struct ib_qp_init_attr *init) in rxe_qp_chk_init()
177 static void rxe_qp_init_misc(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_qp_init_misc()
219 static int rxe_qp_init_req(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_qp_init_req()
287 static int rxe_qp_init_resp(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_qp_init_resp()
336 int rxe_qp_from_init(struct rxe_dev *rxe, struct rxe_qp *qp, struct rxe_pd *pd, in rxe_qp_from_init()
414 int rxe_qp_chk_attr(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_qp_chk_attr()
Drxe_hw_counters.c58 struct rxe_dev *dev = to_rdev(ibdev); in rxe_ib_get_hw_stats()
Drxe_sysfs.c62 struct rxe_dev *exists; in rxe_param_set_add()
Drxe_req.c370 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in get_mtu()
383 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in init_req_packet()
477 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in fill_packet()
623 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in rxe_requester()
Drxe_av.c44 int rxe_av_chk_attr(struct rxe_dev *rxe, struct rdma_ah_attr *attr) in rxe_av_chk_attr()
Drxe_comp.c242 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in check_ack()
442 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in do_complete()
560 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in rxe_completer()
Drxe_mr.c572 struct rxe_dev *rxe = to_rdev(pd->ibpd.device); in lookup_mem()
591 int rxe_mem_map_pages(struct rxe_dev *rxe, struct rxe_mem *mem, in rxe_mem_map_pages()
Drxe_resp.c148 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in check_psn()
594 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in prepare_ack_packet()
837 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in do_complete()
1216 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in rxe_responder()
Drxe_pool.c198 struct rxe_dev *rxe, in rxe_pool_init()
Drxe_hdr.h42 struct rxe_dev *rxe; /* device that owns packet */