/Linux-v4.19/net/sched/ |
D | sch_mq.c | 29 struct net_device *dev = qdisc_dev(sch); in mq_offload() 43 struct net_device *dev = qdisc_dev(sch); in mq_offload_stats() 59 struct net_device *dev = qdisc_dev(sch); in mq_destroy() 75 struct net_device *dev = qdisc_dev(sch); in mq_init() 113 struct net_device *dev = qdisc_dev(sch); in mq_attach() 135 struct net_device *dev = qdisc_dev(sch); in mq_dump() 181 struct net_device *dev = qdisc_dev(sch); in mq_queue_get() 199 struct net_device *dev = qdisc_dev(sch); in mq_graft() 253 struct net_device *dev = qdisc_dev(sch); in mq_walk()
|
D | sch_mqprio.c | 35 struct net_device *dev = qdisc_dev(sch); in mqprio_destroy() 138 struct net_device *dev = qdisc_dev(sch); in mqprio_init() 293 struct net_device *dev = qdisc_dev(sch); in mqprio_attach() 314 struct net_device *dev = qdisc_dev(sch); in mqprio_queue_get() 325 struct net_device *dev = qdisc_dev(sch); in mqprio_graft() 387 struct net_device *dev = qdisc_dev(sch); in mqprio_dump() 472 struct net_device *dev = qdisc_dev(sch); in mqprio_find() 494 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class() 519 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class_stats() 573 struct net_device *dev = qdisc_dev(sch); in mqprio_walk()
|
D | sch_fifo.c | 65 u32 limit = qdisc_dev(sch)->tx_queue_len; in fifo_init() 68 limit *= psched_mtu(qdisc_dev(sch)); in fifo_init() 81 bypass = sch->limit >= psched_mtu(qdisc_dev(sch)); in fifo_init()
|
D | sch_teql.c | 82 struct net_device *dev = qdisc_dev(sch); in teql_enqueue() 106 struct net_device *m = qdisc_dev(q); in teql_dequeue() 173 struct net_device *dev = qdisc_dev(sch); in teql_qdisc_init() 299 struct net_device *slave = qdisc_dev(q); in teql_master_xmit() 371 struct net_device *slave = qdisc_dev(q); in teql_master_open() 424 if (new_mtu > qdisc_dev(q)->mtu) in teql_master_mtu()
|
D | sch_multiq.c | 115 netdev_get_tx_queue(qdisc_dev(sch), q->curband))) { in multiq_dequeue() 147 netdev_get_tx_queue(qdisc_dev(sch), curband))) { in multiq_peek() 190 if (!netif_is_multiqueue(qdisc_dev(sch))) in multiq_tune() 197 qopt->bands = qdisc_dev(sch)->real_num_tx_queues; in multiq_tune() 255 q->max_bands = qdisc_dev(sch)->num_tx_queues; in multiq_init()
|
D | sch_plug.c | 137 q->limit = qdisc_dev(sch)->tx_queue_len in plug_init() 138 * psched_mtu(qdisc_dev(sch)); in plug_init()
|
D | sch_etf.c | 200 skb->dev = qdisc_dev(sch); in timesortedlist_erase() 318 struct net_device *dev = qdisc_dev(sch); in etf_init() 423 struct net_device *dev = qdisc_dev(sch); in etf_destroy()
|
D | sch_cbs.c | 300 struct net_device *dev = qdisc_dev(sch); in cbs_change() 348 struct net_device *dev = qdisc_dev(sch); in cbs_init() 375 struct net_device *dev = qdisc_dev(sch); in cbs_destroy()
|
D | sch_ingress.c | 84 struct net_device *dev = qdisc_dev(sch); in ingress_init() 215 struct net_device *dev = qdisc_dev(sch); in clsact_init()
|
D | sch_red.c | 155 struct net_device *dev = qdisc_dev(sch); in red_offload() 284 struct net_device *dev = qdisc_dev(sch); in red_dump_offload_stats() 347 struct net_device *dev = qdisc_dev(sch); in red_dump_stats()
|
D | sch_prio.c | 147 struct net_device *dev = qdisc_dev(sch); in prio_offload() 254 struct net_device *dev = qdisc_dev(sch); in prio_dump_offload() 312 struct net_device *dev = qdisc_dev(sch); in prio_graft()
|
D | sch_tbf.c | 365 if (max_size < psched_mtu(qdisc_dev(sch))) in tbf_change() 367 max_size, qdisc_dev(sch)->name, in tbf_change() 368 psched_mtu(qdisc_dev(sch))); in tbf_change()
|
D | sch_api.c | 266 if (!qdisc_dev(root)) in qdisc_match_from_root() 273 hash_for_each_possible_rcu(qdisc_dev(root)->qdisc_hash, q, hash, handle) { in qdisc_match_from_root() 284 hash_add_rcu(qdisc_dev(q)->qdisc_hash, &q->hash, q->handle); in qdisc_hash_add() 778 sch = qdisc_lookup(qdisc_dev(sch), TC_H_MAJ(parentid)); in qdisc_tree_reduce_backlog() 817 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_qdisc() 1622 if (!qdisc_dev(root) || !recur) in tc_dump_qdisc_root() 1625 hash_for_each(qdisc_dev(root)->qdisc_hash, b, q, hash) { in tc_dump_qdisc_root() 1722 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_tclass() 2057 if (!qdisc_dev(root)) in tc_dump_tclass_root() 2067 hash_for_each(qdisc_dev(root)->qdisc_hash, b, q, hash) { in tc_dump_tclass_root()
|
D | sch_gred.c | 489 sch->limit = qdisc_dev(sch)->tx_queue_len in gred_init() 490 * psched_mtu(qdisc_dev(sch)); in gred_init()
|
D | sch_codel.c | 198 q->params.mtu = psched_mtu(qdisc_dev(sch)); in codel_init()
|
D | sch_generic.c | 387 dev = qdisc_dev(q); in qdisc_restart() 725 unsigned int qlen = qdisc_dev(qdisc)->tx_queue_len; in pfifo_fast_init() 965 dev_put(qdisc_dev(qdisc)); in qdisc_destroy()
|
D | sch_fq_codel.c | 473 q->quantum = psched_mtu(qdisc_dev(sch)); in fq_codel_init() 479 q->cparams.mtu = psched_mtu(qdisc_dev(sch)); in fq_codel_init()
|
D | sch_cake.c | 2191 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_besteffort() 2211 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_precedence() 2305 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv8() 2354 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv4() 2397 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv3() 2478 max(sch->limit * psched_mtu(qdisc_dev(sch)), in cake_reconfigure()
|
D | sch_qfq.c | 443 lmax = psched_mtu(qdisc_dev(sch)); in qfq_change_class() 1435 if (qdisc_dev(sch)->tx_queue_len + 1 > QFQ_MAX_AGG_CLASSES) in qfq_init_qdisc() 1438 max_classes = qdisc_dev(sch)->tx_queue_len + 1; in qfq_init_qdisc()
|
D | sch_fq.c | 813 q->quantum = 2 * psched_mtu(qdisc_dev(sch)); in fq_init() 814 q->initial_quantum = 10 * psched_mtu(qdisc_dev(sch)); in fq_init()
|
D | sch_cbq.c | 907 cl->quantum > 32*qdisc_dev(cl->qdisc)->mtu) { in cbq_normalize_quanta() 910 cl->quantum = qdisc_dev(cl->qdisc)->mtu/2 + 1; in cbq_normalize_quanta() 1188 q->link.allot = psched_mtu(qdisc_dev(sch)); in cbq_init()
|
D | sch_drr.c | 93 quantum = psched_mtu(qdisc_dev(sch)); in drr_change_class()
|
D | sch_pie.c | 104 u32 mtu = psched_mtu(qdisc_dev(sch)); in drop_early()
|
D | sch_hhf.c | 582 q->quantum = psched_mtu(qdisc_dev(sch)); in hhf_init()
|
D | cls_api.c | 618 netif_keep_dst(qdisc_dev(q)); in tcf_block_owner_netif_keep_dst() 1088 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tcf_fill_node() 1731 tcm->tcm_ifindex = qdisc_dev(block->q)->ifindex; in tc_chain_fill_node()
|