| /Linux-v4.19/net/sched/ |
| D | sch_skbprio.c | 89 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 112 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 121 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue() 156 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
|
| D | sch_fq_codel.c | 175 len += qdisc_pkt_len(skb); in fq_codel_drop() 211 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue() 230 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue() 271 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func() 274 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 314 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue() 329 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue() 441 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
|
| D | sch_sfq.c | 311 len = qdisc_pkt_len(skb); in sfq_drop() 435 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue() 447 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue() 474 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue() 508 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue() 519 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue() 576 drop_len += qdisc_pkt_len(skb); in sfq_rehash() 592 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
|
| D | sch_codel.c | 75 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 95 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue() 178 dropped += qdisc_pkt_len(skb); in codel_change()
|
| D | sch_gred.c | 169 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue() 194 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue() 234 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue() 235 q->backlog += qdisc_pkt_len(skb); in gred_enqueue() 263 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
|
| D | act_police.c | 232 if (qdisc_pkt_len(skb) <= police->tcfp_mtu) { in tcf_police_act() 246 qdisc_pkt_len(skb)); in tcf_police_act() 251 toks -= (s64) psched_l2t_ns(&police->rate, qdisc_pkt_len(skb)); in tcf_police_act()
|
| D | sch_tbf.c | 154 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment() 190 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue() 224 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
|
| D | sch_qfq.c | 996 else if (cl->deficit < qdisc_pkt_len(cl->qdisc->ops->peek(cl->qdisc))) { in agg_dequeue() 1013 *len = qdisc_pkt_len(skb); in qfq_peek_skb() 1227 if (unlikely(cl->agg->lmax < qdisc_pkt_len(skb))) { in qfq_enqueue() 1229 cl->agg->lmax, qdisc_pkt_len(skb), cl->common.classid); in qfq_enqueue() 1231 qdisc_pkt_len(skb)); in qfq_enqueue() 1257 == cl && cl->deficit < qdisc_pkt_len(skb)) in qfq_enqueue()
|
| D | sch_fq.c | 514 f->credit -= qdisc_pkt_len(skb); in fq_dequeue() 529 plen = qdisc_pkt_len(skb); in fq_dequeue() 531 plen = max(qdisc_pkt_len(skb), q->quantum); in fq_dequeue() 786 drop_len += qdisc_pkt_len(skb); in fq_change()
|
| D | sch_fifo.c | 25 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= sch->limit)) in bfifo_enqueue()
|
| D | sch_choke.c | 132 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx() 403 dropped += qdisc_pkt_len(skb); in choke_change()
|
| D | sch_netem.c | 439 unsigned int len = 0, last_len, prev_len = qdisc_pkt_len(skb); in netem_enqueue() 559 delay += packet_time_ns(qdisc_pkt_len(skb), q); in netem_enqueue() 672 q->slot.bytes_left -= qdisc_pkt_len(skb); in netem_dequeue() 679 unsigned int pkt_len = qdisc_pkt_len(skb); in netem_dequeue()
|
| D | sch_cake.c | 1307 u32 len = qdisc_pkt_len(skb); in cake_overhead() 1489 len = qdisc_pkt_len(skb); in cake_drop() 1624 int len = qdisc_pkt_len(skb); in cake_enqueue() 1713 b->bytes += qdisc_pkt_len(ack); in cake_enqueue() 1714 len -= qdisc_pkt_len(ack); in cake_enqueue() 1719 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(ack)); in cake_enqueue() 1837 len = qdisc_pkt_len(skb); in cake_dequeue_one() 2073 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in cake_dequeue()
|
| D | sch_hhf.c | 288 pkt_len = qdisc_pkt_len(skb); in hhf_classify() 457 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
|
| D | sch_hfsc.c | 842 len = qdisc_pkt_len(skb); in qdisc_peek_len() 1563 unsigned int len = qdisc_pkt_len(skb); in hfsc_enqueue() 1628 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue() 1630 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
|
| D | sch_cbq.c | 723 cl->deficit -= qdisc_pkt_len(skb); in cbq_dequeue_prio() 731 borrow->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio() 732 cl->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio() 735 q->tx_len = qdisc_pkt_len(skb); in cbq_dequeue_prio()
|
| D | sch_cbs.c | 204 len = qdisc_pkt_len(skb); in cbs_dequeue_soft()
|
| D | sch_teql.c | 313 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
|
| D | sch_drr.c | 401 len = qdisc_pkt_len(skb); in drr_dequeue()
|
| D | sch_pie.c | 238 dropped += qdisc_pkt_len(skb); in pie_change()
|
| D | sch_htb.c | 674 int bytes = qdisc_pkt_len(skb); in htb_charge_class() 889 cl->un.leaf.deficit[level] -= qdisc_pkt_len(skb); in htb_dequeue_tree()
|
| D | sch_generic.c | 628 unsigned int pkt_len = qdisc_pkt_len(skb); in pfifo_fast_enqueue()
|
| /Linux-v4.19/include/net/ |
| D | sch_generic.h | 672 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function 723 qdisc_pkt_len(skb), in bstats_update() 758 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec() 764 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec() 770 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc() 776 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc() 908 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
|