Home
last modified time | relevance | path

Searched refs:qdisc_pkt_len (Results 1 – 23 of 23) sorted by relevance

/Linux-v4.19/net/sched/
Dsch_skbprio.c89 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
112 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
121 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue()
156 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
Dsch_fq_codel.c175 len += qdisc_pkt_len(skb); in fq_codel_drop()
211 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue()
230 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue()
271 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func()
274 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
314 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue()
329 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
441 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
Dsch_sfq.c311 len = qdisc_pkt_len(skb); in sfq_drop()
435 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue()
447 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue()
474 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue()
508 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue()
519 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue()
576 drop_len += qdisc_pkt_len(skb); in sfq_rehash()
592 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
Dsch_codel.c75 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
95 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue()
178 dropped += qdisc_pkt_len(skb); in codel_change()
Dsch_gred.c169 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue()
194 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue()
234 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue()
235 q->backlog += qdisc_pkt_len(skb); in gred_enqueue()
263 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
Dact_police.c232 if (qdisc_pkt_len(skb) <= police->tcfp_mtu) { in tcf_police_act()
246 qdisc_pkt_len(skb)); in tcf_police_act()
251 toks -= (s64) psched_l2t_ns(&police->rate, qdisc_pkt_len(skb)); in tcf_police_act()
Dsch_tbf.c154 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment()
190 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue()
224 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
Dsch_qfq.c996 else if (cl->deficit < qdisc_pkt_len(cl->qdisc->ops->peek(cl->qdisc))) { in agg_dequeue()
1013 *len = qdisc_pkt_len(skb); in qfq_peek_skb()
1227 if (unlikely(cl->agg->lmax < qdisc_pkt_len(skb))) { in qfq_enqueue()
1229 cl->agg->lmax, qdisc_pkt_len(skb), cl->common.classid); in qfq_enqueue()
1231 qdisc_pkt_len(skb)); in qfq_enqueue()
1257 == cl && cl->deficit < qdisc_pkt_len(skb)) in qfq_enqueue()
Dsch_fq.c514 f->credit -= qdisc_pkt_len(skb); in fq_dequeue()
529 plen = qdisc_pkt_len(skb); in fq_dequeue()
531 plen = max(qdisc_pkt_len(skb), q->quantum); in fq_dequeue()
786 drop_len += qdisc_pkt_len(skb); in fq_change()
Dsch_fifo.c25 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= sch->limit)) in bfifo_enqueue()
Dsch_choke.c132 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx()
403 dropped += qdisc_pkt_len(skb); in choke_change()
Dsch_netem.c439 unsigned int len = 0, last_len, prev_len = qdisc_pkt_len(skb); in netem_enqueue()
559 delay += packet_time_ns(qdisc_pkt_len(skb), q); in netem_enqueue()
672 q->slot.bytes_left -= qdisc_pkt_len(skb); in netem_dequeue()
679 unsigned int pkt_len = qdisc_pkt_len(skb); in netem_dequeue()
Dsch_cake.c1307 u32 len = qdisc_pkt_len(skb); in cake_overhead()
1489 len = qdisc_pkt_len(skb); in cake_drop()
1624 int len = qdisc_pkt_len(skb); in cake_enqueue()
1713 b->bytes += qdisc_pkt_len(ack); in cake_enqueue()
1714 len -= qdisc_pkt_len(ack); in cake_enqueue()
1719 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(ack)); in cake_enqueue()
1837 len = qdisc_pkt_len(skb); in cake_dequeue_one()
2073 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in cake_dequeue()
Dsch_hhf.c288 pkt_len = qdisc_pkt_len(skb); in hhf_classify()
457 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
Dsch_hfsc.c842 len = qdisc_pkt_len(skb); in qdisc_peek_len()
1563 unsigned int len = qdisc_pkt_len(skb); in hfsc_enqueue()
1628 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue()
1630 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
Dsch_cbq.c723 cl->deficit -= qdisc_pkt_len(skb); in cbq_dequeue_prio()
731 borrow->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio()
732 cl->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio()
735 q->tx_len = qdisc_pkt_len(skb); in cbq_dequeue_prio()
Dsch_cbs.c204 len = qdisc_pkt_len(skb); in cbs_dequeue_soft()
Dsch_teql.c313 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
Dsch_drr.c401 len = qdisc_pkt_len(skb); in drr_dequeue()
Dsch_pie.c238 dropped += qdisc_pkt_len(skb); in pie_change()
Dsch_htb.c674 int bytes = qdisc_pkt_len(skb); in htb_charge_class()
889 cl->un.leaf.deficit[level] -= qdisc_pkt_len(skb); in htb_dequeue_tree()
Dsch_generic.c628 unsigned int pkt_len = qdisc_pkt_len(skb); in pfifo_fast_enqueue()
/Linux-v4.19/include/net/
Dsch_generic.h672 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function
723 qdisc_pkt_len(skb), in bstats_update()
758 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec()
764 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec()
770 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc()
776 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc()
908 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()