Lines Matching refs:pkt_dev
479 static void pktgen_clear_counters(struct pktgen_dev *pkt_dev);
554 const struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_show() local
561 (unsigned long long)pkt_dev->count, pkt_dev->min_pkt_size, in pktgen_if_show()
562 pkt_dev->max_pkt_size); in pktgen_if_show()
566 pkt_dev->nfrags, (unsigned long long) pkt_dev->delay, in pktgen_if_show()
567 pkt_dev->clone_skb, pkt_dev->odevname); in pktgen_if_show()
569 seq_printf(seq, " flows: %u flowlen: %u\n", pkt_dev->cflows, in pktgen_if_show()
570 pkt_dev->lflow); in pktgen_if_show()
574 pkt_dev->queue_map_min, in pktgen_if_show()
575 pkt_dev->queue_map_max); in pktgen_if_show()
577 if (pkt_dev->skb_priority) in pktgen_if_show()
579 pkt_dev->skb_priority); in pktgen_if_show()
581 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
585 &pkt_dev->in6_saddr, in pktgen_if_show()
586 &pkt_dev->min_in6_saddr, &pkt_dev->max_in6_saddr, in pktgen_if_show()
587 &pkt_dev->in6_daddr, in pktgen_if_show()
588 &pkt_dev->min_in6_daddr, &pkt_dev->max_in6_daddr); in pktgen_if_show()
592 pkt_dev->dst_min, pkt_dev->dst_max); in pktgen_if_show()
595 pkt_dev->src_min, pkt_dev->src_max); in pktgen_if_show()
601 is_zero_ether_addr(pkt_dev->src_mac) ? in pktgen_if_show()
602 pkt_dev->odev->dev_addr : pkt_dev->src_mac); in pktgen_if_show()
605 seq_printf(seq, "%pM\n", pkt_dev->dst_mac); in pktgen_if_show()
610 pkt_dev->udp_src_min, pkt_dev->udp_src_max, in pktgen_if_show()
611 pkt_dev->udp_dst_min, pkt_dev->udp_dst_max); in pktgen_if_show()
615 pkt_dev->src_mac_count, pkt_dev->dst_mac_count); in pktgen_if_show()
617 if (pkt_dev->nr_labels) { in pktgen_if_show()
619 for (i = 0; i < pkt_dev->nr_labels; i++) in pktgen_if_show()
620 seq_printf(seq, "%08x%s", ntohl(pkt_dev->labels[i]), in pktgen_if_show()
621 i == pkt_dev->nr_labels-1 ? "\n" : ", "); in pktgen_if_show()
624 if (pkt_dev->vlan_id != 0xffff) in pktgen_if_show()
626 pkt_dev->vlan_id, pkt_dev->vlan_p, in pktgen_if_show()
627 pkt_dev->vlan_cfi); in pktgen_if_show()
629 if (pkt_dev->svlan_id != 0xffff) in pktgen_if_show()
631 pkt_dev->svlan_id, pkt_dev->svlan_p, in pktgen_if_show()
632 pkt_dev->svlan_cfi); in pktgen_if_show()
634 if (pkt_dev->tos) in pktgen_if_show()
635 seq_printf(seq, " tos: 0x%02x\n", pkt_dev->tos); in pktgen_if_show()
637 if (pkt_dev->traffic_class) in pktgen_if_show()
638 seq_printf(seq, " traffic_class: 0x%02x\n", pkt_dev->traffic_class); in pktgen_if_show()
640 if (pkt_dev->burst > 1) in pktgen_if_show()
641 seq_printf(seq, " burst: %d\n", pkt_dev->burst); in pktgen_if_show()
643 if (pkt_dev->node >= 0) in pktgen_if_show()
644 seq_printf(seq, " node: %d\n", pkt_dev->node); in pktgen_if_show()
646 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) in pktgen_if_show()
648 else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) in pktgen_if_show()
655 if (!pkt_dev->cflows) in pktgen_if_show()
658 if (pkt_dev->flags & (1 << i)) in pktgen_if_show()
664 if (i == F_IPSEC && pkt_dev->spi) in pktgen_if_show()
665 seq_printf(seq, "spi:%u", pkt_dev->spi); in pktgen_if_show()
672 stopped = pkt_dev->running ? ktime_get() : pkt_dev->stopped_at; in pktgen_if_show()
673 idle = pkt_dev->idle_acc; in pktgen_if_show()
678 (unsigned long long)pkt_dev->sofar, in pktgen_if_show()
679 (unsigned long long)pkt_dev->errors); in pktgen_if_show()
683 (unsigned long long) ktime_to_us(pkt_dev->started_at), in pktgen_if_show()
689 pkt_dev->seq_num, pkt_dev->cur_dst_mac_offset, in pktgen_if_show()
690 pkt_dev->cur_src_mac_offset); in pktgen_if_show()
692 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
694 &pkt_dev->cur_in6_saddr, in pktgen_if_show()
695 &pkt_dev->cur_in6_daddr); in pktgen_if_show()
698 &pkt_dev->cur_saddr, &pkt_dev->cur_daddr); in pktgen_if_show()
701 pkt_dev->cur_udp_dst, pkt_dev->cur_udp_src); in pktgen_if_show()
703 seq_printf(seq, " cur_queue_map: %u\n", pkt_dev->cur_queue_map); in pktgen_if_show()
705 seq_printf(seq, " flows: %u\n", pkt_dev->nflows); in pktgen_if_show()
707 if (pkt_dev->result[0]) in pktgen_if_show()
708 seq_printf(seq, "Result: %s\n", pkt_dev->result); in pktgen_if_show()
804 static ssize_t get_labels(const char __user *buffer, struct pktgen_dev *pkt_dev) in get_labels() argument
811 pkt_dev->nr_labels = 0; in get_labels()
817 pkt_dev->labels[n] = htonl(tmp); in get_labels()
818 if (pkt_dev->labels[n] & MPLS_STACK_BOTTOM) in get_labels()
819 pkt_dev->flags |= F_MPLS_RND; in get_labels()
829 pkt_dev->nr_labels = n; in get_labels()
867 struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_write() local
875 pg_result = &(pkt_dev->result[0]); in pktgen_if_write()
927 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
928 pkt_dev->min_pkt_size = value; in pktgen_if_write()
929 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
932 pkt_dev->min_pkt_size); in pktgen_if_write()
944 if (value != pkt_dev->max_pkt_size) { in pktgen_if_write()
945 pkt_dev->max_pkt_size = value; in pktgen_if_write()
946 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
949 pkt_dev->max_pkt_size); in pktgen_if_write()
963 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
964 pkt_dev->min_pkt_size = value; in pktgen_if_write()
965 pkt_dev->max_pkt_size = value; in pktgen_if_write()
966 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
968 sprintf(pg_result, "OK: pkt_size=%u", pkt_dev->min_pkt_size); in pktgen_if_write()
989 pkt_dev->nfrags = value; in pktgen_if_write()
990 sprintf(pg_result, "OK: frags=%u", pkt_dev->nfrags); in pktgen_if_write()
1000 pkt_dev->delay = ULLONG_MAX; in pktgen_if_write()
1002 pkt_dev->delay = (u64)value; in pktgen_if_write()
1005 (unsigned long long) pkt_dev->delay); in pktgen_if_write()
1016 pkt_dev->delay = pkt_dev->min_pkt_size*8*NSEC_PER_USEC/value; in pktgen_if_write()
1018 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1031 pkt_dev->delay = NSEC_PER_SEC/value; in pktgen_if_write()
1033 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1044 if (value != pkt_dev->udp_src_min) { in pktgen_if_write()
1045 pkt_dev->udp_src_min = value; in pktgen_if_write()
1046 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1048 sprintf(pg_result, "OK: udp_src_min=%u", pkt_dev->udp_src_min); in pktgen_if_write()
1057 if (value != pkt_dev->udp_dst_min) { in pktgen_if_write()
1058 pkt_dev->udp_dst_min = value; in pktgen_if_write()
1059 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1061 sprintf(pg_result, "OK: udp_dst_min=%u", pkt_dev->udp_dst_min); in pktgen_if_write()
1070 if (value != pkt_dev->udp_src_max) { in pktgen_if_write()
1071 pkt_dev->udp_src_max = value; in pktgen_if_write()
1072 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1074 sprintf(pg_result, "OK: udp_src_max=%u", pkt_dev->udp_src_max); in pktgen_if_write()
1083 if (value != pkt_dev->udp_dst_max) { in pktgen_if_write()
1084 pkt_dev->udp_dst_max = value; in pktgen_if_write()
1085 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1087 sprintf(pg_result, "OK: udp_dst_max=%u", pkt_dev->udp_dst_max); in pktgen_if_write()
1095 ((pkt_dev->xmit_mode == M_NETIF_RECEIVE) || in pktgen_if_write()
1096 !(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))) in pktgen_if_write()
1099 pkt_dev->clone_skb = value; in pktgen_if_write()
1101 sprintf(pg_result, "OK: clone_skb=%d", pkt_dev->clone_skb); in pktgen_if_write()
1110 pkt_dev->count = value; in pktgen_if_write()
1112 (unsigned long long)pkt_dev->count); in pktgen_if_write()
1121 if (pkt_dev->src_mac_count != value) { in pktgen_if_write()
1122 pkt_dev->src_mac_count = value; in pktgen_if_write()
1123 pkt_dev->cur_src_mac_offset = 0; in pktgen_if_write()
1126 pkt_dev->src_mac_count); in pktgen_if_write()
1135 if (pkt_dev->dst_mac_count != value) { in pktgen_if_write()
1136 pkt_dev->dst_mac_count = value; in pktgen_if_write()
1137 pkt_dev->cur_dst_mac_offset = 0; in pktgen_if_write()
1140 pkt_dev->dst_mac_count); in pktgen_if_write()
1150 ((pkt_dev->xmit_mode == M_QUEUE_XMIT) || in pktgen_if_write()
1151 ((pkt_dev->xmit_mode == M_START_XMIT) && in pktgen_if_write()
1152 (!(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))))) in pktgen_if_write()
1154 pkt_dev->burst = value < 1 ? 1 : value; in pktgen_if_write()
1155 sprintf(pg_result, "OK: burst=%d", pkt_dev->burst); in pktgen_if_write()
1166 pkt_dev->node = value; in pktgen_if_write()
1167 sprintf(pg_result, "OK: node=%d", pkt_dev->node); in pktgen_if_write()
1168 if (pkt_dev->page) { in pktgen_if_write()
1169 put_page(pkt_dev->page); in pktgen_if_write()
1170 pkt_dev->page = NULL; in pktgen_if_write()
1190 pkt_dev->xmit_mode = M_START_XMIT; in pktgen_if_write()
1193 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1196 pkt_dev->xmit_mode = M_NETIF_RECEIVE; in pktgen_if_write()
1201 pkt_dev->last_ok = 1; in pktgen_if_write()
1206 pkt_dev->clone_skb = 0; in pktgen_if_write()
1208 pkt_dev->xmit_mode = M_QUEUE_XMIT; in pktgen_if_write()
1209 pkt_dev->last_ok = 1; in pktgen_if_write()
1237 pkt_dev->flags &= ~flag; in pktgen_if_write()
1239 pkt_dev->flags |= flag; in pktgen_if_write()
1255 sprintf(pg_result, "OK: flags=0x%x", pkt_dev->flags); in pktgen_if_write()
1259 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_min) - 1); in pktgen_if_write()
1266 if (strcmp(buf, pkt_dev->dst_min) != 0) { in pktgen_if_write()
1267 memset(pkt_dev->dst_min, 0, sizeof(pkt_dev->dst_min)); in pktgen_if_write()
1268 strcpy(pkt_dev->dst_min, buf); in pktgen_if_write()
1269 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_if_write()
1270 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_if_write()
1273 pr_debug("dst_min set to: %s\n", pkt_dev->dst_min); in pktgen_if_write()
1275 sprintf(pg_result, "OK: dst_min=%s", pkt_dev->dst_min); in pktgen_if_write()
1279 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_max) - 1); in pktgen_if_write()
1286 if (strcmp(buf, pkt_dev->dst_max) != 0) { in pktgen_if_write()
1287 memset(pkt_dev->dst_max, 0, sizeof(pkt_dev->dst_max)); in pktgen_if_write()
1288 strcpy(pkt_dev->dst_max, buf); in pktgen_if_write()
1289 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_if_write()
1290 pkt_dev->cur_daddr = pkt_dev->daddr_max; in pktgen_if_write()
1293 pr_debug("dst_max set to: %s\n", pkt_dev->dst_max); in pktgen_if_write()
1295 sprintf(pg_result, "OK: dst_max=%s", pkt_dev->dst_max); in pktgen_if_write()
1303 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1309 in6_pton(buf, -1, pkt_dev->in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1310 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_daddr); in pktgen_if_write()
1312 pkt_dev->cur_in6_daddr = pkt_dev->in6_daddr; in pktgen_if_write()
1326 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1332 in6_pton(buf, -1, pkt_dev->min_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1333 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->min_in6_daddr); in pktgen_if_write()
1335 pkt_dev->cur_in6_daddr = pkt_dev->min_in6_daddr; in pktgen_if_write()
1348 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1354 in6_pton(buf, -1, pkt_dev->max_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1355 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->max_in6_daddr); in pktgen_if_write()
1369 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1375 in6_pton(buf, -1, pkt_dev->in6_saddr.s6_addr, -1, NULL); in pktgen_if_write()
1376 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_saddr); in pktgen_if_write()
1378 pkt_dev->cur_in6_saddr = pkt_dev->in6_saddr; in pktgen_if_write()
1388 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_min) - 1); in pktgen_if_write()
1395 if (strcmp(buf, pkt_dev->src_min) != 0) { in pktgen_if_write()
1396 memset(pkt_dev->src_min, 0, sizeof(pkt_dev->src_min)); in pktgen_if_write()
1397 strcpy(pkt_dev->src_min, buf); in pktgen_if_write()
1398 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_if_write()
1399 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_if_write()
1402 pr_debug("src_min set to: %s\n", pkt_dev->src_min); in pktgen_if_write()
1404 sprintf(pg_result, "OK: src_min=%s", pkt_dev->src_min); in pktgen_if_write()
1408 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_max) - 1); in pktgen_if_write()
1415 if (strcmp(buf, pkt_dev->src_max) != 0) { in pktgen_if_write()
1416 memset(pkt_dev->src_max, 0, sizeof(pkt_dev->src_max)); in pktgen_if_write()
1417 strcpy(pkt_dev->src_max, buf); in pktgen_if_write()
1418 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_if_write()
1419 pkt_dev->cur_saddr = pkt_dev->saddr_max; in pktgen_if_write()
1422 pr_debug("src_max set to: %s\n", pkt_dev->src_max); in pktgen_if_write()
1424 sprintf(pg_result, "OK: src_max=%s", pkt_dev->src_max); in pktgen_if_write()
1436 if (!mac_pton(valstr, pkt_dev->dst_mac)) in pktgen_if_write()
1439 ether_addr_copy(&pkt_dev->hh[0], pkt_dev->dst_mac); in pktgen_if_write()
1441 sprintf(pg_result, "OK: dstmac %pM", pkt_dev->dst_mac); in pktgen_if_write()
1453 if (!mac_pton(valstr, pkt_dev->src_mac)) in pktgen_if_write()
1456 ether_addr_copy(&pkt_dev->hh[6], pkt_dev->src_mac); in pktgen_if_write()
1458 sprintf(pg_result, "OK: srcmac %pM", pkt_dev->src_mac); in pktgen_if_write()
1463 pktgen_clear_counters(pkt_dev); in pktgen_if_write()
1477 pkt_dev->cflows = value; in pktgen_if_write()
1478 sprintf(pg_result, "OK: flows=%u", pkt_dev->cflows); in pktgen_if_write()
1488 pkt_dev->spi = value; in pktgen_if_write()
1489 sprintf(pg_result, "OK: spi=%u", pkt_dev->spi); in pktgen_if_write()
1499 pkt_dev->lflow = value; in pktgen_if_write()
1500 sprintf(pg_result, "OK: flowlen=%u", pkt_dev->lflow); in pktgen_if_write()
1510 pkt_dev->queue_map_min = value; in pktgen_if_write()
1511 sprintf(pg_result, "OK: queue_map_min=%u", pkt_dev->queue_map_min); in pktgen_if_write()
1521 pkt_dev->queue_map_max = value; in pktgen_if_write()
1522 sprintf(pg_result, "OK: queue_map_max=%u", pkt_dev->queue_map_max); in pktgen_if_write()
1529 len = get_labels(&user_buffer[i], pkt_dev); in pktgen_if_write()
1534 for (n = 0; n < pkt_dev->nr_labels; n++) in pktgen_if_write()
1536 "%08x%s", ntohl(pkt_dev->labels[n]), in pktgen_if_write()
1537 n == pkt_dev->nr_labels-1 ? "" : ","); in pktgen_if_write()
1539 if (pkt_dev->nr_labels && pkt_dev->vlan_id != 0xffff) { in pktgen_if_write()
1540 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1541 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1556 pkt_dev->vlan_id = value; /* turn on VLAN */ in pktgen_if_write()
1561 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1564 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1565 sprintf(pg_result, "OK: vlan_id=%u", pkt_dev->vlan_id); in pktgen_if_write()
1567 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1568 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1582 if ((value <= 7) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1583 pkt_dev->vlan_p = value; in pktgen_if_write()
1584 sprintf(pg_result, "OK: vlan_p=%u", pkt_dev->vlan_p); in pktgen_if_write()
1597 if ((value <= 1) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1598 pkt_dev->vlan_cfi = value; in pktgen_if_write()
1599 sprintf(pg_result, "OK: vlan_cfi=%u", pkt_dev->vlan_cfi); in pktgen_if_write()
1612 if ((value <= 4095) && ((pkt_dev->vlan_id != 0xffff))) { in pktgen_if_write()
1613 pkt_dev->svlan_id = value; /* turn on SVLAN */ in pktgen_if_write()
1618 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1621 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1622 sprintf(pg_result, "OK: svlan_id=%u", pkt_dev->svlan_id); in pktgen_if_write()
1624 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1625 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1639 if ((value <= 7) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1640 pkt_dev->svlan_p = value; in pktgen_if_write()
1641 sprintf(pg_result, "OK: svlan_p=%u", pkt_dev->svlan_p); in pktgen_if_write()
1654 if ((value <= 1) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1655 pkt_dev->svlan_cfi = value; in pktgen_if_write()
1656 sprintf(pg_result, "OK: svlan_cfi=%u", pkt_dev->svlan_cfi); in pktgen_if_write()
1671 pkt_dev->tos = tmp_value; in pktgen_if_write()
1672 sprintf(pg_result, "OK: tos=0x%02x", pkt_dev->tos); in pktgen_if_write()
1687 pkt_dev->traffic_class = tmp_value; in pktgen_if_write()
1688 sprintf(pg_result, "OK: traffic_class=0x%02x", pkt_dev->traffic_class); in pktgen_if_write()
1701 pkt_dev->skb_priority = value; in pktgen_if_write()
1703 pkt_dev->skb_priority); in pktgen_if_write()
1707 sprintf(pkt_dev->result, "No such parameter \"%s\"", name); in pktgen_if_write()
1727 const struct pktgen_dev *pkt_dev; in pktgen_thread_show() local
1734 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1735 if (pkt_dev->running) in pktgen_thread_show()
1736 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1740 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1741 if (!pkt_dev->running) in pktgen_thread_show()
1742 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1866 struct pktgen_dev *pkt_dev = NULL; in __pktgen_NN_threads() local
1870 pkt_dev = pktgen_find_dev(t, ifname, exact); in __pktgen_NN_threads()
1871 if (pkt_dev) { in __pktgen_NN_threads()
1873 pkt_dev->removal_mark = 1; in __pktgen_NN_threads()
1879 return pkt_dev; in __pktgen_NN_threads()
1887 struct pktgen_dev *pkt_dev = NULL; in pktgen_mark_device() local
1896 pkt_dev = __pktgen_NN_threads(pn, ifname, REMOVE); in pktgen_mark_device()
1897 if (pkt_dev == NULL) in pktgen_mark_device()
1924 struct pktgen_dev *pkt_dev; in pktgen_change_name() local
1927 list_for_each_entry(pkt_dev, &t->if_list, list) { in pktgen_change_name()
1928 if (pkt_dev->odev != dev) in pktgen_change_name()
1931 proc_remove(pkt_dev->entry); in pktgen_change_name()
1933 pkt_dev->entry = proc_create_data(dev->name, 0600, in pktgen_change_name()
1936 pkt_dev); in pktgen_change_name()
1937 if (!pkt_dev->entry) in pktgen_change_name()
1974 struct pktgen_dev *pkt_dev, in pktgen_dev_get_by_name() argument
1995 struct pktgen_dev *pkt_dev, const char *ifname) in pktgen_setup_dev() argument
2001 if (pkt_dev->odev) { in pktgen_setup_dev()
2002 dev_put(pkt_dev->odev); in pktgen_setup_dev()
2003 pkt_dev->odev = NULL; in pktgen_setup_dev()
2006 odev = pktgen_dev_get_by_name(pn, pkt_dev, ifname); in pktgen_setup_dev()
2019 pkt_dev->odev = odev; in pktgen_setup_dev()
2030 static void pktgen_setup_inject(struct pktgen_dev *pkt_dev) in pktgen_setup_inject() argument
2034 if (!pkt_dev->odev) { in pktgen_setup_inject()
2036 sprintf(pkt_dev->result, in pktgen_setup_inject()
2042 ntxq = pkt_dev->odev->real_num_tx_queues; in pktgen_setup_inject()
2044 if (ntxq <= pkt_dev->queue_map_min) { in pktgen_setup_inject()
2046 pkt_dev->queue_map_min, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2047 pkt_dev->odevname); in pktgen_setup_inject()
2048 pkt_dev->queue_map_min = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2050 if (pkt_dev->queue_map_max >= ntxq) { in pktgen_setup_inject()
2052 pkt_dev->queue_map_max, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2053 pkt_dev->odevname); in pktgen_setup_inject()
2054 pkt_dev->queue_map_max = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2059 if (is_zero_ether_addr(pkt_dev->src_mac)) in pktgen_setup_inject()
2060 ether_addr_copy(&(pkt_dev->hh[6]), pkt_dev->odev->dev_addr); in pktgen_setup_inject()
2063 ether_addr_copy(&(pkt_dev->hh[0]), pkt_dev->dst_mac); in pktgen_setup_inject()
2065 if (pkt_dev->flags & F_IPV6) { in pktgen_setup_inject()
2069 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2070 pkt_dev->min_pkt_size = 14 + sizeof(struct ipv6hdr) in pktgen_setup_inject()
2073 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2077 if (pkt_dev->cur_in6_saddr.s6_addr[i]) { in pktgen_setup_inject()
2091 idev = __in6_dev_get(pkt_dev->odev); in pktgen_setup_inject()
2099 pkt_dev->cur_in6_saddr = ifp->addr; in pktgen_setup_inject()
2111 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2112 pkt_dev->min_pkt_size = 14 + sizeof(struct iphdr) in pktgen_setup_inject()
2115 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2118 pkt_dev->saddr_min = 0; in pktgen_setup_inject()
2119 pkt_dev->saddr_max = 0; in pktgen_setup_inject()
2120 if (strlen(pkt_dev->src_min) == 0) { in pktgen_setup_inject()
2125 in_dev = __in_dev_get_rcu(pkt_dev->odev); in pktgen_setup_inject()
2128 pkt_dev->saddr_min = in pktgen_setup_inject()
2130 pkt_dev->saddr_max = pkt_dev->saddr_min; in pktgen_setup_inject()
2135 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_setup_inject()
2136 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_setup_inject()
2139 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_setup_inject()
2140 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_setup_inject()
2143 pkt_dev->cur_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2144 if (pkt_dev->min_pkt_size > pkt_dev->max_pkt_size) in pktgen_setup_inject()
2145 pkt_dev->max_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2147 pkt_dev->cur_dst_mac_offset = 0; in pktgen_setup_inject()
2148 pkt_dev->cur_src_mac_offset = 0; in pktgen_setup_inject()
2149 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_setup_inject()
2150 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_setup_inject()
2151 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in pktgen_setup_inject()
2152 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in pktgen_setup_inject()
2153 pkt_dev->nflows = 0; in pktgen_setup_inject()
2157 static void spin(struct pktgen_dev *pkt_dev, ktime_t spin_until) in spin() argument
2187 } while (t.task && pkt_dev->running && !signal_pending(current)); in spin()
2192 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(end_time, start_time)); in spin()
2194 pkt_dev->next_tx = ktime_add_ns(spin_until, pkt_dev->delay); in spin()
2198 static inline void set_pkt_overhead(struct pktgen_dev *pkt_dev) in set_pkt_overhead() argument
2200 pkt_dev->pkt_overhead = 0; in set_pkt_overhead()
2201 pkt_dev->pkt_overhead += pkt_dev->nr_labels*sizeof(u32); in set_pkt_overhead()
2202 pkt_dev->pkt_overhead += VLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2203 pkt_dev->pkt_overhead += SVLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2206 static inline int f_seen(const struct pktgen_dev *pkt_dev, int flow) in f_seen() argument
2208 return !!(pkt_dev->flows[flow].flags & F_INIT); in f_seen()
2211 static inline int f_pick(struct pktgen_dev *pkt_dev) in f_pick() argument
2213 int flow = pkt_dev->curfl; in f_pick()
2215 if (pkt_dev->flags & F_FLOW_SEQ) { in f_pick()
2216 if (pkt_dev->flows[flow].count >= pkt_dev->lflow) { in f_pick()
2218 pkt_dev->flows[flow].count = 0; in f_pick()
2219 pkt_dev->flows[flow].flags = 0; in f_pick()
2220 pkt_dev->curfl += 1; in f_pick()
2221 if (pkt_dev->curfl >= pkt_dev->cflows) in f_pick()
2222 pkt_dev->curfl = 0; /*reset */ in f_pick()
2225 flow = prandom_u32() % pkt_dev->cflows; in f_pick()
2226 pkt_dev->curfl = flow; in f_pick()
2228 if (pkt_dev->flows[flow].count > pkt_dev->lflow) { in f_pick()
2229 pkt_dev->flows[flow].count = 0; in f_pick()
2230 pkt_dev->flows[flow].flags = 0; in f_pick()
2234 return pkt_dev->curfl; in f_pick()
2243 static void get_ipsec_sa(struct pktgen_dev *pkt_dev, int flow) in get_ipsec_sa() argument
2245 struct xfrm_state *x = pkt_dev->flows[flow].x; in get_ipsec_sa()
2246 struct pktgen_net *pn = net_generic(dev_net(pkt_dev->odev), pg_net_id); in get_ipsec_sa()
2249 if (pkt_dev->spi) { in get_ipsec_sa()
2253 x = xfrm_state_lookup_byspi(pn->net, htonl(pkt_dev->spi), AF_INET); in get_ipsec_sa()
2257 (xfrm_address_t *)&pkt_dev->cur_daddr, in get_ipsec_sa()
2258 (xfrm_address_t *)&pkt_dev->cur_saddr, in get_ipsec_sa()
2260 pkt_dev->ipsmode, in get_ipsec_sa()
2261 pkt_dev->ipsproto, 0); in get_ipsec_sa()
2264 pkt_dev->flows[flow].x = x; in get_ipsec_sa()
2265 set_pkt_overhead(pkt_dev); in get_ipsec_sa()
2266 pkt_dev->pkt_overhead += x->props.header_len; in get_ipsec_sa()
2272 static void set_cur_queue_map(struct pktgen_dev *pkt_dev) in set_cur_queue_map() argument
2275 if (pkt_dev->flags & F_QUEUE_MAP_CPU) in set_cur_queue_map()
2276 pkt_dev->cur_queue_map = smp_processor_id(); in set_cur_queue_map()
2278 else if (pkt_dev->queue_map_min <= pkt_dev->queue_map_max) { in set_cur_queue_map()
2280 if (pkt_dev->flags & F_QUEUE_MAP_RND) { in set_cur_queue_map()
2282 (pkt_dev->queue_map_max - in set_cur_queue_map()
2283 pkt_dev->queue_map_min + 1) in set_cur_queue_map()
2284 + pkt_dev->queue_map_min; in set_cur_queue_map()
2286 t = pkt_dev->cur_queue_map + 1; in set_cur_queue_map()
2287 if (t > pkt_dev->queue_map_max) in set_cur_queue_map()
2288 t = pkt_dev->queue_map_min; in set_cur_queue_map()
2290 pkt_dev->cur_queue_map = t; in set_cur_queue_map()
2292 pkt_dev->cur_queue_map = pkt_dev->cur_queue_map % pkt_dev->odev->real_num_tx_queues; in set_cur_queue_map()
2298 static void mod_cur_headers(struct pktgen_dev *pkt_dev) in mod_cur_headers() argument
2304 if (pkt_dev->cflows) in mod_cur_headers()
2305 flow = f_pick(pkt_dev); in mod_cur_headers()
2308 if (pkt_dev->src_mac_count > 1) { in mod_cur_headers()
2312 if (pkt_dev->flags & F_MACSRC_RND) in mod_cur_headers()
2313 mc = prandom_u32() % pkt_dev->src_mac_count; in mod_cur_headers()
2315 mc = pkt_dev->cur_src_mac_offset++; in mod_cur_headers()
2316 if (pkt_dev->cur_src_mac_offset >= in mod_cur_headers()
2317 pkt_dev->src_mac_count) in mod_cur_headers()
2318 pkt_dev->cur_src_mac_offset = 0; in mod_cur_headers()
2321 tmp = pkt_dev->src_mac[5] + (mc & 0xFF); in mod_cur_headers()
2322 pkt_dev->hh[11] = tmp; in mod_cur_headers()
2323 tmp = (pkt_dev->src_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2324 pkt_dev->hh[10] = tmp; in mod_cur_headers()
2325 tmp = (pkt_dev->src_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2326 pkt_dev->hh[9] = tmp; in mod_cur_headers()
2327 tmp = (pkt_dev->src_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2328 pkt_dev->hh[8] = tmp; in mod_cur_headers()
2329 tmp = (pkt_dev->src_mac[1] + (tmp >> 8)); in mod_cur_headers()
2330 pkt_dev->hh[7] = tmp; in mod_cur_headers()
2334 if (pkt_dev->dst_mac_count > 1) { in mod_cur_headers()
2338 if (pkt_dev->flags & F_MACDST_RND) in mod_cur_headers()
2339 mc = prandom_u32() % pkt_dev->dst_mac_count; in mod_cur_headers()
2342 mc = pkt_dev->cur_dst_mac_offset++; in mod_cur_headers()
2343 if (pkt_dev->cur_dst_mac_offset >= in mod_cur_headers()
2344 pkt_dev->dst_mac_count) { in mod_cur_headers()
2345 pkt_dev->cur_dst_mac_offset = 0; in mod_cur_headers()
2349 tmp = pkt_dev->dst_mac[5] + (mc & 0xFF); in mod_cur_headers()
2350 pkt_dev->hh[5] = tmp; in mod_cur_headers()
2351 tmp = (pkt_dev->dst_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2352 pkt_dev->hh[4] = tmp; in mod_cur_headers()
2353 tmp = (pkt_dev->dst_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2354 pkt_dev->hh[3] = tmp; in mod_cur_headers()
2355 tmp = (pkt_dev->dst_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2356 pkt_dev->hh[2] = tmp; in mod_cur_headers()
2357 tmp = (pkt_dev->dst_mac[1] + (tmp >> 8)); in mod_cur_headers()
2358 pkt_dev->hh[1] = tmp; in mod_cur_headers()
2361 if (pkt_dev->flags & F_MPLS_RND) { in mod_cur_headers()
2363 for (i = 0; i < pkt_dev->nr_labels; i++) in mod_cur_headers()
2364 if (pkt_dev->labels[i] & MPLS_STACK_BOTTOM) in mod_cur_headers()
2365 pkt_dev->labels[i] = MPLS_STACK_BOTTOM | in mod_cur_headers()
2370 if ((pkt_dev->flags & F_VID_RND) && (pkt_dev->vlan_id != 0xffff)) { in mod_cur_headers()
2371 pkt_dev->vlan_id = prandom_u32() & (4096 - 1); in mod_cur_headers()
2374 if ((pkt_dev->flags & F_SVID_RND) && (pkt_dev->svlan_id != 0xffff)) { in mod_cur_headers()
2375 pkt_dev->svlan_id = prandom_u32() & (4096 - 1); in mod_cur_headers()
2378 if (pkt_dev->udp_src_min < pkt_dev->udp_src_max) { in mod_cur_headers()
2379 if (pkt_dev->flags & F_UDPSRC_RND) in mod_cur_headers()
2380 pkt_dev->cur_udp_src = prandom_u32() % in mod_cur_headers()
2381 (pkt_dev->udp_src_max - pkt_dev->udp_src_min) in mod_cur_headers()
2382 + pkt_dev->udp_src_min; in mod_cur_headers()
2385 pkt_dev->cur_udp_src++; in mod_cur_headers()
2386 if (pkt_dev->cur_udp_src >= pkt_dev->udp_src_max) in mod_cur_headers()
2387 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in mod_cur_headers()
2391 if (pkt_dev->udp_dst_min < pkt_dev->udp_dst_max) { in mod_cur_headers()
2392 if (pkt_dev->flags & F_UDPDST_RND) { in mod_cur_headers()
2393 pkt_dev->cur_udp_dst = prandom_u32() % in mod_cur_headers()
2394 (pkt_dev->udp_dst_max - pkt_dev->udp_dst_min) in mod_cur_headers()
2395 + pkt_dev->udp_dst_min; in mod_cur_headers()
2397 pkt_dev->cur_udp_dst++; in mod_cur_headers()
2398 if (pkt_dev->cur_udp_dst >= pkt_dev->udp_dst_max) in mod_cur_headers()
2399 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in mod_cur_headers()
2403 if (!(pkt_dev->flags & F_IPV6)) { in mod_cur_headers()
2405 imn = ntohl(pkt_dev->saddr_min); in mod_cur_headers()
2406 imx = ntohl(pkt_dev->saddr_max); in mod_cur_headers()
2409 if (pkt_dev->flags & F_IPSRC_RND) in mod_cur_headers()
2412 t = ntohl(pkt_dev->cur_saddr); in mod_cur_headers()
2418 pkt_dev->cur_saddr = htonl(t); in mod_cur_headers()
2421 if (pkt_dev->cflows && f_seen(pkt_dev, flow)) { in mod_cur_headers()
2422 pkt_dev->cur_daddr = pkt_dev->flows[flow].cur_daddr; in mod_cur_headers()
2424 imn = ntohl(pkt_dev->daddr_min); in mod_cur_headers()
2425 imx = ntohl(pkt_dev->daddr_max); in mod_cur_headers()
2429 if (pkt_dev->flags & F_IPDST_RND) { in mod_cur_headers()
2440 pkt_dev->cur_daddr = s; in mod_cur_headers()
2442 t = ntohl(pkt_dev->cur_daddr); in mod_cur_headers()
2447 pkt_dev->cur_daddr = htonl(t); in mod_cur_headers()
2450 if (pkt_dev->cflows) { in mod_cur_headers()
2451 pkt_dev->flows[flow].flags |= F_INIT; in mod_cur_headers()
2452 pkt_dev->flows[flow].cur_daddr = in mod_cur_headers()
2453 pkt_dev->cur_daddr; in mod_cur_headers()
2455 if (pkt_dev->flags & F_IPSEC) in mod_cur_headers()
2456 get_ipsec_sa(pkt_dev, flow); in mod_cur_headers()
2458 pkt_dev->nflows++; in mod_cur_headers()
2463 if (!ipv6_addr_any(&pkt_dev->min_in6_daddr)) { in mod_cur_headers()
2469 pkt_dev->cur_in6_daddr.s6_addr32[i] = in mod_cur_headers()
2471 pkt_dev->min_in6_daddr.s6_addr32[i]) & in mod_cur_headers()
2472 pkt_dev->max_in6_daddr.s6_addr32[i]); in mod_cur_headers()
2477 if (pkt_dev->min_pkt_size < pkt_dev->max_pkt_size) { in mod_cur_headers()
2479 if (pkt_dev->flags & F_TXSIZE_RND) { in mod_cur_headers()
2481 (pkt_dev->max_pkt_size - pkt_dev->min_pkt_size) in mod_cur_headers()
2482 + pkt_dev->min_pkt_size; in mod_cur_headers()
2484 t = pkt_dev->cur_pkt_size + 1; in mod_cur_headers()
2485 if (t > pkt_dev->max_pkt_size) in mod_cur_headers()
2486 t = pkt_dev->min_pkt_size; in mod_cur_headers()
2488 pkt_dev->cur_pkt_size = t; in mod_cur_headers()
2491 set_cur_queue_map(pkt_dev); in mod_cur_headers()
2493 pkt_dev->flows[flow].count++; in mod_cur_headers()
2503 static int pktgen_output_ipsec(struct sk_buff *skb, struct pktgen_dev *pkt_dev) in pktgen_output_ipsec() argument
2505 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in pktgen_output_ipsec()
2507 struct net *net = dev_net(pkt_dev->odev); in pktgen_output_ipsec()
2513 if ((x->props.mode != XFRM_MODE_TRANSPORT) && (pkt_dev->spi == 0)) in pktgen_output_ipsec()
2519 if ((x->props.mode == XFRM_MODE_TUNNEL) && (pkt_dev->spi != 0)) in pktgen_output_ipsec()
2520 skb->_skb_refdst = (unsigned long)&pkt_dev->xdst.u.dst | SKB_DST_NOREF; in pktgen_output_ipsec()
2542 static void free_SAs(struct pktgen_dev *pkt_dev) in free_SAs() argument
2544 if (pkt_dev->cflows) { in free_SAs()
2547 for (i = 0; i < pkt_dev->cflows; i++) { in free_SAs()
2548 struct xfrm_state *x = pkt_dev->flows[i].x; in free_SAs()
2551 pkt_dev->flows[i].x = NULL; in free_SAs()
2557 static int process_ipsec(struct pktgen_dev *pkt_dev, in process_ipsec() argument
2560 if (pkt_dev->flags & F_IPSEC) { in process_ipsec()
2561 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in process_ipsec()
2580 ret = pktgen_output_ipsec(skb, pkt_dev); in process_ipsec()
2587 memcpy(eth, pkt_dev->hh, 2 * ETH_ALEN); in process_ipsec()
2603 static void mpls_push(__be32 *mpls, struct pktgen_dev *pkt_dev) in mpls_push() argument
2606 for (i = 0; i < pkt_dev->nr_labels; i++) in mpls_push()
2607 *mpls++ = pkt_dev->labels[i] & ~MPLS_STACK_BOTTOM; in mpls_push()
2619 static void pktgen_finalize_skb(struct pktgen_dev *pkt_dev, struct sk_buff *skb, in pktgen_finalize_skb() argument
2628 if (pkt_dev->nfrags <= 0) { in pktgen_finalize_skb()
2631 int frags = pkt_dev->nfrags; in pktgen_finalize_skb()
2648 if (unlikely(!pkt_dev->page)) { in pktgen_finalize_skb()
2651 if (pkt_dev->node >= 0 && (pkt_dev->flags & F_NODE)) in pktgen_finalize_skb()
2652 node = pkt_dev->node; in pktgen_finalize_skb()
2653 pkt_dev->page = alloc_pages_node(node, GFP_KERNEL | __GFP_ZERO, 0); in pktgen_finalize_skb()
2654 if (!pkt_dev->page) in pktgen_finalize_skb()
2657 get_page(pkt_dev->page); in pktgen_finalize_skb()
2658 skb_frag_set_page(skb, i, pkt_dev->page); in pktgen_finalize_skb()
2678 pgh->seq_num = htonl(pkt_dev->seq_num); in pktgen_finalize_skb()
2680 if (pkt_dev->flags & F_NO_TIMESTAMP) { in pktgen_finalize_skb()
2699 struct pktgen_dev *pkt_dev) in pktgen_alloc_skb() argument
2705 size = pkt_dev->cur_pkt_size + 64 + extralen + pkt_dev->pkt_overhead; in pktgen_alloc_skb()
2706 if (pkt_dev->flags & F_NODE) { in pktgen_alloc_skb()
2707 int node = pkt_dev->node >= 0 ? pkt_dev->node : numa_node_id(); in pktgen_alloc_skb()
2726 struct pktgen_dev *pkt_dev) in fill_packet_ipv4() argument
2741 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2744 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv4()
2750 mod_cur_headers(pkt_dev); in fill_packet_ipv4()
2751 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv4()
2753 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv4()
2755 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv4()
2764 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv4()
2765 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2766 mpls_push(mpls, pkt_dev); in fill_packet_ipv4()
2768 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv4()
2769 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv4()
2771 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv4()
2772 pkt_dev->svlan_cfi, in fill_packet_ipv4()
2773 pkt_dev->svlan_p); in fill_packet_ipv4()
2779 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv4()
2780 pkt_dev->vlan_cfi, in fill_packet_ipv4()
2781 pkt_dev->vlan_p); in fill_packet_ipv4()
2793 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv4()
2795 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv4()
2799 datalen = pkt_dev->cur_pkt_size - 14 - 20 - 8 - in fill_packet_ipv4()
2800 pkt_dev->pkt_overhead; in fill_packet_ipv4()
2804 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv4()
2805 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv4()
2812 iph->tos = pkt_dev->tos; in fill_packet_ipv4()
2814 iph->saddr = pkt_dev->cur_saddr; in fill_packet_ipv4()
2815 iph->daddr = pkt_dev->cur_daddr; in fill_packet_ipv4()
2816 iph->id = htons(pkt_dev->ip_id); in fill_packet_ipv4()
2817 pkt_dev->ip_id++; in fill_packet_ipv4()
2826 pktgen_finalize_skb(pkt_dev, skb, datalen); in fill_packet_ipv4()
2828 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv4()
2846 if (!process_ipsec(pkt_dev, skb, protocol)) in fill_packet_ipv4()
2854 struct pktgen_dev *pkt_dev) in fill_packet_ipv6() argument
2869 if (pkt_dev->nr_labels) in fill_packet_ipv6()
2872 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv6()
2878 mod_cur_headers(pkt_dev); in fill_packet_ipv6()
2879 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv6()
2881 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv6()
2883 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv6()
2892 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv6()
2893 if (pkt_dev->nr_labels) in fill_packet_ipv6()
2894 mpls_push(mpls, pkt_dev); in fill_packet_ipv6()
2896 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv6()
2897 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv6()
2899 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv6()
2900 pkt_dev->svlan_cfi, in fill_packet_ipv6()
2901 pkt_dev->svlan_p); in fill_packet_ipv6()
2907 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv6()
2908 pkt_dev->vlan_cfi, in fill_packet_ipv6()
2909 pkt_dev->vlan_p); in fill_packet_ipv6()
2921 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv6()
2923 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv6()
2927 datalen = pkt_dev->cur_pkt_size - 14 - in fill_packet_ipv6()
2929 pkt_dev->pkt_overhead; in fill_packet_ipv6()
2937 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv6()
2938 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv6()
2944 if (pkt_dev->traffic_class) { in fill_packet_ipv6()
2946 *(__be32 *)iph |= htonl(0x60000000 | (pkt_dev->traffic_class << 20)); in fill_packet_ipv6()
2954 iph->daddr = pkt_dev->cur_in6_daddr; in fill_packet_ipv6()
2955 iph->saddr = pkt_dev->cur_in6_saddr; in fill_packet_ipv6()
2961 pktgen_finalize_skb(pkt_dev, skb, datalen); in fill_packet_ipv6()
2963 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv6()
2984 struct pktgen_dev *pkt_dev) in fill_packet() argument
2986 if (pkt_dev->flags & F_IPV6) in fill_packet()
2987 return fill_packet_ipv6(odev, pkt_dev); in fill_packet()
2989 return fill_packet_ipv4(odev, pkt_dev); in fill_packet()
2992 static void pktgen_clear_counters(struct pktgen_dev *pkt_dev) in pktgen_clear_counters() argument
2994 pkt_dev->seq_num = 1; in pktgen_clear_counters()
2995 pkt_dev->idle_acc = 0; in pktgen_clear_counters()
2996 pkt_dev->sofar = 0; in pktgen_clear_counters()
2997 pkt_dev->tx_bytes = 0; in pktgen_clear_counters()
2998 pkt_dev->errors = 0; in pktgen_clear_counters()
3005 struct pktgen_dev *pkt_dev; in pktgen_run() local
3011 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_run()
3016 pktgen_setup_inject(pkt_dev); in pktgen_run()
3018 if (pkt_dev->odev) { in pktgen_run()
3019 pktgen_clear_counters(pkt_dev); in pktgen_run()
3020 pkt_dev->skb = NULL; in pktgen_run()
3021 pkt_dev->started_at = pkt_dev->next_tx = ktime_get(); in pktgen_run()
3023 set_pkt_overhead(pkt_dev); in pktgen_run()
3025 strcpy(pkt_dev->result, "Starting"); in pktgen_run()
3026 pkt_dev->running = 1; /* Cranke yeself! */ in pktgen_run()
3029 strcpy(pkt_dev->result, "Error starting"); in pktgen_run()
3052 const struct pktgen_dev *pkt_dev; in thread_is_running() local
3055 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in thread_is_running()
3056 if (pkt_dev->running) { in thread_is_running()
3137 static void show_results(struct pktgen_dev *pkt_dev, int nr_frags) in show_results() argument
3140 char *p = pkt_dev->result; in show_results()
3141 ktime_t elapsed = ktime_sub(pkt_dev->stopped_at, in show_results()
3142 pkt_dev->started_at); in show_results()
3143 ktime_t idle = ns_to_ktime(pkt_dev->idle_acc); in show_results()
3149 (unsigned long long)pkt_dev->sofar, in show_results()
3150 pkt_dev->cur_pkt_size, nr_frags); in show_results()
3152 pps = div64_u64(pkt_dev->sofar * NSEC_PER_SEC, in show_results()
3155 bps = pps * 8 * pkt_dev->cur_pkt_size; in show_results()
3163 (unsigned long long)pkt_dev->errors); in show_results()
3167 static int pktgen_stop_device(struct pktgen_dev *pkt_dev) in pktgen_stop_device() argument
3169 int nr_frags = pkt_dev->skb ? skb_shinfo(pkt_dev->skb)->nr_frags : -1; in pktgen_stop_device()
3171 if (!pkt_dev->running) { in pktgen_stop_device()
3173 pkt_dev->odevname); in pktgen_stop_device()
3177 pkt_dev->running = 0; in pktgen_stop_device()
3178 kfree_skb(pkt_dev->skb); in pktgen_stop_device()
3179 pkt_dev->skb = NULL; in pktgen_stop_device()
3180 pkt_dev->stopped_at = ktime_get(); in pktgen_stop_device()
3182 show_results(pkt_dev, nr_frags); in pktgen_stop_device()
3189 struct pktgen_dev *pkt_dev, *best = NULL; in next_to_run() local
3192 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in next_to_run()
3193 if (!pkt_dev->running) in next_to_run()
3196 best = pkt_dev; in next_to_run()
3197 else if (ktime_compare(pkt_dev->next_tx, best->next_tx) < 0) in next_to_run()
3198 best = pkt_dev; in next_to_run()
3207 struct pktgen_dev *pkt_dev; in pktgen_stop() local
3213 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_stop()
3214 pktgen_stop_device(pkt_dev); in pktgen_stop()
3271 static void pktgen_resched(struct pktgen_dev *pkt_dev) in pktgen_resched() argument
3275 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_resched()
3278 static void pktgen_wait_for_skb(struct pktgen_dev *pkt_dev) in pktgen_wait_for_skb() argument
3282 while (refcount_read(&(pkt_dev->skb->users)) != 1) { in pktgen_wait_for_skb()
3287 pktgen_resched(pkt_dev); in pktgen_wait_for_skb()
3291 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_wait_for_skb()
3294 static void pktgen_xmit(struct pktgen_dev *pkt_dev) in pktgen_xmit() argument
3296 unsigned int burst = READ_ONCE(pkt_dev->burst); in pktgen_xmit()
3297 struct net_device *odev = pkt_dev->odev; in pktgen_xmit()
3304 pktgen_stop_device(pkt_dev); in pktgen_xmit()
3311 if (unlikely(pkt_dev->delay == ULLONG_MAX)) { in pktgen_xmit()
3312 pkt_dev->next_tx = ktime_add_ns(ktime_get(), ULONG_MAX); in pktgen_xmit()
3317 if (!pkt_dev->skb || (pkt_dev->last_ok && in pktgen_xmit()
3318 ++pkt_dev->clone_count >= pkt_dev->clone_skb)) { in pktgen_xmit()
3320 kfree_skb(pkt_dev->skb); in pktgen_xmit()
3322 pkt_dev->skb = fill_packet(odev, pkt_dev); in pktgen_xmit()
3323 if (pkt_dev->skb == NULL) { in pktgen_xmit()
3326 pkt_dev->clone_count--; /* back out increment, OOM */ in pktgen_xmit()
3329 pkt_dev->last_pkt_size = pkt_dev->skb->len; in pktgen_xmit()
3330 pkt_dev->clone_count = 0; /* reset counter */ in pktgen_xmit()
3333 if (pkt_dev->delay && pkt_dev->last_ok) in pktgen_xmit()
3334 spin(pkt_dev, pkt_dev->next_tx); in pktgen_xmit()
3336 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) { in pktgen_xmit()
3337 skb = pkt_dev->skb; in pktgen_xmit()
3344 pkt_dev->errors++; in pktgen_xmit()
3345 pkt_dev->sofar++; in pktgen_xmit()
3346 pkt_dev->seq_num++; in pktgen_xmit()
3363 } else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) { in pktgen_xmit()
3365 refcount_inc(&pkt_dev->skb->users); in pktgen_xmit()
3367 ret = dev_queue_xmit(pkt_dev->skb); in pktgen_xmit()
3370 pkt_dev->sofar++; in pktgen_xmit()
3371 pkt_dev->seq_num++; in pktgen_xmit()
3372 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3387 pkt_dev->errors++; in pktgen_xmit()
3389 pkt_dev->odevname, ret); in pktgen_xmit()
3395 txq = skb_get_tx_queue(odev, pkt_dev->skb); in pktgen_xmit()
3403 pkt_dev->last_ok = 0; in pktgen_xmit()
3406 refcount_add(burst, &pkt_dev->skb->users); in pktgen_xmit()
3409 ret = netdev_start_xmit(pkt_dev->skb, odev, txq, --burst > 0); in pktgen_xmit()
3413 pkt_dev->last_ok = 1; in pktgen_xmit()
3414 pkt_dev->sofar++; in pktgen_xmit()
3415 pkt_dev->seq_num++; in pktgen_xmit()
3416 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3423 pkt_dev->errors++; in pktgen_xmit()
3427 pkt_dev->odevname, ret); in pktgen_xmit()
3428 pkt_dev->errors++; in pktgen_xmit()
3432 refcount_dec(&(pkt_dev->skb->users)); in pktgen_xmit()
3433 pkt_dev->last_ok = 0; in pktgen_xmit()
3436 WARN_ON(refcount_sub_and_test(burst, &pkt_dev->skb->users)); in pktgen_xmit()
3444 if ((pkt_dev->count != 0) && (pkt_dev->sofar >= pkt_dev->count)) { in pktgen_xmit()
3445 pktgen_wait_for_skb(pkt_dev); in pktgen_xmit()
3448 pktgen_stop_device(pkt_dev); in pktgen_xmit()
3460 struct pktgen_dev *pkt_dev = NULL; in pktgen_thread_worker() local
3473 pkt_dev = next_to_run(t); in pktgen_thread_worker()
3475 if (unlikely(!pkt_dev && t->control == 0)) { in pktgen_thread_worker()
3485 if (likely(pkt_dev)) { in pktgen_thread_worker()
3486 pktgen_xmit(pkt_dev); in pktgen_thread_worker()
3489 pktgen_resched(pkt_dev); in pktgen_thread_worker()
3532 struct pktgen_dev *p, *pkt_dev = NULL; in pktgen_find_dev() local
3542 pkt_dev = p; in pktgen_find_dev()
3547 pr_debug("find_dev(%s) returning %p\n", ifname, pkt_dev); in pktgen_find_dev()
3548 return pkt_dev; in pktgen_find_dev()
3556 struct pktgen_dev *pkt_dev) in add_dev_to_thread() argument
3568 if (pkt_dev->pg_thread) { in add_dev_to_thread()
3574 pkt_dev->running = 0; in add_dev_to_thread()
3575 pkt_dev->pg_thread = t; in add_dev_to_thread()
3576 list_add_rcu(&pkt_dev->list, &t->if_list); in add_dev_to_thread()
3587 struct pktgen_dev *pkt_dev; in pktgen_add_device() local
3593 pkt_dev = __pktgen_NN_threads(t->net, ifname, FIND); in pktgen_add_device()
3594 if (pkt_dev) { in pktgen_add_device()
3599 pkt_dev = kzalloc_node(sizeof(struct pktgen_dev), GFP_KERNEL, node); in pktgen_add_device()
3600 if (!pkt_dev) in pktgen_add_device()
3603 strcpy(pkt_dev->odevname, ifname); in pktgen_add_device()
3604 pkt_dev->flows = vzalloc_node(array_size(MAX_CFLOWS, in pktgen_add_device()
3607 if (pkt_dev->flows == NULL) { in pktgen_add_device()
3608 kfree(pkt_dev); in pktgen_add_device()
3612 pkt_dev->removal_mark = 0; in pktgen_add_device()
3613 pkt_dev->nfrags = 0; in pktgen_add_device()
3614 pkt_dev->delay = pg_delay_d; in pktgen_add_device()
3615 pkt_dev->count = pg_count_d; in pktgen_add_device()
3616 pkt_dev->sofar = 0; in pktgen_add_device()
3617 pkt_dev->udp_src_min = 9; /* sink port */ in pktgen_add_device()
3618 pkt_dev->udp_src_max = 9; in pktgen_add_device()
3619 pkt_dev->udp_dst_min = 9; in pktgen_add_device()
3620 pkt_dev->udp_dst_max = 9; in pktgen_add_device()
3621 pkt_dev->vlan_p = 0; in pktgen_add_device()
3622 pkt_dev->vlan_cfi = 0; in pktgen_add_device()
3623 pkt_dev->vlan_id = 0xffff; in pktgen_add_device()
3624 pkt_dev->svlan_p = 0; in pktgen_add_device()
3625 pkt_dev->svlan_cfi = 0; in pktgen_add_device()
3626 pkt_dev->svlan_id = 0xffff; in pktgen_add_device()
3627 pkt_dev->burst = 1; in pktgen_add_device()
3628 pkt_dev->node = -1; in pktgen_add_device()
3630 err = pktgen_setup_dev(t->net, pkt_dev, ifname); in pktgen_add_device()
3633 if (pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING) in pktgen_add_device()
3634 pkt_dev->clone_skb = pg_clone_skb_d; in pktgen_add_device()
3636 pkt_dev->entry = proc_create_data(ifname, 0600, t->net->proc_dir, in pktgen_add_device()
3637 &pktgen_if_fops, pkt_dev); in pktgen_add_device()
3638 if (!pkt_dev->entry) { in pktgen_add_device()
3645 pkt_dev->ipsmode = XFRM_MODE_TRANSPORT; in pktgen_add_device()
3646 pkt_dev->ipsproto = IPPROTO_ESP; in pktgen_add_device()
3653 pkt_dev->dstops.family = AF_INET; in pktgen_add_device()
3654 pkt_dev->xdst.u.dst.dev = pkt_dev->odev; in pktgen_add_device()
3655 dst_init_metrics(&pkt_dev->xdst.u.dst, pktgen_dst_metrics, false); in pktgen_add_device()
3656 pkt_dev->xdst.child = &pkt_dev->xdst.u.dst; in pktgen_add_device()
3657 pkt_dev->xdst.u.dst.ops = &pkt_dev->dstops; in pktgen_add_device()
3660 return add_dev_to_thread(t, pkt_dev); in pktgen_add_device()
3662 dev_put(pkt_dev->odev); in pktgen_add_device()
3665 free_SAs(pkt_dev); in pktgen_add_device()
3667 vfree(pkt_dev->flows); in pktgen_add_device()
3668 kfree(pkt_dev); in pktgen_add_device()
3729 struct pktgen_dev *pkt_dev) in _rem_dev_from_if_list() argument
3737 if (p == pkt_dev) in _rem_dev_from_if_list()
3744 struct pktgen_dev *pkt_dev) in pktgen_remove_device() argument
3746 pr_debug("remove_device pkt_dev=%p\n", pkt_dev); in pktgen_remove_device()
3748 if (pkt_dev->running) { in pktgen_remove_device()
3750 pktgen_stop_device(pkt_dev); in pktgen_remove_device()
3755 if (pkt_dev->odev) { in pktgen_remove_device()
3756 dev_put(pkt_dev->odev); in pktgen_remove_device()
3757 pkt_dev->odev = NULL; in pktgen_remove_device()
3763 proc_remove(pkt_dev->entry); in pktgen_remove_device()
3766 _rem_dev_from_if_list(t, pkt_dev); in pktgen_remove_device()
3769 free_SAs(pkt_dev); in pktgen_remove_device()
3771 vfree(pkt_dev->flows); in pktgen_remove_device()
3772 if (pkt_dev->page) in pktgen_remove_device()
3773 put_page(pkt_dev->page); in pktgen_remove_device()
3774 kfree_rcu(pkt_dev, rcu); in pktgen_remove_device()