Lines Matching refs:pkt_dev
488 static void pktgen_clear_counters(struct pktgen_dev *pkt_dev);
489 static void fill_imix_distribution(struct pktgen_dev *pkt_dev);
561 const struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_show() local
568 (unsigned long long)pkt_dev->count, pkt_dev->min_pkt_size, in pktgen_if_show()
569 pkt_dev->max_pkt_size); in pktgen_if_show()
571 if (pkt_dev->n_imix_entries > 0) { in pktgen_if_show()
573 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in pktgen_if_show()
575 pkt_dev->imix_entries[i].size, in pktgen_if_show()
576 pkt_dev->imix_entries[i].weight); in pktgen_if_show()
583 pkt_dev->nfrags, (unsigned long long) pkt_dev->delay, in pktgen_if_show()
584 pkt_dev->clone_skb, pkt_dev->odevname); in pktgen_if_show()
586 seq_printf(seq, " flows: %u flowlen: %u\n", pkt_dev->cflows, in pktgen_if_show()
587 pkt_dev->lflow); in pktgen_if_show()
591 pkt_dev->queue_map_min, in pktgen_if_show()
592 pkt_dev->queue_map_max); in pktgen_if_show()
594 if (pkt_dev->skb_priority) in pktgen_if_show()
596 pkt_dev->skb_priority); in pktgen_if_show()
598 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
602 &pkt_dev->in6_saddr, in pktgen_if_show()
603 &pkt_dev->min_in6_saddr, &pkt_dev->max_in6_saddr, in pktgen_if_show()
604 &pkt_dev->in6_daddr, in pktgen_if_show()
605 &pkt_dev->min_in6_daddr, &pkt_dev->max_in6_daddr); in pktgen_if_show()
609 pkt_dev->dst_min, pkt_dev->dst_max); in pktgen_if_show()
612 pkt_dev->src_min, pkt_dev->src_max); in pktgen_if_show()
618 is_zero_ether_addr(pkt_dev->src_mac) ? in pktgen_if_show()
619 pkt_dev->odev->dev_addr : pkt_dev->src_mac); in pktgen_if_show()
622 seq_printf(seq, "%pM\n", pkt_dev->dst_mac); in pktgen_if_show()
627 pkt_dev->udp_src_min, pkt_dev->udp_src_max, in pktgen_if_show()
628 pkt_dev->udp_dst_min, pkt_dev->udp_dst_max); in pktgen_if_show()
632 pkt_dev->src_mac_count, pkt_dev->dst_mac_count); in pktgen_if_show()
634 if (pkt_dev->nr_labels) { in pktgen_if_show()
636 for (i = 0; i < pkt_dev->nr_labels; i++) in pktgen_if_show()
637 seq_printf(seq, "%08x%s", ntohl(pkt_dev->labels[i]), in pktgen_if_show()
638 i == pkt_dev->nr_labels-1 ? "\n" : ", "); in pktgen_if_show()
641 if (pkt_dev->vlan_id != 0xffff) in pktgen_if_show()
643 pkt_dev->vlan_id, pkt_dev->vlan_p, in pktgen_if_show()
644 pkt_dev->vlan_cfi); in pktgen_if_show()
646 if (pkt_dev->svlan_id != 0xffff) in pktgen_if_show()
648 pkt_dev->svlan_id, pkt_dev->svlan_p, in pktgen_if_show()
649 pkt_dev->svlan_cfi); in pktgen_if_show()
651 if (pkt_dev->tos) in pktgen_if_show()
652 seq_printf(seq, " tos: 0x%02x\n", pkt_dev->tos); in pktgen_if_show()
654 if (pkt_dev->traffic_class) in pktgen_if_show()
655 seq_printf(seq, " traffic_class: 0x%02x\n", pkt_dev->traffic_class); in pktgen_if_show()
657 if (pkt_dev->burst > 1) in pktgen_if_show()
658 seq_printf(seq, " burst: %d\n", pkt_dev->burst); in pktgen_if_show()
660 if (pkt_dev->node >= 0) in pktgen_if_show()
661 seq_printf(seq, " node: %d\n", pkt_dev->node); in pktgen_if_show()
663 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) in pktgen_if_show()
665 else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) in pktgen_if_show()
672 if (!pkt_dev->cflows) in pktgen_if_show()
675 if (pkt_dev->flags & (1 << i)) in pktgen_if_show()
681 if (i == F_IPSEC && pkt_dev->spi) in pktgen_if_show()
682 seq_printf(seq, "spi:%u", pkt_dev->spi); in pktgen_if_show()
689 stopped = pkt_dev->running ? ktime_get() : pkt_dev->stopped_at; in pktgen_if_show()
690 idle = pkt_dev->idle_acc; in pktgen_if_show()
695 (unsigned long long)pkt_dev->sofar, in pktgen_if_show()
696 (unsigned long long)pkt_dev->errors); in pktgen_if_show()
698 if (pkt_dev->n_imix_entries > 0) { in pktgen_if_show()
702 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in pktgen_if_show()
704 pkt_dev->imix_entries[i].size, in pktgen_if_show()
705 pkt_dev->imix_entries[i].count_so_far); in pktgen_if_show()
712 (unsigned long long) ktime_to_us(pkt_dev->started_at), in pktgen_if_show()
718 pkt_dev->seq_num, pkt_dev->cur_dst_mac_offset, in pktgen_if_show()
719 pkt_dev->cur_src_mac_offset); in pktgen_if_show()
721 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
723 &pkt_dev->cur_in6_saddr, in pktgen_if_show()
724 &pkt_dev->cur_in6_daddr); in pktgen_if_show()
727 &pkt_dev->cur_saddr, &pkt_dev->cur_daddr); in pktgen_if_show()
730 pkt_dev->cur_udp_dst, pkt_dev->cur_udp_src); in pktgen_if_show()
732 seq_printf(seq, " cur_queue_map: %u\n", pkt_dev->cur_queue_map); in pktgen_if_show()
734 seq_printf(seq, " flows: %u\n", pkt_dev->nflows); in pktgen_if_show()
736 if (pkt_dev->result[0]) in pktgen_if_show()
737 seq_printf(seq, "Result: %s\n", pkt_dev->result); in pktgen_if_show()
839 struct pktgen_dev *pkt_dev) in get_imix_entries() argument
846 pkt_dev->n_imix_entries = 0; in get_imix_entries()
872 pkt_dev->imix_entries[pkt_dev->n_imix_entries].size = size; in get_imix_entries()
873 pkt_dev->imix_entries[pkt_dev->n_imix_entries].weight = weight; in get_imix_entries()
880 pkt_dev->n_imix_entries++; in get_imix_entries()
882 if (pkt_dev->n_imix_entries > MAX_IMIX_ENTRIES) in get_imix_entries()
889 static ssize_t get_labels(const char __user *buffer, struct pktgen_dev *pkt_dev) in get_labels() argument
896 pkt_dev->nr_labels = 0; in get_labels()
902 pkt_dev->labels[n] = htonl(tmp); in get_labels()
903 if (pkt_dev->labels[n] & MPLS_STACK_BOTTOM) in get_labels()
904 pkt_dev->flags |= F_MPLS_RND; in get_labels()
914 pkt_dev->nr_labels = n; in get_labels()
952 struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_write() local
960 pg_result = &(pkt_dev->result[0]); in pktgen_if_write()
1012 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
1013 pkt_dev->min_pkt_size = value; in pktgen_if_write()
1014 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1017 pkt_dev->min_pkt_size); in pktgen_if_write()
1029 if (value != pkt_dev->max_pkt_size) { in pktgen_if_write()
1030 pkt_dev->max_pkt_size = value; in pktgen_if_write()
1031 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1034 pkt_dev->max_pkt_size); in pktgen_if_write()
1048 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
1049 pkt_dev->min_pkt_size = value; in pktgen_if_write()
1050 pkt_dev->max_pkt_size = value; in pktgen_if_write()
1051 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1053 sprintf(pg_result, "OK: pkt_size=%d", pkt_dev->min_pkt_size); in pktgen_if_write()
1058 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1061 len = get_imix_entries(&user_buffer[i], pkt_dev); in pktgen_if_write()
1065 fill_imix_distribution(pkt_dev); in pktgen_if_write()
1088 pkt_dev->nfrags = value; in pktgen_if_write()
1089 sprintf(pg_result, "OK: frags=%d", pkt_dev->nfrags); in pktgen_if_write()
1099 pkt_dev->delay = ULLONG_MAX; in pktgen_if_write()
1101 pkt_dev->delay = (u64)value; in pktgen_if_write()
1104 (unsigned long long) pkt_dev->delay); in pktgen_if_write()
1115 pkt_dev->delay = pkt_dev->min_pkt_size*8*NSEC_PER_USEC/value; in pktgen_if_write()
1117 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1130 pkt_dev->delay = NSEC_PER_SEC/value; in pktgen_if_write()
1132 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1143 if (value != pkt_dev->udp_src_min) { in pktgen_if_write()
1144 pkt_dev->udp_src_min = value; in pktgen_if_write()
1145 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1147 sprintf(pg_result, "OK: udp_src_min=%u", pkt_dev->udp_src_min); in pktgen_if_write()
1156 if (value != pkt_dev->udp_dst_min) { in pktgen_if_write()
1157 pkt_dev->udp_dst_min = value; in pktgen_if_write()
1158 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1160 sprintf(pg_result, "OK: udp_dst_min=%u", pkt_dev->udp_dst_min); in pktgen_if_write()
1169 if (value != pkt_dev->udp_src_max) { in pktgen_if_write()
1170 pkt_dev->udp_src_max = value; in pktgen_if_write()
1171 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1173 sprintf(pg_result, "OK: udp_src_max=%u", pkt_dev->udp_src_max); in pktgen_if_write()
1182 if (value != pkt_dev->udp_dst_max) { in pktgen_if_write()
1183 pkt_dev->udp_dst_max = value; in pktgen_if_write()
1184 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1186 sprintf(pg_result, "OK: udp_dst_max=%u", pkt_dev->udp_dst_max); in pktgen_if_write()
1197 ((pkt_dev->xmit_mode == M_NETIF_RECEIVE) || in pktgen_if_write()
1198 !(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))) in pktgen_if_write()
1200 if (value > 0 && pkt_dev->n_imix_entries > 0) in pktgen_if_write()
1204 pkt_dev->clone_skb = value; in pktgen_if_write()
1206 sprintf(pg_result, "OK: clone_skb=%d", pkt_dev->clone_skb); in pktgen_if_write()
1215 pkt_dev->count = value; in pktgen_if_write()
1217 (unsigned long long)pkt_dev->count); in pktgen_if_write()
1226 if (pkt_dev->src_mac_count != value) { in pktgen_if_write()
1227 pkt_dev->src_mac_count = value; in pktgen_if_write()
1228 pkt_dev->cur_src_mac_offset = 0; in pktgen_if_write()
1231 pkt_dev->src_mac_count); in pktgen_if_write()
1240 if (pkt_dev->dst_mac_count != value) { in pktgen_if_write()
1241 pkt_dev->dst_mac_count = value; in pktgen_if_write()
1242 pkt_dev->cur_dst_mac_offset = 0; in pktgen_if_write()
1245 pkt_dev->dst_mac_count); in pktgen_if_write()
1255 ((pkt_dev->xmit_mode == M_QUEUE_XMIT) || in pktgen_if_write()
1256 ((pkt_dev->xmit_mode == M_START_XMIT) && in pktgen_if_write()
1257 (!(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))))) in pktgen_if_write()
1259 pkt_dev->burst = value < 1 ? 1 : value; in pktgen_if_write()
1260 sprintf(pg_result, "OK: burst=%u", pkt_dev->burst); in pktgen_if_write()
1271 pkt_dev->node = value; in pktgen_if_write()
1272 sprintf(pg_result, "OK: node=%d", pkt_dev->node); in pktgen_if_write()
1273 if (pkt_dev->page) { in pktgen_if_write()
1274 put_page(pkt_dev->page); in pktgen_if_write()
1275 pkt_dev->page = NULL; in pktgen_if_write()
1295 pkt_dev->xmit_mode = M_START_XMIT; in pktgen_if_write()
1298 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1301 pkt_dev->xmit_mode = M_NETIF_RECEIVE; in pktgen_if_write()
1306 pkt_dev->last_ok = 1; in pktgen_if_write()
1308 pkt_dev->xmit_mode = M_QUEUE_XMIT; in pktgen_if_write()
1309 pkt_dev->last_ok = 1; in pktgen_if_write()
1337 pkt_dev->flags &= ~flag; in pktgen_if_write()
1339 pkt_dev->flags |= flag; in pktgen_if_write()
1355 sprintf(pg_result, "OK: flags=0x%x", pkt_dev->flags); in pktgen_if_write()
1359 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_min) - 1); in pktgen_if_write()
1366 if (strcmp(buf, pkt_dev->dst_min) != 0) { in pktgen_if_write()
1367 memset(pkt_dev->dst_min, 0, sizeof(pkt_dev->dst_min)); in pktgen_if_write()
1368 strcpy(pkt_dev->dst_min, buf); in pktgen_if_write()
1369 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_if_write()
1370 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_if_write()
1373 pr_debug("dst_min set to: %s\n", pkt_dev->dst_min); in pktgen_if_write()
1375 sprintf(pg_result, "OK: dst_min=%s", pkt_dev->dst_min); in pktgen_if_write()
1379 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_max) - 1); in pktgen_if_write()
1386 if (strcmp(buf, pkt_dev->dst_max) != 0) { in pktgen_if_write()
1387 memset(pkt_dev->dst_max, 0, sizeof(pkt_dev->dst_max)); in pktgen_if_write()
1388 strcpy(pkt_dev->dst_max, buf); in pktgen_if_write()
1389 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_if_write()
1390 pkt_dev->cur_daddr = pkt_dev->daddr_max; in pktgen_if_write()
1393 pr_debug("dst_max set to: %s\n", pkt_dev->dst_max); in pktgen_if_write()
1395 sprintf(pg_result, "OK: dst_max=%s", pkt_dev->dst_max); in pktgen_if_write()
1403 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1409 in6_pton(buf, -1, pkt_dev->in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1410 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_daddr); in pktgen_if_write()
1412 pkt_dev->cur_in6_daddr = pkt_dev->in6_daddr; in pktgen_if_write()
1426 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1432 in6_pton(buf, -1, pkt_dev->min_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1433 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->min_in6_daddr); in pktgen_if_write()
1435 pkt_dev->cur_in6_daddr = pkt_dev->min_in6_daddr; in pktgen_if_write()
1448 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1454 in6_pton(buf, -1, pkt_dev->max_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1455 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->max_in6_daddr); in pktgen_if_write()
1469 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1475 in6_pton(buf, -1, pkt_dev->in6_saddr.s6_addr, -1, NULL); in pktgen_if_write()
1476 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_saddr); in pktgen_if_write()
1478 pkt_dev->cur_in6_saddr = pkt_dev->in6_saddr; in pktgen_if_write()
1488 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_min) - 1); in pktgen_if_write()
1495 if (strcmp(buf, pkt_dev->src_min) != 0) { in pktgen_if_write()
1496 memset(pkt_dev->src_min, 0, sizeof(pkt_dev->src_min)); in pktgen_if_write()
1497 strcpy(pkt_dev->src_min, buf); in pktgen_if_write()
1498 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_if_write()
1499 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_if_write()
1502 pr_debug("src_min set to: %s\n", pkt_dev->src_min); in pktgen_if_write()
1504 sprintf(pg_result, "OK: src_min=%s", pkt_dev->src_min); in pktgen_if_write()
1508 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_max) - 1); in pktgen_if_write()
1515 if (strcmp(buf, pkt_dev->src_max) != 0) { in pktgen_if_write()
1516 memset(pkt_dev->src_max, 0, sizeof(pkt_dev->src_max)); in pktgen_if_write()
1517 strcpy(pkt_dev->src_max, buf); in pktgen_if_write()
1518 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_if_write()
1519 pkt_dev->cur_saddr = pkt_dev->saddr_max; in pktgen_if_write()
1522 pr_debug("src_max set to: %s\n", pkt_dev->src_max); in pktgen_if_write()
1524 sprintf(pg_result, "OK: src_max=%s", pkt_dev->src_max); in pktgen_if_write()
1536 if (!mac_pton(valstr, pkt_dev->dst_mac)) in pktgen_if_write()
1539 ether_addr_copy(&pkt_dev->hh[0], pkt_dev->dst_mac); in pktgen_if_write()
1541 sprintf(pg_result, "OK: dstmac %pM", pkt_dev->dst_mac); in pktgen_if_write()
1553 if (!mac_pton(valstr, pkt_dev->src_mac)) in pktgen_if_write()
1556 ether_addr_copy(&pkt_dev->hh[6], pkt_dev->src_mac); in pktgen_if_write()
1558 sprintf(pg_result, "OK: srcmac %pM", pkt_dev->src_mac); in pktgen_if_write()
1563 pktgen_clear_counters(pkt_dev); in pktgen_if_write()
1577 pkt_dev->cflows = value; in pktgen_if_write()
1578 sprintf(pg_result, "OK: flows=%u", pkt_dev->cflows); in pktgen_if_write()
1588 pkt_dev->spi = value; in pktgen_if_write()
1589 sprintf(pg_result, "OK: spi=%u", pkt_dev->spi); in pktgen_if_write()
1599 pkt_dev->lflow = value; in pktgen_if_write()
1600 sprintf(pg_result, "OK: flowlen=%u", pkt_dev->lflow); in pktgen_if_write()
1610 pkt_dev->queue_map_min = value; in pktgen_if_write()
1611 sprintf(pg_result, "OK: queue_map_min=%u", pkt_dev->queue_map_min); in pktgen_if_write()
1621 pkt_dev->queue_map_max = value; in pktgen_if_write()
1622 sprintf(pg_result, "OK: queue_map_max=%u", pkt_dev->queue_map_max); in pktgen_if_write()
1629 len = get_labels(&user_buffer[i], pkt_dev); in pktgen_if_write()
1634 for (n = 0; n < pkt_dev->nr_labels; n++) in pktgen_if_write()
1636 "%08x%s", ntohl(pkt_dev->labels[n]), in pktgen_if_write()
1637 n == pkt_dev->nr_labels-1 ? "" : ","); in pktgen_if_write()
1639 if (pkt_dev->nr_labels && pkt_dev->vlan_id != 0xffff) { in pktgen_if_write()
1640 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1641 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1656 pkt_dev->vlan_id = value; /* turn on VLAN */ in pktgen_if_write()
1661 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1664 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1665 sprintf(pg_result, "OK: vlan_id=%u", pkt_dev->vlan_id); in pktgen_if_write()
1667 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1668 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1682 if ((value <= 7) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1683 pkt_dev->vlan_p = value; in pktgen_if_write()
1684 sprintf(pg_result, "OK: vlan_p=%u", pkt_dev->vlan_p); in pktgen_if_write()
1697 if ((value <= 1) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1698 pkt_dev->vlan_cfi = value; in pktgen_if_write()
1699 sprintf(pg_result, "OK: vlan_cfi=%u", pkt_dev->vlan_cfi); in pktgen_if_write()
1712 if ((value <= 4095) && ((pkt_dev->vlan_id != 0xffff))) { in pktgen_if_write()
1713 pkt_dev->svlan_id = value; /* turn on SVLAN */ in pktgen_if_write()
1718 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1721 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1722 sprintf(pg_result, "OK: svlan_id=%u", pkt_dev->svlan_id); in pktgen_if_write()
1724 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1725 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1739 if ((value <= 7) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1740 pkt_dev->svlan_p = value; in pktgen_if_write()
1741 sprintf(pg_result, "OK: svlan_p=%u", pkt_dev->svlan_p); in pktgen_if_write()
1754 if ((value <= 1) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1755 pkt_dev->svlan_cfi = value; in pktgen_if_write()
1756 sprintf(pg_result, "OK: svlan_cfi=%u", pkt_dev->svlan_cfi); in pktgen_if_write()
1771 pkt_dev->tos = tmp_value; in pktgen_if_write()
1772 sprintf(pg_result, "OK: tos=0x%02x", pkt_dev->tos); in pktgen_if_write()
1787 pkt_dev->traffic_class = tmp_value; in pktgen_if_write()
1788 sprintf(pg_result, "OK: traffic_class=0x%02x", pkt_dev->traffic_class); in pktgen_if_write()
1801 pkt_dev->skb_priority = value; in pktgen_if_write()
1803 pkt_dev->skb_priority); in pktgen_if_write()
1807 sprintf(pkt_dev->result, "No such parameter \"%s\"", name); in pktgen_if_write()
1827 const struct pktgen_dev *pkt_dev; in pktgen_thread_show() local
1834 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1835 if (pkt_dev->running) in pktgen_thread_show()
1836 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1840 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1841 if (!pkt_dev->running) in pktgen_thread_show()
1842 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1966 struct pktgen_dev *pkt_dev = NULL; in __pktgen_NN_threads() local
1970 pkt_dev = pktgen_find_dev(t, ifname, exact); in __pktgen_NN_threads()
1971 if (pkt_dev) { in __pktgen_NN_threads()
1973 pkt_dev->removal_mark = 1; in __pktgen_NN_threads()
1979 return pkt_dev; in __pktgen_NN_threads()
1987 struct pktgen_dev *pkt_dev = NULL; in pktgen_mark_device() local
1996 pkt_dev = __pktgen_NN_threads(pn, ifname, REMOVE); in pktgen_mark_device()
1997 if (pkt_dev == NULL) in pktgen_mark_device()
2024 struct pktgen_dev *pkt_dev; in pktgen_change_name() local
2027 list_for_each_entry(pkt_dev, &t->if_list, list) { in pktgen_change_name()
2028 if (pkt_dev->odev != dev) in pktgen_change_name()
2031 proc_remove(pkt_dev->entry); in pktgen_change_name()
2033 pkt_dev->entry = proc_create_data(dev->name, 0600, in pktgen_change_name()
2036 pkt_dev); in pktgen_change_name()
2037 if (!pkt_dev->entry) in pktgen_change_name()
2074 struct pktgen_dev *pkt_dev, in pktgen_dev_get_by_name() argument
2095 struct pktgen_dev *pkt_dev, const char *ifname) in pktgen_setup_dev() argument
2101 if (pkt_dev->odev) { in pktgen_setup_dev()
2102 dev_put(pkt_dev->odev); in pktgen_setup_dev()
2103 pkt_dev->odev = NULL; in pktgen_setup_dev()
2106 odev = pktgen_dev_get_by_name(pn, pkt_dev, ifname); in pktgen_setup_dev()
2119 pkt_dev->odev = odev; in pktgen_setup_dev()
2130 static void pktgen_setup_inject(struct pktgen_dev *pkt_dev) in pktgen_setup_inject() argument
2134 if (!pkt_dev->odev) { in pktgen_setup_inject()
2136 sprintf(pkt_dev->result, in pktgen_setup_inject()
2142 ntxq = pkt_dev->odev->real_num_tx_queues; in pktgen_setup_inject()
2144 if (ntxq <= pkt_dev->queue_map_min) { in pktgen_setup_inject()
2146 pkt_dev->queue_map_min, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2147 pkt_dev->odevname); in pktgen_setup_inject()
2148 pkt_dev->queue_map_min = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2150 if (pkt_dev->queue_map_max >= ntxq) { in pktgen_setup_inject()
2152 pkt_dev->queue_map_max, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2153 pkt_dev->odevname); in pktgen_setup_inject()
2154 pkt_dev->queue_map_max = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2159 if (is_zero_ether_addr(pkt_dev->src_mac)) in pktgen_setup_inject()
2160 ether_addr_copy(&(pkt_dev->hh[6]), pkt_dev->odev->dev_addr); in pktgen_setup_inject()
2163 ether_addr_copy(&(pkt_dev->hh[0]), pkt_dev->dst_mac); in pktgen_setup_inject()
2165 if (pkt_dev->flags & F_IPV6) { in pktgen_setup_inject()
2169 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2170 pkt_dev->min_pkt_size = 14 + sizeof(struct ipv6hdr) in pktgen_setup_inject()
2173 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2177 if (pkt_dev->cur_in6_saddr.s6_addr[i]) { in pktgen_setup_inject()
2191 idev = __in6_dev_get(pkt_dev->odev); in pktgen_setup_inject()
2199 pkt_dev->cur_in6_saddr = ifp->addr; in pktgen_setup_inject()
2211 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2212 pkt_dev->min_pkt_size = 14 + sizeof(struct iphdr) in pktgen_setup_inject()
2215 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2218 pkt_dev->saddr_min = 0; in pktgen_setup_inject()
2219 pkt_dev->saddr_max = 0; in pktgen_setup_inject()
2220 if (strlen(pkt_dev->src_min) == 0) { in pktgen_setup_inject()
2225 in_dev = __in_dev_get_rcu(pkt_dev->odev); in pktgen_setup_inject()
2231 pkt_dev->saddr_min = ifa->ifa_address; in pktgen_setup_inject()
2232 pkt_dev->saddr_max = pkt_dev->saddr_min; in pktgen_setup_inject()
2237 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_setup_inject()
2238 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_setup_inject()
2241 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_setup_inject()
2242 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_setup_inject()
2245 pkt_dev->cur_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2246 if (pkt_dev->min_pkt_size > pkt_dev->max_pkt_size) in pktgen_setup_inject()
2247 pkt_dev->max_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2249 pkt_dev->cur_dst_mac_offset = 0; in pktgen_setup_inject()
2250 pkt_dev->cur_src_mac_offset = 0; in pktgen_setup_inject()
2251 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_setup_inject()
2252 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_setup_inject()
2253 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in pktgen_setup_inject()
2254 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in pktgen_setup_inject()
2255 pkt_dev->nflows = 0; in pktgen_setup_inject()
2259 static void spin(struct pktgen_dev *pkt_dev, ktime_t spin_until) in spin() argument
2287 } while (t.task && pkt_dev->running && !signal_pending(current)); in spin()
2292 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(end_time, start_time)); in spin()
2294 pkt_dev->next_tx = ktime_add_ns(spin_until, pkt_dev->delay); in spin()
2298 static inline void set_pkt_overhead(struct pktgen_dev *pkt_dev) in set_pkt_overhead() argument
2300 pkt_dev->pkt_overhead = 0; in set_pkt_overhead()
2301 pkt_dev->pkt_overhead += pkt_dev->nr_labels*sizeof(u32); in set_pkt_overhead()
2302 pkt_dev->pkt_overhead += VLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2303 pkt_dev->pkt_overhead += SVLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2306 static inline int f_seen(const struct pktgen_dev *pkt_dev, int flow) in f_seen() argument
2308 return !!(pkt_dev->flows[flow].flags & F_INIT); in f_seen()
2311 static inline int f_pick(struct pktgen_dev *pkt_dev) in f_pick() argument
2313 int flow = pkt_dev->curfl; in f_pick()
2315 if (pkt_dev->flags & F_FLOW_SEQ) { in f_pick()
2316 if (pkt_dev->flows[flow].count >= pkt_dev->lflow) { in f_pick()
2318 pkt_dev->flows[flow].count = 0; in f_pick()
2319 pkt_dev->flows[flow].flags = 0; in f_pick()
2320 pkt_dev->curfl += 1; in f_pick()
2321 if (pkt_dev->curfl >= pkt_dev->cflows) in f_pick()
2322 pkt_dev->curfl = 0; /*reset */ in f_pick()
2325 flow = prandom_u32() % pkt_dev->cflows; in f_pick()
2326 pkt_dev->curfl = flow; in f_pick()
2328 if (pkt_dev->flows[flow].count > pkt_dev->lflow) { in f_pick()
2329 pkt_dev->flows[flow].count = 0; in f_pick()
2330 pkt_dev->flows[flow].flags = 0; in f_pick()
2334 return pkt_dev->curfl; in f_pick()
2343 static void get_ipsec_sa(struct pktgen_dev *pkt_dev, int flow) in get_ipsec_sa() argument
2345 struct xfrm_state *x = pkt_dev->flows[flow].x; in get_ipsec_sa()
2346 struct pktgen_net *pn = net_generic(dev_net(pkt_dev->odev), pg_net_id); in get_ipsec_sa()
2349 if (pkt_dev->spi) { in get_ipsec_sa()
2353 x = xfrm_state_lookup_byspi(pn->net, htonl(pkt_dev->spi), AF_INET); in get_ipsec_sa()
2357 (xfrm_address_t *)&pkt_dev->cur_daddr, in get_ipsec_sa()
2358 (xfrm_address_t *)&pkt_dev->cur_saddr, in get_ipsec_sa()
2360 pkt_dev->ipsmode, in get_ipsec_sa()
2361 pkt_dev->ipsproto, 0); in get_ipsec_sa()
2364 pkt_dev->flows[flow].x = x; in get_ipsec_sa()
2365 set_pkt_overhead(pkt_dev); in get_ipsec_sa()
2366 pkt_dev->pkt_overhead += x->props.header_len; in get_ipsec_sa()
2372 static void set_cur_queue_map(struct pktgen_dev *pkt_dev) in set_cur_queue_map() argument
2375 if (pkt_dev->flags & F_QUEUE_MAP_CPU) in set_cur_queue_map()
2376 pkt_dev->cur_queue_map = smp_processor_id(); in set_cur_queue_map()
2378 else if (pkt_dev->queue_map_min <= pkt_dev->queue_map_max) { in set_cur_queue_map()
2380 if (pkt_dev->flags & F_QUEUE_MAP_RND) { in set_cur_queue_map()
2382 (pkt_dev->queue_map_max - in set_cur_queue_map()
2383 pkt_dev->queue_map_min + 1) in set_cur_queue_map()
2384 + pkt_dev->queue_map_min; in set_cur_queue_map()
2386 t = pkt_dev->cur_queue_map + 1; in set_cur_queue_map()
2387 if (t > pkt_dev->queue_map_max) in set_cur_queue_map()
2388 t = pkt_dev->queue_map_min; in set_cur_queue_map()
2390 pkt_dev->cur_queue_map = t; in set_cur_queue_map()
2392 pkt_dev->cur_queue_map = pkt_dev->cur_queue_map % pkt_dev->odev->real_num_tx_queues; in set_cur_queue_map()
2398 static void mod_cur_headers(struct pktgen_dev *pkt_dev) in mod_cur_headers() argument
2404 if (pkt_dev->cflows) in mod_cur_headers()
2405 flow = f_pick(pkt_dev); in mod_cur_headers()
2408 if (pkt_dev->src_mac_count > 1) { in mod_cur_headers()
2412 if (pkt_dev->flags & F_MACSRC_RND) in mod_cur_headers()
2413 mc = prandom_u32() % pkt_dev->src_mac_count; in mod_cur_headers()
2415 mc = pkt_dev->cur_src_mac_offset++; in mod_cur_headers()
2416 if (pkt_dev->cur_src_mac_offset >= in mod_cur_headers()
2417 pkt_dev->src_mac_count) in mod_cur_headers()
2418 pkt_dev->cur_src_mac_offset = 0; in mod_cur_headers()
2421 tmp = pkt_dev->src_mac[5] + (mc & 0xFF); in mod_cur_headers()
2422 pkt_dev->hh[11] = tmp; in mod_cur_headers()
2423 tmp = (pkt_dev->src_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2424 pkt_dev->hh[10] = tmp; in mod_cur_headers()
2425 tmp = (pkt_dev->src_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2426 pkt_dev->hh[9] = tmp; in mod_cur_headers()
2427 tmp = (pkt_dev->src_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2428 pkt_dev->hh[8] = tmp; in mod_cur_headers()
2429 tmp = (pkt_dev->src_mac[1] + (tmp >> 8)); in mod_cur_headers()
2430 pkt_dev->hh[7] = tmp; in mod_cur_headers()
2434 if (pkt_dev->dst_mac_count > 1) { in mod_cur_headers()
2438 if (pkt_dev->flags & F_MACDST_RND) in mod_cur_headers()
2439 mc = prandom_u32() % pkt_dev->dst_mac_count; in mod_cur_headers()
2442 mc = pkt_dev->cur_dst_mac_offset++; in mod_cur_headers()
2443 if (pkt_dev->cur_dst_mac_offset >= in mod_cur_headers()
2444 pkt_dev->dst_mac_count) { in mod_cur_headers()
2445 pkt_dev->cur_dst_mac_offset = 0; in mod_cur_headers()
2449 tmp = pkt_dev->dst_mac[5] + (mc & 0xFF); in mod_cur_headers()
2450 pkt_dev->hh[5] = tmp; in mod_cur_headers()
2451 tmp = (pkt_dev->dst_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2452 pkt_dev->hh[4] = tmp; in mod_cur_headers()
2453 tmp = (pkt_dev->dst_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2454 pkt_dev->hh[3] = tmp; in mod_cur_headers()
2455 tmp = (pkt_dev->dst_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2456 pkt_dev->hh[2] = tmp; in mod_cur_headers()
2457 tmp = (pkt_dev->dst_mac[1] + (tmp >> 8)); in mod_cur_headers()
2458 pkt_dev->hh[1] = tmp; in mod_cur_headers()
2461 if (pkt_dev->flags & F_MPLS_RND) { in mod_cur_headers()
2463 for (i = 0; i < pkt_dev->nr_labels; i++) in mod_cur_headers()
2464 if (pkt_dev->labels[i] & MPLS_STACK_BOTTOM) in mod_cur_headers()
2465 pkt_dev->labels[i] = MPLS_STACK_BOTTOM | in mod_cur_headers()
2470 if ((pkt_dev->flags & F_VID_RND) && (pkt_dev->vlan_id != 0xffff)) { in mod_cur_headers()
2471 pkt_dev->vlan_id = prandom_u32() & (4096 - 1); in mod_cur_headers()
2474 if ((pkt_dev->flags & F_SVID_RND) && (pkt_dev->svlan_id != 0xffff)) { in mod_cur_headers()
2475 pkt_dev->svlan_id = prandom_u32() & (4096 - 1); in mod_cur_headers()
2478 if (pkt_dev->udp_src_min < pkt_dev->udp_src_max) { in mod_cur_headers()
2479 if (pkt_dev->flags & F_UDPSRC_RND) in mod_cur_headers()
2480 pkt_dev->cur_udp_src = prandom_u32() % in mod_cur_headers()
2481 (pkt_dev->udp_src_max - pkt_dev->udp_src_min) in mod_cur_headers()
2482 + pkt_dev->udp_src_min; in mod_cur_headers()
2485 pkt_dev->cur_udp_src++; in mod_cur_headers()
2486 if (pkt_dev->cur_udp_src >= pkt_dev->udp_src_max) in mod_cur_headers()
2487 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in mod_cur_headers()
2491 if (pkt_dev->udp_dst_min < pkt_dev->udp_dst_max) { in mod_cur_headers()
2492 if (pkt_dev->flags & F_UDPDST_RND) { in mod_cur_headers()
2493 pkt_dev->cur_udp_dst = prandom_u32() % in mod_cur_headers()
2494 (pkt_dev->udp_dst_max - pkt_dev->udp_dst_min) in mod_cur_headers()
2495 + pkt_dev->udp_dst_min; in mod_cur_headers()
2497 pkt_dev->cur_udp_dst++; in mod_cur_headers()
2498 if (pkt_dev->cur_udp_dst >= pkt_dev->udp_dst_max) in mod_cur_headers()
2499 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in mod_cur_headers()
2503 if (!(pkt_dev->flags & F_IPV6)) { in mod_cur_headers()
2505 imn = ntohl(pkt_dev->saddr_min); in mod_cur_headers()
2506 imx = ntohl(pkt_dev->saddr_max); in mod_cur_headers()
2509 if (pkt_dev->flags & F_IPSRC_RND) in mod_cur_headers()
2512 t = ntohl(pkt_dev->cur_saddr); in mod_cur_headers()
2518 pkt_dev->cur_saddr = htonl(t); in mod_cur_headers()
2521 if (pkt_dev->cflows && f_seen(pkt_dev, flow)) { in mod_cur_headers()
2522 pkt_dev->cur_daddr = pkt_dev->flows[flow].cur_daddr; in mod_cur_headers()
2524 imn = ntohl(pkt_dev->daddr_min); in mod_cur_headers()
2525 imx = ntohl(pkt_dev->daddr_max); in mod_cur_headers()
2529 if (pkt_dev->flags & F_IPDST_RND) { in mod_cur_headers()
2540 pkt_dev->cur_daddr = s; in mod_cur_headers()
2542 t = ntohl(pkt_dev->cur_daddr); in mod_cur_headers()
2547 pkt_dev->cur_daddr = htonl(t); in mod_cur_headers()
2550 if (pkt_dev->cflows) { in mod_cur_headers()
2551 pkt_dev->flows[flow].flags |= F_INIT; in mod_cur_headers()
2552 pkt_dev->flows[flow].cur_daddr = in mod_cur_headers()
2553 pkt_dev->cur_daddr; in mod_cur_headers()
2555 if (pkt_dev->flags & F_IPSEC) in mod_cur_headers()
2556 get_ipsec_sa(pkt_dev, flow); in mod_cur_headers()
2558 pkt_dev->nflows++; in mod_cur_headers()
2563 if (!ipv6_addr_any(&pkt_dev->min_in6_daddr)) { in mod_cur_headers()
2569 pkt_dev->cur_in6_daddr.s6_addr32[i] = in mod_cur_headers()
2571 pkt_dev->min_in6_daddr.s6_addr32[i]) & in mod_cur_headers()
2572 pkt_dev->max_in6_daddr.s6_addr32[i]); in mod_cur_headers()
2577 if (pkt_dev->min_pkt_size < pkt_dev->max_pkt_size) { in mod_cur_headers()
2579 if (pkt_dev->flags & F_TXSIZE_RND) { in mod_cur_headers()
2581 (pkt_dev->max_pkt_size - pkt_dev->min_pkt_size) in mod_cur_headers()
2582 + pkt_dev->min_pkt_size; in mod_cur_headers()
2584 t = pkt_dev->cur_pkt_size + 1; in mod_cur_headers()
2585 if (t > pkt_dev->max_pkt_size) in mod_cur_headers()
2586 t = pkt_dev->min_pkt_size; in mod_cur_headers()
2588 pkt_dev->cur_pkt_size = t; in mod_cur_headers()
2589 } else if (pkt_dev->n_imix_entries > 0) { in mod_cur_headers()
2592 __u8 entry_index = pkt_dev->imix_distribution[t]; in mod_cur_headers()
2594 entry = &pkt_dev->imix_entries[entry_index]; in mod_cur_headers()
2596 pkt_dev->cur_pkt_size = entry->size; in mod_cur_headers()
2599 set_cur_queue_map(pkt_dev); in mod_cur_headers()
2601 pkt_dev->flows[flow].count++; in mod_cur_headers()
2604 static void fill_imix_distribution(struct pktgen_dev *pkt_dev) in fill_imix_distribution() argument
2612 for (i = 0; i < pkt_dev->n_imix_entries; i++) in fill_imix_distribution()
2613 total_weight += pkt_dev->imix_entries[i].weight; in fill_imix_distribution()
2616 for (i = 0; i < pkt_dev->n_imix_entries - 1; i++) { in fill_imix_distribution()
2617 cumulative_prob += div64_u64(pkt_dev->imix_entries[i].weight * in fill_imix_distribution()
2622 cumulative_probabilites[pkt_dev->n_imix_entries - 1] = 100; in fill_imix_distribution()
2627 pkt_dev->imix_distribution[i] = j; in fill_imix_distribution()
2637 static int pktgen_output_ipsec(struct sk_buff *skb, struct pktgen_dev *pkt_dev) in pktgen_output_ipsec() argument
2639 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in pktgen_output_ipsec()
2641 struct net *net = dev_net(pkt_dev->odev); in pktgen_output_ipsec()
2647 if ((x->props.mode != XFRM_MODE_TRANSPORT) && (pkt_dev->spi == 0)) in pktgen_output_ipsec()
2653 if ((x->props.mode == XFRM_MODE_TUNNEL) && (pkt_dev->spi != 0)) in pktgen_output_ipsec()
2654 skb->_skb_refdst = (unsigned long)&pkt_dev->xdst.u.dst | SKB_DST_NOREF; in pktgen_output_ipsec()
2676 static void free_SAs(struct pktgen_dev *pkt_dev) in free_SAs() argument
2678 if (pkt_dev->cflows) { in free_SAs()
2681 for (i = 0; i < pkt_dev->cflows; i++) { in free_SAs()
2682 struct xfrm_state *x = pkt_dev->flows[i].x; in free_SAs()
2685 pkt_dev->flows[i].x = NULL; in free_SAs()
2691 static int process_ipsec(struct pktgen_dev *pkt_dev, in process_ipsec() argument
2694 if (pkt_dev->flags & F_IPSEC) { in process_ipsec()
2695 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in process_ipsec()
2714 ret = pktgen_output_ipsec(skb, pkt_dev); in process_ipsec()
2721 memcpy(eth, pkt_dev->hh, 2 * ETH_ALEN); in process_ipsec()
2737 static void mpls_push(__be32 *mpls, struct pktgen_dev *pkt_dev) in mpls_push() argument
2740 for (i = 0; i < pkt_dev->nr_labels; i++) in mpls_push()
2741 *mpls++ = pkt_dev->labels[i] & ~MPLS_STACK_BOTTOM; in mpls_push()
2753 static void pktgen_finalize_skb(struct pktgen_dev *pkt_dev, struct sk_buff *skb, in pktgen_finalize_skb() argument
2762 if (pkt_dev->nfrags <= 0) { in pktgen_finalize_skb()
2765 int frags = pkt_dev->nfrags; in pktgen_finalize_skb()
2782 if (unlikely(!pkt_dev->page)) { in pktgen_finalize_skb()
2785 if (pkt_dev->node >= 0 && (pkt_dev->flags & F_NODE)) in pktgen_finalize_skb()
2786 node = pkt_dev->node; in pktgen_finalize_skb()
2787 pkt_dev->page = alloc_pages_node(node, GFP_KERNEL | __GFP_ZERO, 0); in pktgen_finalize_skb()
2788 if (!pkt_dev->page) in pktgen_finalize_skb()
2791 get_page(pkt_dev->page); in pktgen_finalize_skb()
2792 skb_frag_set_page(skb, i, pkt_dev->page); in pktgen_finalize_skb()
2812 pgh->seq_num = htonl(pkt_dev->seq_num); in pktgen_finalize_skb()
2814 if (pkt_dev->flags & F_NO_TIMESTAMP) { in pktgen_finalize_skb()
2833 struct pktgen_dev *pkt_dev) in pktgen_alloc_skb() argument
2839 size = pkt_dev->cur_pkt_size + 64 + extralen + pkt_dev->pkt_overhead; in pktgen_alloc_skb()
2840 if (pkt_dev->flags & F_NODE) { in pktgen_alloc_skb()
2841 int node = pkt_dev->node >= 0 ? pkt_dev->node : numa_node_id(); in pktgen_alloc_skb()
2860 struct pktgen_dev *pkt_dev) in fill_packet_ipv4() argument
2875 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2878 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv4()
2884 mod_cur_headers(pkt_dev); in fill_packet_ipv4()
2885 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv4()
2887 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv4()
2889 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv4()
2898 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv4()
2899 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2900 mpls_push(mpls, pkt_dev); in fill_packet_ipv4()
2902 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv4()
2903 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv4()
2905 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv4()
2906 pkt_dev->svlan_cfi, in fill_packet_ipv4()
2907 pkt_dev->svlan_p); in fill_packet_ipv4()
2913 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv4()
2914 pkt_dev->vlan_cfi, in fill_packet_ipv4()
2915 pkt_dev->vlan_p); in fill_packet_ipv4()
2927 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv4()
2929 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv4()
2933 datalen = pkt_dev->cur_pkt_size - 14 - 20 - 8 - in fill_packet_ipv4()
2934 pkt_dev->pkt_overhead; in fill_packet_ipv4()
2938 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv4()
2939 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv4()
2946 iph->tos = pkt_dev->tos; in fill_packet_ipv4()
2948 iph->saddr = pkt_dev->cur_saddr; in fill_packet_ipv4()
2949 iph->daddr = pkt_dev->cur_daddr; in fill_packet_ipv4()
2950 iph->id = htons(pkt_dev->ip_id); in fill_packet_ipv4()
2951 pkt_dev->ip_id++; in fill_packet_ipv4()
2960 pktgen_finalize_skb(pkt_dev, skb, datalen); in fill_packet_ipv4()
2962 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv4()
2980 if (!process_ipsec(pkt_dev, skb, protocol)) in fill_packet_ipv4()
2988 struct pktgen_dev *pkt_dev) in fill_packet_ipv6() argument
3003 if (pkt_dev->nr_labels) in fill_packet_ipv6()
3006 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv6()
3012 mod_cur_headers(pkt_dev); in fill_packet_ipv6()
3013 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv6()
3015 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv6()
3017 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv6()
3026 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv6()
3027 if (pkt_dev->nr_labels) in fill_packet_ipv6()
3028 mpls_push(mpls, pkt_dev); in fill_packet_ipv6()
3030 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv6()
3031 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv6()
3033 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv6()
3034 pkt_dev->svlan_cfi, in fill_packet_ipv6()
3035 pkt_dev->svlan_p); in fill_packet_ipv6()
3041 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv6()
3042 pkt_dev->vlan_cfi, in fill_packet_ipv6()
3043 pkt_dev->vlan_p); in fill_packet_ipv6()
3055 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv6()
3057 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv6()
3061 datalen = pkt_dev->cur_pkt_size - 14 - in fill_packet_ipv6()
3063 pkt_dev->pkt_overhead; in fill_packet_ipv6()
3071 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv6()
3072 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv6()
3078 if (pkt_dev->traffic_class) { in fill_packet_ipv6()
3080 *(__be32 *)iph |= htonl(0x60000000 | (pkt_dev->traffic_class << 20)); in fill_packet_ipv6()
3088 iph->daddr = pkt_dev->cur_in6_daddr; in fill_packet_ipv6()
3089 iph->saddr = pkt_dev->cur_in6_saddr; in fill_packet_ipv6()
3095 pktgen_finalize_skb(pkt_dev, skb, datalen); in fill_packet_ipv6()
3097 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv6()
3118 struct pktgen_dev *pkt_dev) in fill_packet() argument
3120 if (pkt_dev->flags & F_IPV6) in fill_packet()
3121 return fill_packet_ipv6(odev, pkt_dev); in fill_packet()
3123 return fill_packet_ipv4(odev, pkt_dev); in fill_packet()
3126 static void pktgen_clear_counters(struct pktgen_dev *pkt_dev) in pktgen_clear_counters() argument
3128 pkt_dev->seq_num = 1; in pktgen_clear_counters()
3129 pkt_dev->idle_acc = 0; in pktgen_clear_counters()
3130 pkt_dev->sofar = 0; in pktgen_clear_counters()
3131 pkt_dev->tx_bytes = 0; in pktgen_clear_counters()
3132 pkt_dev->errors = 0; in pktgen_clear_counters()
3139 struct pktgen_dev *pkt_dev; in pktgen_run() local
3145 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_run()
3150 pktgen_setup_inject(pkt_dev); in pktgen_run()
3152 if (pkt_dev->odev) { in pktgen_run()
3153 pktgen_clear_counters(pkt_dev); in pktgen_run()
3154 pkt_dev->skb = NULL; in pktgen_run()
3155 pkt_dev->started_at = pkt_dev->next_tx = ktime_get(); in pktgen_run()
3157 set_pkt_overhead(pkt_dev); in pktgen_run()
3159 strcpy(pkt_dev->result, "Starting"); in pktgen_run()
3160 pkt_dev->running = 1; /* Cranke yeself! */ in pktgen_run()
3163 strcpy(pkt_dev->result, "Error starting"); in pktgen_run()
3191 const struct pktgen_dev *pkt_dev; in thread_is_running() local
3194 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in thread_is_running()
3195 if (pkt_dev->running) { in thread_is_running()
3273 static void show_results(struct pktgen_dev *pkt_dev, int nr_frags) in show_results() argument
3276 char *p = pkt_dev->result; in show_results()
3277 ktime_t elapsed = ktime_sub(pkt_dev->stopped_at, in show_results()
3278 pkt_dev->started_at); in show_results()
3279 ktime_t idle = ns_to_ktime(pkt_dev->idle_acc); in show_results()
3285 (unsigned long long)pkt_dev->sofar, in show_results()
3286 pkt_dev->cur_pkt_size, nr_frags); in show_results()
3288 pps = div64_u64(pkt_dev->sofar * NSEC_PER_SEC, in show_results()
3291 if (pkt_dev->n_imix_entries > 0) { in show_results()
3296 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in show_results()
3297 entry = &pkt_dev->imix_entries[i]; in show_results()
3302 bps = pps * 8 * pkt_dev->cur_pkt_size; in show_results()
3311 (unsigned long long)pkt_dev->errors); in show_results()
3315 static int pktgen_stop_device(struct pktgen_dev *pkt_dev) in pktgen_stop_device() argument
3317 int nr_frags = pkt_dev->skb ? skb_shinfo(pkt_dev->skb)->nr_frags : -1; in pktgen_stop_device()
3319 if (!pkt_dev->running) { in pktgen_stop_device()
3321 pkt_dev->odevname); in pktgen_stop_device()
3325 pkt_dev->running = 0; in pktgen_stop_device()
3326 kfree_skb(pkt_dev->skb); in pktgen_stop_device()
3327 pkt_dev->skb = NULL; in pktgen_stop_device()
3328 pkt_dev->stopped_at = ktime_get(); in pktgen_stop_device()
3330 show_results(pkt_dev, nr_frags); in pktgen_stop_device()
3337 struct pktgen_dev *pkt_dev, *best = NULL; in next_to_run() local
3340 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in next_to_run()
3341 if (!pkt_dev->running) in next_to_run()
3344 best = pkt_dev; in next_to_run()
3345 else if (ktime_compare(pkt_dev->next_tx, best->next_tx) < 0) in next_to_run()
3346 best = pkt_dev; in next_to_run()
3355 struct pktgen_dev *pkt_dev; in pktgen_stop() local
3361 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_stop()
3362 pktgen_stop_device(pkt_dev); in pktgen_stop()
3419 static void pktgen_resched(struct pktgen_dev *pkt_dev) in pktgen_resched() argument
3423 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_resched()
3426 static void pktgen_wait_for_skb(struct pktgen_dev *pkt_dev) in pktgen_wait_for_skb() argument
3430 while (refcount_read(&(pkt_dev->skb->users)) != 1) { in pktgen_wait_for_skb()
3435 pktgen_resched(pkt_dev); in pktgen_wait_for_skb()
3439 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_wait_for_skb()
3442 static void pktgen_xmit(struct pktgen_dev *pkt_dev) in pktgen_xmit() argument
3444 unsigned int burst = READ_ONCE(pkt_dev->burst); in pktgen_xmit()
3445 struct net_device *odev = pkt_dev->odev; in pktgen_xmit()
3452 pktgen_stop_device(pkt_dev); in pktgen_xmit()
3459 if (unlikely(pkt_dev->delay == ULLONG_MAX)) { in pktgen_xmit()
3460 pkt_dev->next_tx = ktime_add_ns(ktime_get(), ULONG_MAX); in pktgen_xmit()
3465 if (!pkt_dev->skb || (pkt_dev->last_ok && in pktgen_xmit()
3466 ++pkt_dev->clone_count >= pkt_dev->clone_skb)) { in pktgen_xmit()
3468 kfree_skb(pkt_dev->skb); in pktgen_xmit()
3470 pkt_dev->skb = fill_packet(odev, pkt_dev); in pktgen_xmit()
3471 if (pkt_dev->skb == NULL) { in pktgen_xmit()
3474 pkt_dev->clone_count--; /* back out increment, OOM */ in pktgen_xmit()
3477 pkt_dev->last_pkt_size = pkt_dev->skb->len; in pktgen_xmit()
3478 pkt_dev->clone_count = 0; /* reset counter */ in pktgen_xmit()
3481 if (pkt_dev->delay && pkt_dev->last_ok) in pktgen_xmit()
3482 spin(pkt_dev, pkt_dev->next_tx); in pktgen_xmit()
3484 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) { in pktgen_xmit()
3485 skb = pkt_dev->skb; in pktgen_xmit()
3492 pkt_dev->errors++; in pktgen_xmit()
3493 pkt_dev->sofar++; in pktgen_xmit()
3494 pkt_dev->seq_num++; in pktgen_xmit()
3511 } else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) { in pktgen_xmit()
3513 refcount_inc(&pkt_dev->skb->users); in pktgen_xmit()
3515 ret = dev_queue_xmit(pkt_dev->skb); in pktgen_xmit()
3518 pkt_dev->sofar++; in pktgen_xmit()
3519 pkt_dev->seq_num++; in pktgen_xmit()
3520 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3535 pkt_dev->errors++; in pktgen_xmit()
3537 pkt_dev->odevname, ret); in pktgen_xmit()
3543 txq = skb_get_tx_queue(odev, pkt_dev->skb); in pktgen_xmit()
3550 pkt_dev->last_ok = 0; in pktgen_xmit()
3553 refcount_add(burst, &pkt_dev->skb->users); in pktgen_xmit()
3556 ret = netdev_start_xmit(pkt_dev->skb, odev, txq, --burst > 0); in pktgen_xmit()
3560 pkt_dev->last_ok = 1; in pktgen_xmit()
3561 pkt_dev->sofar++; in pktgen_xmit()
3562 pkt_dev->seq_num++; in pktgen_xmit()
3563 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3570 pkt_dev->errors++; in pktgen_xmit()
3574 pkt_dev->odevname, ret); in pktgen_xmit()
3575 pkt_dev->errors++; in pktgen_xmit()
3579 refcount_dec(&(pkt_dev->skb->users)); in pktgen_xmit()
3580 pkt_dev->last_ok = 0; in pktgen_xmit()
3583 WARN_ON(refcount_sub_and_test(burst, &pkt_dev->skb->users)); in pktgen_xmit()
3591 if ((pkt_dev->count != 0) && (pkt_dev->sofar >= pkt_dev->count)) { in pktgen_xmit()
3592 pktgen_wait_for_skb(pkt_dev); in pktgen_xmit()
3595 pktgen_stop_device(pkt_dev); in pktgen_xmit()
3606 struct pktgen_dev *pkt_dev = NULL; in pktgen_thread_worker() local
3619 pkt_dev = next_to_run(t); in pktgen_thread_worker()
3621 if (unlikely(!pkt_dev && t->control == 0)) { in pktgen_thread_worker()
3631 if (likely(pkt_dev)) { in pktgen_thread_worker()
3632 pktgen_xmit(pkt_dev); in pktgen_thread_worker()
3635 pktgen_resched(pkt_dev); in pktgen_thread_worker()
3678 struct pktgen_dev *p, *pkt_dev = NULL; in pktgen_find_dev() local
3688 pkt_dev = p; in pktgen_find_dev()
3693 pr_debug("find_dev(%s) returning %p\n", ifname, pkt_dev); in pktgen_find_dev()
3694 return pkt_dev; in pktgen_find_dev()
3702 struct pktgen_dev *pkt_dev) in add_dev_to_thread() argument
3714 if (pkt_dev->pg_thread) { in add_dev_to_thread()
3720 pkt_dev->running = 0; in add_dev_to_thread()
3721 pkt_dev->pg_thread = t; in add_dev_to_thread()
3722 list_add_rcu(&pkt_dev->list, &t->if_list); in add_dev_to_thread()
3733 struct pktgen_dev *pkt_dev; in pktgen_add_device() local
3739 pkt_dev = __pktgen_NN_threads(t->net, ifname, FIND); in pktgen_add_device()
3740 if (pkt_dev) { in pktgen_add_device()
3745 pkt_dev = kzalloc_node(sizeof(struct pktgen_dev), GFP_KERNEL, node); in pktgen_add_device()
3746 if (!pkt_dev) in pktgen_add_device()
3749 strcpy(pkt_dev->odevname, ifname); in pktgen_add_device()
3750 pkt_dev->flows = vzalloc_node(array_size(MAX_CFLOWS, in pktgen_add_device()
3753 if (pkt_dev->flows == NULL) { in pktgen_add_device()
3754 kfree(pkt_dev); in pktgen_add_device()
3758 pkt_dev->removal_mark = 0; in pktgen_add_device()
3759 pkt_dev->nfrags = 0; in pktgen_add_device()
3760 pkt_dev->delay = pg_delay_d; in pktgen_add_device()
3761 pkt_dev->count = pg_count_d; in pktgen_add_device()
3762 pkt_dev->sofar = 0; in pktgen_add_device()
3763 pkt_dev->udp_src_min = 9; /* sink port */ in pktgen_add_device()
3764 pkt_dev->udp_src_max = 9; in pktgen_add_device()
3765 pkt_dev->udp_dst_min = 9; in pktgen_add_device()
3766 pkt_dev->udp_dst_max = 9; in pktgen_add_device()
3767 pkt_dev->vlan_p = 0; in pktgen_add_device()
3768 pkt_dev->vlan_cfi = 0; in pktgen_add_device()
3769 pkt_dev->vlan_id = 0xffff; in pktgen_add_device()
3770 pkt_dev->svlan_p = 0; in pktgen_add_device()
3771 pkt_dev->svlan_cfi = 0; in pktgen_add_device()
3772 pkt_dev->svlan_id = 0xffff; in pktgen_add_device()
3773 pkt_dev->burst = 1; in pktgen_add_device()
3774 pkt_dev->node = NUMA_NO_NODE; in pktgen_add_device()
3776 err = pktgen_setup_dev(t->net, pkt_dev, ifname); in pktgen_add_device()
3779 if (pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING) in pktgen_add_device()
3780 pkt_dev->clone_skb = pg_clone_skb_d; in pktgen_add_device()
3782 pkt_dev->entry = proc_create_data(ifname, 0600, t->net->proc_dir, in pktgen_add_device()
3783 &pktgen_if_proc_ops, pkt_dev); in pktgen_add_device()
3784 if (!pkt_dev->entry) { in pktgen_add_device()
3791 pkt_dev->ipsmode = XFRM_MODE_TRANSPORT; in pktgen_add_device()
3792 pkt_dev->ipsproto = IPPROTO_ESP; in pktgen_add_device()
3799 pkt_dev->dstops.family = AF_INET; in pktgen_add_device()
3800 pkt_dev->xdst.u.dst.dev = pkt_dev->odev; in pktgen_add_device()
3801 dst_init_metrics(&pkt_dev->xdst.u.dst, pktgen_dst_metrics, false); in pktgen_add_device()
3802 pkt_dev->xdst.child = &pkt_dev->xdst.u.dst; in pktgen_add_device()
3803 pkt_dev->xdst.u.dst.ops = &pkt_dev->dstops; in pktgen_add_device()
3806 return add_dev_to_thread(t, pkt_dev); in pktgen_add_device()
3808 dev_put(pkt_dev->odev); in pktgen_add_device()
3811 free_SAs(pkt_dev); in pktgen_add_device()
3813 vfree(pkt_dev->flows); in pktgen_add_device()
3814 kfree(pkt_dev); in pktgen_add_device()
3875 struct pktgen_dev *pkt_dev) in _rem_dev_from_if_list() argument
3883 if (p == pkt_dev) in _rem_dev_from_if_list()
3890 struct pktgen_dev *pkt_dev) in pktgen_remove_device() argument
3892 pr_debug("remove_device pkt_dev=%p\n", pkt_dev); in pktgen_remove_device()
3894 if (pkt_dev->running) { in pktgen_remove_device()
3896 pktgen_stop_device(pkt_dev); in pktgen_remove_device()
3901 if (pkt_dev->odev) { in pktgen_remove_device()
3902 dev_put(pkt_dev->odev); in pktgen_remove_device()
3903 pkt_dev->odev = NULL; in pktgen_remove_device()
3909 proc_remove(pkt_dev->entry); in pktgen_remove_device()
3912 _rem_dev_from_if_list(t, pkt_dev); in pktgen_remove_device()
3915 free_SAs(pkt_dev); in pktgen_remove_device()
3917 vfree(pkt_dev->flows); in pktgen_remove_device()
3918 if (pkt_dev->page) in pktgen_remove_device()
3919 put_page(pkt_dev->page); in pktgen_remove_device()
3920 kfree_rcu(pkt_dev, rcu); in pktgen_remove_device()