天翼云通用型S6、计算增强型C6 等新一代云主机上提供超高网络性能,您可通过本实践提供的 netperf 和 DPDK 两种网络性能测试方法,进行云服务器高吞吐网络性能测试。
推荐选择 netperf 方法进行测试,netperf 为通常使用的测试方法,可满足大多数测试场景。但当云主机配置较高(pps 超过1000万且带宽大于50Gbps)时,netperf包含云主机机内核协议栈的完整处理路径对网络性能损耗较大,而 DPDK 可屏蔽虚拟机内核协议栈的差异,获取虚拟机网卡的网络性能,此时可选择 DPDK 方法进行测试。
工具介绍
Netperf
HP 开发的网络性能测量工具,主要测试 TCP 及 UDP 吞吐量性能。测试结果主要反应系统向其他系统发送数据的速度,以及其他系统接收数据的速度。
SAR
用于监控网络流量,运行示例如下:
· sar -n DEV 1
· 02:41:03 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s
· 02:41:04 PM eth0 1626689.00 8.00 68308.62 1.65 0.00 0.00 0.00
· 02:41:04 PM lo 0.00 0.00 0.00 0.00 0.00 0.00 0.00
· 02:41:04 PM IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s
· 02:41:05 PM eth0 1599900.00 1.00 67183.30 0.10 0.00 0.00 0.00
· 02:41:05 PM lo 0.00 0.00 0.00 0.00 0.00 0.00 0.00
字段解释
字段 | 单位 | 说明 |
rxpck/s | pps | 每秒收包量,即接收 pps |
txpck/s | pps | 每秒发包量,即发送 pps |
rxkB/s | kB/s | 接收带宽 |
txkB/s | kB/s | 发送带宽 |
测试场景
测试场景 | 客户端运行命令 | SAR 监控指标 |
UDP 64 | netperf -t UDP_STREAM -H <server ip> -l 10000 -- -m 64 -R 1 & | PPS |
TCP 1500 | netperf -t TCP_STREAM -H <server ip> -l 10000 -- -m 1500 -R 1 & | 带宽 |
TCP RR | netperf -t TCP_RR -H <server ip> -l 10000 -- -r 32,128 -R 1 & | PPS |
性能指标
指标 | 说明 |
64字节 UDP 收发 PPS(包/秒) | 表示通过 UDP 进行批量数据传输时的数据传输吞吐量,能反映网络极限转发能力(可能会存在丢包)。 |
1500字节 TCP 收发带宽(Mbits/秒) | 表示通过 TCP 进行批量数据传输时的数据传输吞吐量,能反映网络极限带宽能力(可能会存在丢包)。 |
TCP-RR(次/秒) | 表示在 TCP 长链接中反复进行 Request/Response 操作的交易吞吐量,能反映 TCP 不丢包网络转发能力。 |
操作步骤
准备测试环境
1.准备3台测试机器,请参见 自定义配置 Linux 云服务器 购买测试机器。本文测试机器使用 CentOS 8.2 操作系统。
2.依次登录测试机器,并执行以下命令安装 netperf 工具。
yum install -y sysstat wget tar automake make gcc
wget -O netperf-2.7.0.tar.gz -c https://codeload.github.com/HewlettPackard/netperf/tar.gz/netperf-2.7.0
tar zxf netperf-2.7.0.tar.gz
cd netperf-netperf-2.7.0
./autogen.sh && ./configure && make && make install
测试发包性能
1. 分别在机器中执行命令“pkill netserver && pkill netperf”,停止残余的 netperf 和 netserver 进程。
2. 将其中的机器 a 作为客户端,机器 b 和机器 c 作为服务端。在服务端中执行命令“netserver”,运行 netserver。
若返回结果如下图所示,则说明仍存在其他 netserver 进程。请执行步骤1中的命令,停止该进程。
若返回结果如下图所示,则说明已成功运行 netserver,请继续下一步操作。
3. 在客户端中执行 测试场景 中提供的命令,不断增减 netperf 进程,直到客户端发包性能不再增加。
4.在客户端执行命令“sar -n DEV 1”,观察客户端发包性能变化,取最大值。
根据所得结果,参考 性能指标 进行分析,即可测出云服务器高吞吐网络性能。
测试收包性能
1.分别在机器中执行命令“pkill netserver && pkill netperf”,停止残余的 netperf 和 netserver 进程。
2.将其中的机器 a 作为服务端,机器 b 和机器 c 作为客户端。在服务端中执行命令“netserver”,运行 netserver。
若返回结果如下图所示,则说明仍存在其他 netserver 进程。请执行 步骤1 中的命令,停止该进程。
若返回结果如下图所示,则说明已成功运行 netserver,请继续下一步操作。
3.在客户端中执行 测试场景 中提供的命令,不断增减 netperf 进程,直到客户端发包性能不再增加。
在服务端执行命令“sar -n DEV 1”,观察服务端收包性能变化,取最大值。
4.根据所得结果,参考 性能指标 进行分析,即可测出云服务器高吞吐网络性能。
附录
测试辅助脚本
执行该脚本,可快速发起多个 netperf 进程。
#!/bin/bash
count=$1
for ((i=1;i<=count;i++))
do
echo "Instance:$i-------"
# 下方命令可以替换为测试场景表格中的命令
# -H 后填写服务器 IP 地址;
# -l 后为测试时间,为了防止 netperf 提前结束,因此时间设为 10000;
netperf -t UDP_STREAM -H <server ip> -l 10000 -- -m 64 -R 1 &
done
DPDK测试
操作步骤
编译安装 DPDK
1.准备2台测试机器,请参见 自定义配置 Linux 云服务器 购买测试机器。本文测试机器使用 CentOS 8.2 操作系统。
2.依次登录测试机器,并执行以下命令下载 DPDK 工具。
yum install -y sysstat wget tar automake make gcc
wget http://git.dpdk.org/dpdk/snapshot/dpdk-17.11.tar.gz
tar -xf dpdk-17.11.tar.gz
mv dpdk-17.11 dpdk
3.修改 txonly 引擎,使每个 DPDK 发包 CPU 上的 UDP 流量的端口变动产生多条流。
1)执行以下命令,修改 dpdk/app/test-pmd/txonly.c 文件。
vim dpdk/app/test-pmd/txonly.c
按 i 进入编辑模式,修改以下内容:
找到 #include "testpmd.h",另起一行输入如下内容:
RTE_DEFINE_PER_LCORE(struct udp_hdr, lcore_udp_hdr);
修改完成后,如下图所示:
找到 ol_flags |= PKT_TX_MACSEC;,另起一行输入如下内容:
/* dummy test udp port */
static uint16_t test_port = 0;
test_port++;
memcpy(&RTE_PER_LCORE(lcore_udp_hdr), &pkt_udp_hdr, sizeof(pkt_udp_hdr));
RTE_PER_LCORE(lcore_udp_hdr).src_port = rte_cpu_to_be_16(rte_lcore_id() * 199 + test_port % 16);
RTE_PER_LCORE(lcore_udp_hdr).dst_port = rte_cpu_to_be_16(rte_lcore_id() * 1999 + test_port % 16);
修改完成后,如下图所示:
找到 copy_buf_to_pkt(&pkt_udp_hdr, sizeof(pkt_udp_hdr), pkt,,将其替换为如下内容:
copy_buf_to_pkt(&RTE_PER_LCORE(lcore_udp_hdr), sizeof(RTE_PER_LCORE(lcore_udp_hdr)), pkt,
修改完成后,如下图所示:
按 Esc 输入 :wq 保存修改并退出。
2)执行以下命令,修改 dpdk/config/common_base 文件。
vim dpdk/config/common_base
按 i 进入编辑模式,找到 CONFIG_RTE_MAX_MEMSEG=256,将其修改为1024。修改完成后如下图所示:
按 Esc 输入 :wq 保存修改并退出。
4. 执行以下命令,将 dpdk/app/test-pmd/txonly.c 的 IP 地址修改为测试机器所用 IP。
vim dpdk/app/test-pmd/txonly.c
按 i 进入编辑模式,找到如下内容:
#define IP_SRC_ADDR (198U << 24) | (18 << 16) | (0 << 8) | 1;
#define IP_DST_ADDR (198U << 24) | (18 << 16) | (0 << 8) | 2;
将数字198、18、0、1替换为机器 IP,SRC_ADDR 为发送端 IP,DST_ADDR 为接收端 IP。
5. 对应机器操作系统,执行以下命令,安装 numa 库。
yum install numactl-devel
6. 在 dpdk/ 目录下执行以下命令,关闭 KNI。
sed -i "s/\(^CONFIG_.*KNI.*\)=y/\1=n/g" ./config/*
7.若您的操作系统内核版本较高(例如5.3),则请执行以下命令,屏蔽差异。
sed -i "s/\(^WERROR_FLAGS += -Wundef -Wwrite-strings$\)/\1 -Wno-address-of-packed-member/g" ./mk/toolchain/gcc/rte.vars.mk
sed -i "s/fall back/falls through -/g" ./lib/librte_eal/linuxapp/igb_uio/igb_uio.c
8.执行以下命令,编译DPDK。
make defconfig
make -j
配置大页内存
执行以下命令,配置大页内存。
echo 2048 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages
若出现报错信息,则说明大页内存不足,可调整命令配置。例如:
echo 4096 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages
装载内核模块及绑定接口
1.切换登录方式为使用VNC。由于将网卡驱动绑定至 igb_uio 用户态驱动后,该网卡将无法通过 ssh 或 IP 访问,仅支持通过 VNC 或 console 方式访问。
2.依次执行以下命令,装载 UIO 模块及绑定 virito 接口。
ifconfig eth0 0
ifconfig eth0 down
modprobe uio
insmod /root/dpdk/build/kmod/igb_uio.ko
cd /root/dpdk/usertools/
python3 dpdk-devbind.py --bind=igb_uio 00:05.0
完成测试后,可通过请执行以下命令,恢复网卡变更。
cd /root/dpdk/usertools/
python3 dpdk-devbind.py --bind=virtio-pci 00:05.0
ifconfig eth0 up
测试带宽及吞吐量
1.执行以下命令,发送端采用 TX only 模式启动 testpmd, 接收端启用 rxonly 模式。
发送端:
/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=16 --rxq=16 --nb-cores=1 --forward-mode=txonly --txpkts=1430 --stats-period=1
接收端:
/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=48 --rxq=48 --nb-cores=16 --forward-mode=rxonly --stats-period=1
2.执行以下命令,测试 pps(UDP 64B 小包)。
发送端:
/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=16 --rxq=16 --nb-cores=3 --forward-mode=txonly --txpkts=64 --stats-period=1
接收端:
/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=48 --rxq=48 --nb-cores=16 --forward-mode=rxonly --stats-period=1
得出如下图所示测试结果:
网络带宽计算
可根据接收端 PPS 和测试包长来计算当前网络的接收带宽,公式如下:
PPS × packet length × 8bit/B × 10-9 = 带宽
结合测试得出数据,可得当前带宽为:
4692725pps × 1430B × 8bit/B × 10-9 ≈ 53Gbps