弹性云主机

网站性能测试

2025-10-27 01:32:25

天翼云通用型S6、计算增强型C6 等新一代云主机上提供超高网络性能,您可通过本实践提供的 netperf 和 DPDK 两种网络性能测试方法,进行云服务器高吞吐网络性能测试。

推荐选择 netperf 方法进行测试,netperf 为通常使用的测试方法,可满足大多数测试场景。但当云主机配置较高(pps 超过1000万且带宽大于50Gbps)时,netperf包含云主机机内核协议栈的完整处理路径对网络性能损耗较大,而 DPDK 可屏蔽虚拟机内核协议栈的差异,获取虚拟机网卡的网络性能,此时可选择 DPDK 方法进行测试。

netperf测试

工具介绍

  •  Netperf

HP 开发的网络性能测量工具,主要测试 TCP 及 UDP 吞吐量性能。测试结果主要反应系统向其他系统发送数据的速度,以及其他系统接收数据的速度。

  •  SAR

用于监控网络流量,运行示例如下:

· sar -n DEV 1

· 02:41:03 PM     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

· 02:41:04 PM      eth0 1626689.00      8.00  68308.62      1.65      0.00      0.00      0.00

· 02:41:04 PM        lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00

· 02:41:04 PM     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

· 02:41:05 PM      eth0 1599900.00      1.00  67183.30      0.10      0.00      0.00      0.00

· 02:41:05 PM        lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00

字段解释

字段

单位

说明

rxpck/s

pps

每秒收包量,即接收 pps

txpck/s

pps

每秒发包量,即发送 pps

rxkB/s

kB/s

接收带宽

txkB/s

kB/s

发送带宽

测试场景

测试场景

客户端运行命令

SAR 监控指标

UDP 64

netperf -t UDP_STREAM -H <server ip> -l 10000 -- -m 64 -R 1 &

PPS

TCP 1500

netperf -t TCP_STREAM -H <server ip> -l 10000 -- -m 1500 -R 1 &

带宽

TCP RR

netperf -t TCP_RR -H <server ip> -l 10000 -- -r 32,128 -R 1 &

PPS

性能指标

指标

说明

64字节 UDP 收发 PPS(包/秒)

表示通过 UDP 进行批量数据传输时的数据传输吞吐量,能反映网络极限转发能力(可能会存在丢包)。

1500字节 TCP 收发带宽(Mbits/秒)

表示通过 TCP 进行批量数据传输时的数据传输吞吐量,能反映网络极限带宽能力(可能会存在丢包)。

TCP-RR(次/秒)

表示在 TCP 长链接中反复进行 Request/Response 操作的交易吞吐量,能反映 TCP 不丢包网络转发能力。

操作步骤

准备测试环境

1.准备3台测试机器,请参见 自定义配置 Linux 云服务器 购买测试机器。本文测试机器使用 CentOS 8.2 操作系统。

2.依次登录测试机器,并执行以下命令安装 netperf 工具。

yum install -y sysstat wget tar automake make gcc

wget -O netperf-2.7.0.tar.gz -c  https://codeload.github.com/HewlettPackard/netperf/tar.gz/netperf-2.7.0

tar zxf netperf-2.7.0.tar.gz

cd netperf-netperf-2.7.0

./autogen.sh && ./configure && make && make install

测试发包性能

1. 分别在机器中执行命令“pkill netserver && pkill netperf”,停止残余的 netperf 和 netserver 进程。

2. 将其中的机器 a 作为客户端,机器 b 和机器 c 作为服务端。在服务端中执行命令“netserver”,运行 netserver。

  • 若返回结果如下图所示,则说明仍存在其他 netserver 进程。请执行步骤1中的命令,停止该进程。

 

  • 若返回结果如下图所示,则说明已成功运行 netserver,请继续下一步操作。

 

3. 在客户端中执行 测试场景 中提供的命令,不断增减 netperf 进程,直到客户端发包性能不再增加。

4.在客户端执行命令“sar -n DEV 1”,观察客户端发包性能变化,取最大值。

根据所得结果,参考 性能指标 进行分析,即可测出云服务器高吞吐网络性能。

测试收包性能

1.分别在机器中执行命令“pkill netserver && pkill netperf,停止残余的 netperf 和 netserver 进程。

2.将其中的机器 a 作为服务端,机器 b 和机器 c 作为客户端。在服务端中执行命令“netserver,运行 netserver。

若返回结果如下图所示,则说明仍存在其他 netserver 进程。请执行 步骤1 中的命令,停止该进程。

 

若返回结果如下图所示,则说明已成功运行 netserver,请继续下一步操作。

 

3.在客户端中执行 测试场景 中提供的命令,不断增减 netperf 进程,直到客户端发包性能不再增加。

在服务端执行命令“sar -n DEV 1,观察服务端收包性能变化,取最大值。

4.根据所得结果,参考 性能指标 进行分析,即可测出云服务器高吞吐网络性能。

附录

测试辅助脚本

执行该脚本,可快速发起多个 netperf 进程。

#!/bin/bash

count=$1

for ((i=1;i<=count;i++))

do

echo "Instance:$i-------"

 # 下方命令可以替换为测试场景表格中的命令

# -H 后填写服务器 IP 地址;

# -l 后为测试时间,为了防止 netperf 提前结束,因此时间设为 10000;

netperf -t UDP_STREAM -H <server ip> -l 10000 -- -m 64 -R 1 &

done

DPDK测试

操作步骤

编译安装 DPDK

1.准备2台测试机器,请参见 自定义配置 Linux 云服务器 购买测试机器。本文测试机器使用 CentOS 8.2 操作系统。

2.依次登录测试机器,并执行以下命令下载 DPDK 工具。

yum install -y sysstat wget tar automake make gcc

wget http://git.dpdk.org/dpdk/snapshot/dpdk-17.11.tar.gz

tar -xf dpdk-17.11.tar.gz

mv dpdk-17.11 dpdk

3.修改 txonly 引擎,使每个 DPDK 发包 CPU 上的 UDP 流量的端口变动产生多条流。

1)执行以下命令,修改 dpdk/app/test-pmd/txonly.c 文件。

vim dpdk/app/test-pmd/txonly.c

按 i 进入编辑模式,修改以下内容:

  • 找到 #include "testpmd.h",另起一行输入如下内容:

RTE_DEFINE_PER_LCORE(struct udp_hdr, lcore_udp_hdr);

修改完成后,如下图所示:

  • 找到 ol_flags |= PKT_TX_MACSEC;,另起一行输入如下内容:

 /* dummy test udp port */

static uint16_t test_port = 0;

 test_port++;

memcpy(&RTE_PER_LCORE(lcore_udp_hdr), &pkt_udp_hdr, sizeof(pkt_udp_hdr));

 RTE_PER_LCORE(lcore_udp_hdr).src_port = rte_cpu_to_be_16(rte_lcore_id() * 199 + test_port % 16);

RTE_PER_LCORE(lcore_udp_hdr).dst_port = rte_cpu_to_be_16(rte_lcore_id() * 1999 + test_port % 16);

修改完成后,如下图所示:

  • 找到 copy_buf_to_pkt(&pkt_udp_hdr, sizeof(pkt_udp_hdr), pkt,,将其替换为如下内容:

copy_buf_to_pkt(&RTE_PER_LCORE(lcore_udp_hdr), sizeof(RTE_PER_LCORE(lcore_udp_hdr)), pkt,

修改完成后,如下图所示:

按 Esc 输入 :wq 保存修改并退出。

2)执行以下命令,修改 dpdk/config/common_base 文件。

vim dpdk/config/common_base

按 i 进入编辑模式,找到 CONFIG_RTE_MAX_MEMSEG=256,将其修改为1024。修改完成后如下图所示:

按 Esc 输入 :wq 保存修改并退出。

4. 执行以下命令,将 dpdk/app/test-pmd/txonly.c 的 IP 地址修改为测试机器所用 IP。

vim dpdk/app/test-pmd/txonly.c

按 i 进入编辑模式,找到如下内容:

#define IP_SRC_ADDR (198U << 24) | (18 << 16) | (0 << 8) | 1;

#define IP_DST_ADDR (198U << 24) | (18 << 16) | (0 << 8) | 2;   

将数字198、18、0、1替换为机器 IP,SRC_ADDR 为发送端 IP,DST_ADDR 为接收端 IP。

5. 对应机器操作系统,执行以下命令,安装 numa 库。

yum install numactl-devel

6. 在 dpdk/ 目录下执行以下命令,关闭 KNI。

sed -i  "s/\(^CONFIG_.*KNI.*\)=y/\1=n/g" ./config/*

7.若您的操作系统内核版本较高(例如5.3),则请执行以下命令,屏蔽差异。

sed -i "s/\(^WERROR_FLAGS += -Wundef -Wwrite-strings$\)/\1 -Wno-address-of-packed-member/g" ./mk/toolchain/gcc/rte.vars.mk

sed -i "s/fall back/falls through -/g" ./lib/librte_eal/linuxapp/igb_uio/igb_uio.c

8.执行以下命令,编译DPDK。

make defconfig

make -j

配置大页内存

执行以下命令,配置大页内存。

echo 2048 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages

若出现报错信息,则说明大页内存不足,可调整命令配置。例如:

echo 4096 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages

装载内核模块及绑定接口

1.切换登录方式为使用VNC。由于将网卡驱动绑定至 igb_uio 用户态驱动后,该网卡将无法通过 ssh 或 IP 访问,仅支持通过 VNC 或 console 方式访问。

2.依次执行以下命令,装载 UIO 模块及绑定 virito 接口。

ifconfig eth0 0

ifconfig eth0 down

modprobe uio

insmod /root/dpdk/build/kmod/igb_uio.ko

cd /root/dpdk/usertools/

python3 dpdk-devbind.py --bind=igb_uio 00:05.0

完成测试后,可通过请执行以下命令,恢复网卡变更。

cd /root/dpdk/usertools/

python3 dpdk-devbind.py --bind=virtio-pci 00:05.0

ifconfig eth0 up

测试带宽及吞吐量

1.执行以下命令,发送端采用 TX only 模式启动 testpmd, 接收端启用 rxonly 模式。

  • 发送端:

/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=16 --rxq=16 --nb-cores=1 --forward-mode=txonly --txpkts=1430 --stats-period=1

  • 接收端:

/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=48 --rxq=48 --nb-cores=16 --forward-mode=rxonly --stats-period=1

2.执行以下命令,测试 pps(UDP 64B 小包)。

  • 发送端:

/root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=16 --rxq=16 --nb-cores=3 --forward-mode=txonly --txpkts=64 --stats-period=1

  • 接收端:

 /root/dpdk/build/app/testpmd -- --txd=128 --rxd=128 --txq=48 --rxq=48 --nb-cores=16 --forward-mode=rxonly --stats-period=1

得出如下图所示测试结果:

网络带宽计算

可根据接收端 PPS 和测试包长来计算当前网络的接收带宽,公式如下:

PPS × packet length × 8bit/B × 10-9 = 带宽

结合测试得出数据,可得当前带宽为:

4692725pps × 1430B × 8bit/B × 10-9 ≈ 53Gbps

M2RbaMIEkOKF