|
O iPerf3 é uma ferramenta para medir ativamente a largura de banda máxima alcançável numa rede IP. Suporta a afinação de vários parâmetros relacionados com temporização, buffers e protocolos (TCP, UDP, SCTP com IPv4 e IPv6). Para cada teste, reporta a largura de banda, a perda e outros parâmetros. Esta é uma nova implementação que não partilha código com o iPerf original e não é compatível com as versões anteriores. O iPerf foi originalmente desenvolvido pelo NLANR/DAST. O iPerf3 foi desenvolvido principalmente pela ESnet / Lawrence Berkeley National Laboratory.
A família de ferramentas iperf realiza medições activas para determinar a largura de banda máxima alcançável numa rede IP. Suporta a afinação de vários parâmetros relacionados com a temporização, protocolos e buffers. Para cada teste, ele informa a taxa de transferência medida, a perda e outros parâmetros.
Esta versão, por vezes referida como iperf3, é uma reformulação da versão original desenvolvida pelo NLANR / DAST. O iperf3 é uma nova implementação de raiz, com o objetivo de obter uma base de código mais pequena e mais simples e uma versão da biblioteca de funções que pode ser utilizada noutros programas. O iperf3 também integra muitas funcionalidades de outras ferramentas (como o nuttcp e o netperf) que não existiam no iperf original. que estavam ausentes do iperf original. Isso inclui, por exemplo, o modo de cópia zero e a saída JSON opcional. Observe que o iperf3 não é compatível com as versões anteriores do iperf original.
Para testar a velocidade de comunicação de rede de um dispositivo, instale o iPerf3 em dois computadores, um como servidor e outro como cliente, e teste a velocidade de comunicação enviando mensagens um para o outro através do iPerf3.
Os parâmetros do iPerf3 são os seguintes:
Uso: iperf [-s|-c host] [opções] iperf [-h|--help] [-v|--version]
Servidor ou Cliente. -p, --port # porta do servidor para escutar/conectar -f, --format [kmgKMG] formato a reportar: Kbits, Mbits, KBytes, MBytes -i, --intervalo # segundos entre relatórios periódicos de largura de banda -F, --nome do ficheiro xmit/recv o ficheiro especificado -B, ---bind <host> bind a uma interface específica -V, --verbose saída mais detalhada -J, --json saída no formato JSON --logfile f envia a saída para um arquivo de log -d, --debug emite saída de depuração -v, --version mostra informações de versão e sai -h, --help mostra esta mensagem e encerra Específico do servidor. -s, --server executa no modo servidor -D, --daemon executa o servidor como um daemon -I, --pidfile arquivo escrever arquivo PID -1, --one-off trata uma conexão de cliente e então sai Específico do cliente. -c, --client <host> executa no modo cliente, conectando-se a <host> -u, --udp use U -u, --udp usa UDP em vez de TCP -b, --bandwidth #[KMG][/#] largura de banda alvo em bits/seg (0 para ilimitado) (predefinição 1 Mbit/sec para UDP, ilimitado para TCP) (barra opcional e contagem de pacotes para o modo burst) -t, --time # tempo em segundos para transmitir (predefinição 10 segs) -n, --bytes #[KMG] número de bytes a transmitir (em vez de -t) -k, --blockcount #[KMG] número de blocos (pacotes) para transmitir (em vez de -t ou -n) -l, --len #[KMG] comprimento do buffer para ler ou escrever (predefinição 128 KB para TCP, 8 KB para TCP, 8 KB para UDP) --cport <porta> liga-se a uma porta de cliente específica (TCP e UDP, padrão. porta efémera) -P, --parallel # número de fluxos de clientes paralelos a serem executados -R, --reverse executa em modo reverso (servidor envia, cliente recebe) -w, --window #[KMG] define o tamanho da janela / tamanho do buffer do socket -M, ---set-mss # define o tamanho máximo do segmento TCP/SCTP (MTU - 40 bytes) -N, --no-delay define TCP/SCTP sem atraso, desactivando o Algoritmo de Nagle -4, --versão4 usa apenas IPv4 -6, --versão6 usa apenas IPv6 -S, ---tos N define o "tipo de serviço" do IP -Z, --zerocopy usar um método de 'cópia zero' para enviar dados -O, --omit N omitir os primeiros n segundos -T, ---title str prefixa cada linha de saída com esta string --get-server-output obter resultados do servidor --udp-counters-64bit usa contadores de 64 bits em pacotes de teste UDP
[KMG] indica opções que suportam um sufixo K/M/G para kilo-, mega-, ou giga-.
Página inicial do iperf3 em: http://software.es.net/iperf/ Reportar bugs para: https://github.com/esnet/iperf Versão Windows 64-bit em: https: //iperf.fr/download/windows/iperf-3.1.3-win64.zip
Servidor LINUX, tome CentOS como exemplo, você pode usar o comando yum para instalar a ferramenta iPerf3, o comando é o seguinte:
Lado do servidor
Para utilizar um servidor Linux como servidor, execute os seguintes comandos:
Cliente
Pegue no meu computador local como cliente e execute o seguinte comando:
Nota: 192.168.50.227 é o endereço IP do lado do servidor.
Resumo
O registo do Servidor mostra que foi recebido um pedido de teste de 192.168.50.243, porta de origem 22376. O Cliente tem estado a testar continuamente durante 10 segundos e mostra o número de bytes transferidos por segundo e a informação sobre a largura de banda; depois de terminado o teste, resume as estatísticas de envio e receção. Depois que a conexão do Cliente é fechada, ele continua a escutar na porta 5201.
Conectando-se ao host 192.168.50.227, porta 5201 [ 4] local 192.168.50.243 porta 22377 conectado a 192.168.50.227 porta 5201 [ID] Intervalo de transferência de largura de banda [ 4] 0.00-1.00 seg 112 MBytes 943 Mbits/sec [ 4] 1.00-2.00 seg 112 MBytes 940 Mbits/sec [ 4] 2,00-3,00 seg 112 MBytes 941 Mbits/s [ 4] 3.00-4.00 seg 112 MBytes 940 Mbits/sec [ 4] 4.00-5.00 seg 112 MBytes 941 Mbits/sec [ 4] 5.00-6.00 seg 112 MBytes 941 Mbits/sec [ 4] 6.00-7.00 seg 112 MBytes 942 Mbits/sec [ 4] 7.00-8.00 seg 112 MBytes 941 Mbits/sec [ 4] 8.00-9.00 seg 112 MBytes 942 Mbits/sec [ 4] 9.00-10.00 seg 112 MBytes 942 Mbits/sec [ID] Largura de banda de transferência de intervalo [ 4] 0.00-10.00 seg 1.10 GBytes 941 Mbits/sec & nbsp; remetente [ 4] 0.00-10.00 seg 1.10 GBytes 941 Mbits/sec & nbsp; remetente nbsp; recetor
iperf Concluído. Os dispositivos servidor e cliente são todos portas Gigabit, e os roteadores são todos portas Gigabit, portanto a largura de banda de 941 Mbits/seg é normal.
Testando máquinas virtuais sob ESXI
Ambos são sistemas CentOS, e a ambos foi atribuído um ip de intranet no router físico, e o teste é realizado através do ip de intranet, como se segue:
Conectando ao host 192.168.50.227, porta 5201 [ 5] local 192.168.50.131 porta 35394 ligado a 192.168.50.227 porta 5201 [ID] Intervalo Transferência Taxa de bits & nbsp;Retr Cwnd [ 5] 0.00-1.00 seg 2.72 GBytes 23.3 Gbits/s 0 1.39 MBytes [ 5] 1.00-2.00 seg 2.74 GBytes 23.5 Gbits/seg 0 1.48 MBytes [ 5] 2.00-3.00 seg 2.60 GBytes 22.3 Gbits/seg 0 1.48 MBytes [ 5] 3.00-4.00 seg 2.58 GBytes 22.2 Gbits/seg 0 1.48 MBytes [ 5] 4.00-5.00 seg 2.67 GBytes 23.0 Gbits/seg 0 1.48 MBytes [ 5] 5.00-6.00 seg 2.65 GBytes 22.7 Gbits/seg 0 1.48 MBytes [ 5] 6.00-7.00 seg 2.67 GBytes 23.0 Gbits/seg 0 1.48 MBytes [ 5] 7.00-8.00 seg 2.64 GBytes 22.7 Gbits/seg 0 1.48 MBytes [ 5] 8.00-9.00 seg 2.63 GBytes 22.6 Gbits/seg 0 1.48 MBytes [ 5] 9.00-10.00 seg 2.67 GBytes 22.9 Gbits/seg 0 1.48 MBytes [ ID] Intervalo Transferência Taxa de bits & nbsp;Retr [ 5] 0.00-10.00 seg 26.6 GBytes 22.8 Gbits/seg 0 Retr [ 5] 0.00-10.00 seg 26.6 GBytes [ 5] 0.00-10.04 seg 26.6 GBytes 22.7 Gbits/sec & nbsp; recetor nbsp; recetor
iperf Feito. Isso é um pouco incomum, pois eu tenho um roteador Gigabit e a velocidade de teste da internet é de 22,7 Gbits/seg, será que não passou pela placa de rede física?
Veja as informações: https: //communities.vmware.com/t ... Rotas/ta-p/2783083
A VM1 e a VM2 estão conectadas ao mesmo vSwitch chamado "vSwitch1", ao mesmo grupo de portas chamado Production e também à mesma VLAN chamada VLAN 20 e ambas O tráfego de rede entre essas VMs (VM1 e VM2) não vai para as NICs físicas no host ESXi e esses quadros também não são encaminhados para a rede física, como o switch e o roteador físicos, porque as VMs se comunicam dentro do vSwitch e resultam na obtenção de As VMs comunicam dentro do vSwitch, o que resulta numa maior velocidade de rede e numa menor latência de rede. A VM1 e a VM2 estão ligadas ao mesmo vSwitch chamado "vSwitch1", ao mesmo grupo de portas chamado Production e à mesma VLAN chamada VLAN 20, e ambas estão a ser executadas no mesmo anfitrião ESXi chamado ESX1. O tráfego de rede entre essas VMs (VM1 e VM2) não irá para as NICs físicas no host ESXi, e os quadros não serão encaminhados para a rede física (como switches e roteadores físicos) porque as VMs estarão se comunicando dentro do vSwitch, resultando em velocidades de rede mais altas e menor latência de rede.
No meu próprio ambiente de teste, as duas VMs estão no mesmo host, no mesmo vSwitch, mas não no mesmo grupo de portas, e elas não parecem ser encaminhadas para a NIC física ou para a rede física.
|
Artigo anterior: Windows usa Markdown em lote do Pandoc para documentos do WordPróximo artigo: AOP do Spring Boot modifica dinamicamente o valor dos parâmetros do pedido
|