|
iPerf3 - це інструмент для активного вимірювання максимально досяжної пропускної здатності IP-мережі. Він підтримує налаштування різних параметрів, пов'язаних з таймінгом, буферами і протоколами (TCP, UDP, SCTP з IPv4 і IPv6). Для кожного тесту він звітує про пропускну здатність, втрати та інші параметри. Це нова реалізація, яка не має спільного коду з оригінальним iPerf і не має зворотної сумісності. iPerf спочатку був розроблений NLANR/DAST. iPerf3 був розроблений в основному ESnet / Національною лабораторією Лоуренса Берклі.
Сімейство інструментів iperf виконує активні вимірювання для визначення максимальної пропускної здатності, досяжної в IP-мережі. Він підтримує налаштування різних параметрів, пов'язаних з часом, протоколами і буферами. Для кожного тесту він звітує про виміряну пропускну здатність, втрати та інші параметри.
Ця версія, яку іноді називають iperf3, є переробкою оригінальної версії, розробленої NLANR / DAST. iperf3 - це нова реалізація з нуля, метою якої є менша, простіша кодова база і версія бібліотеки функцій, яку можна використовувати в інших програмах. iperf3 також інтегрує багато функцій з інших інструментів (таких як nuttcp і netperf), які були відсутні в оригінальному iperf. У iperf3 інтегровано багато можливостей з інших інструментів, яких не було у попередній версії iperf. До них відносяться, наприклад, режим нульового копіювання і необов'язкове виведення у форматі JSON. Зверніть увагу, що iperf3 не має зворотної сумісності з оригінальним iperf.
Щоб перевірити швидкість мережевого зв'язку пристрою, встановіть iPerf3 на двох комп'ютерах, один як сервер, а інший як клієнт, і перевірте швидкість зв'язку, надсилаючи повідомлення один одному через iPerf3.
Параметри iPerf3 такі:
Використання: iperf [-s|-c хост] [опції] iperf [-h|--help] [-v|--version]
Сервер або клієнт. -p, --port # порт сервера для прослуховування/підключення -f, --format [kmgKMG] формат звіту: Kbits, Mbits, KBytes, MBytes -i, --interval # секунди між періодичними звітами про пропускну здатність -F, -ім'я файлу xmit/recv вказаного файлу -B, ---bind <host> прив'язати до певного інтерфейсу -V, --verbose більш детальний вивід -J, --json виводити у форматі JSON --logfile f надсилати вивід до лог-файлу -d, --debug виводити налагоджувальний вивід -v, --version показати інформацію про версію і вийти -h, --help показати це повідомлення і вийти Залежно від сервера. -s, --server запускати в режимі сервера -D, --daemon запустити сервер як демон -I, --pidfile file записати PID-файл -1, --one-off обробити одне клієнтське з'єднання і вийти Залежно від клієнта. -c, --client <host> запускати в режимі клієнта, підключаючись до <host> -u, --udp використовувати U -u, --udp використовувати UDP замість TCP -b, --bandwidth #[KMG][/#] цільова пропускна здатність у бітах/сек (0 для необмеженої) (за замовчуванням 1 Мбіт/с для UDP, необмежена для TCP) (необов'язкова коса риска та кількість пакетів для пакетного режиму) -t, --time # час у секундах для передачі (за замовчуванням 10 секунд) -n, --bytes #[KMG] кількість байт для передачі (замість -t) -k, --blockcount #[KMG] кількість блоків (пакетів) для передачі (замість -t або -n) -l, --len #[KMG] довжина буфера для читання або запису (за замовчуванням 128 KB для TCP, 8 KB для TCP, 8 KB для UDP) --cport <порт> прив'язка до певного клієнтського порту (TCP і UDP, за замовчуванням. ефемерний порт) -P, --parallel # кількість паралельних клієнтських потоків для запуску -R, --reverse запускати у реверсному режимі (сервер відправляє, клієнт отримує) -w, --window #[KMG] встановити розмір вікна / розмір буфера сокета -M, ---set-mss # встановити максимальний розмір сегменту TCP/SCTP (MTU - 40 байт) -N, --no-delay встановити TCP/SCTP без затримок, відключивши алгоритм Нейгла -4, --version4 використовувати лише IPv4 -6, --version6 використовувати лише IPv6 -S, ---tos N вказати тип сервісу для IP -Z, --zerocopy використовувати метод "нульової копії" для надсилання даних -O, --omit N опустити перші n секунд -T, ---title str префіксувати кожен рядок виводу цим рядком --get-server-output отримати результати з сервера --udp-counters-64bit використовувати 64-розрядні лічильники у тестових пакетах UDP
[KMG] вказує на опції, які підтримують суфікси K/M/G для кіло-, мега- або гіга-.
Домашня сторінка iperf3: http://software.es.net/iperf/ Повідомляти про вади на: https://github.com/esnet/iperf 64-розрядна версія для Windows: https: //iperf.fr/download/windows/iperf-3.1.3-win64.zip
На сервері LINUX, на прикладі CentOS, ви можете використовувати команду yum для встановлення інструменту iPerf3, команда виглядає наступним чином:
На стороні сервера
Щоб використовувати Linux-сервер в якості сервера, виконайте наступні команди:
Клієнт
Візьміть мій локальний комп'ютер в якості клієнта і виконайте наступну команду:
Примітка: 192.168.50.227 - це ip-адреса сервера.
Підсумок
Журнал сервера показує, що було отримано тестовий запит від 192.168.50.243, порт джерела 22376. Клієнт безперервно тестує протягом 10 секунд і показує кількість переданих байт за секунду та інформацію про пропускну здатність; після завершення тесту він підсумовує статистику надсилання та отримання. Після закриття з'єднання Клієнт продовжує прослуховувати порт 5201.
Підключення до хосту 192.168.50.227, порт 5201 [ 4] локальний 192.168.50.243 порт 22377 підключено до 192.168.50.227 порт 5201 [ ID] Пропускна здатність інтервальної передачі [ 4] 0.00-1.00 сек 112 МБайт 943 Мбіт/с [ 4] 1.00-2.00 сек 112 МБайт 940 Мбіт/с [ 4] 2.00-3.00 сек 112 МБайт 941 Мбіт/с [ 4] 3.00-4.00 сек 112 МБайт 940 Мбіт/с [ 4] 4.00-5.00 сек 112 МБайт 941 Мбіт/с [ 4] 5.00-6.00 сек 112 МБайт 941 Мбіт/с [ 4] 6.00-7.00 сек 112 МБайт 942 Мбіт/с [ 4] 7.00-8.00 сек 112 МБайт 941 Мбіт/с [ 4] 8.00-9.00 сек 112 МБайт 942 Мбіт/с [ 4] 9.00-10.00 сек 112 МБайт 942 Мбіт/с [ ID] Пропускна здатність інтервальної передачі [ 4] 0.00-10.00 сек 1.10 Гбайт 941 Мбіт/с & відправник [ 4] 0.00-10.00 сек 1.10 GBytes 941 Mbits/sec & nbsp; відправник nbsp; одержувач
iperf Готово. Сервер і клієнтські пристрої мають гігабітні порти, і маршрутизатори також мають гігабітні порти, тому пропускна здатність 941 Мбіт/с є нормальною.
Тестування віртуальних машин під ESXI
Обидві машини є системами CentOS, і їм обом було призначено IP-адресу інтрамережі у фізичному маршрутизаторі, і тест проводиться через IP-адресу інтрамережі, як показано нижче:
Підключення до хосту 192.168.50.227, порт 5201 [ 5] локальний 192.168.50.131 порт 35394 підключено до 192.168.50.227 порт 5201 [ ID] Бітрейт передачі інтервалу & nbsp;Retr Cwnd [ 5] 0.00-1.00 сек 2.72 Гбайт 23.3 Гбіт/с 0 1.39 Мбайт [ 5] 1.00-2.00 сек 2.74 Гбайт 23.5 Гбіт/с 0 1.48 Мбайт [ 5] 2.00-3.00 сек 2.60 Гбайт 22.3 Гбіт/с 0 1.48 Мбайт [ 5] 3.00-4.00 сек 2.58 Гбайт 22.2 Гбайт/с 0 1.48 Мбайт [ 5] 4.00-5.00 сек 2.67 Гбайт 23.0 Гбіт/с 0 1.48 Мбайт [ 5] 5.00-6.00 сек 2.65 Гбайт 22.7 Гбайт/с 0 1.48 Мбайт [ 5] 6.00-7.00 сек 2.67 Гбайт 23.0 Гбіт/с 0 1.48 Мбайт [ 5] 7.00-8.00 сек 2.64 Гбайт 22.7 Гбайт/с 0 1.48 Мбайт [ 5] 8.00-9.00 сек 2.63 Гбайт 22.6 Гбіт/с 0 1.48 Мбайт [ 5] 9.00-10.00 сек 2.67 Гбайт 22.9 Гбіт/с 0 1.48 Мбайт [ ID] Інтервальний бітрейт передачі & nbsp;Retr [ 5] 0.00-10.00 сек 26.6 Гбайт 22.8 Гбіт/с 0 Retr [ 5] 0.00-10.00 сек 26.6 Гбайт [ 5] 0.00-10.04 сек 26.6 GBytes 22.7 Gbits/sec & nbsp; приймач приймач
iperf Готово. Це трохи незвично, оскільки у мене гігабітний роутер і тестова швидкість інтернету становить 22,7 Гбіт/с, чи не пройшло воно через фізичну мережеву карту?
Перевірте інформацію: https: //communities.vmware.com/t ... Routes/ta-p/2783083
VM1 і VM2 підключені до одного vSwitch з назвою "vSwitch1", до однієї групи портів з назвою Production, а також до однієї VLAN з назвою VLAN 20, а також обидва працюють на одному хості ESXi під назвою ESX1. Мережевий трафік між цими віртуальними машинами (VM1 і VM2) не йде на фізичні мережеві карти на хості ESXi, і цей кадр також не пересилається до фізичної мережі, наприклад, до фізичного комутатора або маршрутизатора, оскільки віртуальні машини взаємодіють всередині vSwitch, що призводить до досягнення наступних результатів ВМ будуть взаємодіяти всередині vSwitch, що призводить до збільшення швидкості мережі і зменшення затримок в мережі. ВМ1 і ВМ2 підключені до одного vSwitch з ім'ям "vSwitch1", до однієї групи портів з ім'ям Production і до однієї VLAN з ім'ям VLAN 20, і обидві запущені на одному хості ESXi з ім'ям ESX1. Мережевий трафік між цими віртуальними машинами (VM1 і VM2) не буде надходити на фізичні мережеві карти на хості ESXi, і кадри не будуть перенаправлятися у фізичну мережу (наприклад, на фізичні комутатори і маршрутизатори), оскільки віртуальні машини будуть взаємодіяти всередині vSwitch, що призводить до більш високої швидкості і меншої мережевої затримки.
У моєму тестовому середовищі дві віртуальні машини знаходяться на одному хості, на одному vSwitch, але не на одній групі портів, і, схоже, вони не перенаправляються до фізичної мережевої карти або фізичної мережі.
|
Попередня стаття: Windows використовує Pandoc для пакетної розмітки документів WordНаступна стаття: AOP Spring Boot динамічно змінює значення параметрів запиту
|