Пока ваш веб-сервер работает стабильно и стабильно отдаёт посетителям запрошенный контент — всё в порядке. Но задавали ли вы себе вопрос: а что будет, если нагрузка на сервер возрастёт? Что, если количество запросов на единицу времени увеличится вдвое? Втрое? В десять раз? Как узнать ответ на это злободневное «а что если?». В сегодняшней заметке мы рассмотрим основы нагрузочного тестирования веб-серверов при помощи утилиты ab — Apache HTTP server benchmarking tool, инструмента, который позволит вам определить максимально возможное количество одновременных запросов, которые сможет обработать ваша инсталляция веб-сервера.
Утилита ab поставляется в комплекте с Apache, так что если он у вас установлен — у вас есть уже всё необходимое. В сегодняшней заметке мы будем упражняться на установленном в конфигурации по умолчанию Apache 2.2.14 в Ubuntu Server 10.04.2 LTS. Конфигурацию оборудования (кому интересно — оно довольно слабенькое) и настроек Apache приводить не буду, ибо нет смысла в рамках данной статьи. Целью данной заметки является небольшой обзор утилиты ab, а не анализ производительности конкретного ПО на конкретном железе. В рамках примера произведём тест отдачи сервером:
Все файлы размещены в корне DocumentRoot сервера. Код PHP-сценария использовался такой:
phpinfo();
Чтобы снизить влияние фактора сетевых задержек, для выполнения тестов используйте систему, пропускная способность сетевого канала от которой до тестируемого сервера является максимально высокой.
Итак, начнём. Для начала давайте организуем нагрузку нашему серверу в одну тысячу последовательных запросов. Для указания числа запросов используется опция '-n'. Номер порта можно не указывать, если он не отличен от 80-го:
$ ab -n 1000 http://aserver.ashep:80/test.html
Итак, что у нас получилось (вывод привожу не полностью, опуская несущественные пока моменты). В процессе тестирования утилита будет сообщать вам о ходе работы:
Benchmarking aserver.ashep (be patient) Completed 100 requests Completed 200 requests Completed 300 requests Completed 400 requests Completed 500 requests Completed 600 requests Completed 700 requests Completed 800 requests Completed 900 requests Completed 1000 requests Finished 1000 requests
Далее вы увидите информацию о версии ПО сервера, его имени, какой документ загружался и каков его размер:
Server Software: Apache/2.2.14 Server Hostname: aserver.ashep Server Port: 80 Document Path: /test.html Document Length: 177 bytes
И далее, собственно, результаты:
Concurrency Level: 1 Time taken for tests: 1.500 seconds Complete requests: 1000 Failed requests: 0 Write errors: 0 Total transferred: 453000 bytes HTML transferred: 177000 bytes Requests per second: 666.58 [#/sec] (mean) Time per request: 1.500 [ms] (mean) Time per request: 1.500 [ms] (mean, across all concurrent requests) Transfer rate: 294.88 [Kbytes/sec] received
Как видно:
Далее в выводе идёт информация о времени, затраченном на сетевые подключения:
Connection Times (ms) min mean[+/-sd] median max Connect: 0 0 0.1 0 2 Processing: 1 1 0.7 1 13 Waiting: 1 1 0.5 1 8 Total: 1 1 0.7 1 14
И на обслуживание запросов сервером:
Percentage of the requests served within a certain time (ms) 50% 1 66% 1 75% 1 80% 1 90% 2 95% 3 98% 4 99% 5 100% 14 (longest request)
Как видим, сервер успешно справился с тысячей последовательных загрузок статического файла небольшого размера. Давайте теперь посмотрим, как сервер поведёт себя, если вся эта тысяча запросов будет направлена к нему одновременно, указав это при помощи опции '-c':
$ ab -n 1000 -c 1000 http://aserver.ashep:80/test.html Benchmarking aserver.ashep (be patient) Completed 100 requests Completed 200 requests Completed 300 requests Completed 400 requests Completed 500 requests Completed 600 requests Completed 700 requests Completed 800 requests apr_socket_recv: Connection reset by peer (104) Total of 804 requests completed
Здесь тест не смог быть завершён по причине того, что после одновременной отправки 804 запросов сервер перестал принимать входящие соединения. Опытным путём, снижая количество одновременных запросов, было установлено что безболезненно мой Apache в текущей конфигурации может обрабатывать примерно 300 одновременных не Keep-Alive запросов.
$ ab -n 1000 -c 300 http://aserver.ashep:80/test.html Server Software: Apache/2.2.14 Server Hostname: aserver.ashep Server Port: 80 Document Path: /test.html Document Length: 55716 bytes Concurrency Level: 300 Time taken for tests: 13.658 seconds Complete requests: 1000 Failed requests: 0 Write errors: 0 Total transferred: 55998000 bytes HTML transferred: 55716000 bytes Requests per second: 73.22 [#/sec] (mean) Time per request: 4097.409 [ms] (mean) Time per request: 13.658 [ms] (mean, across all concurrent requests) Transfer rate: 4003.91 [Kbytes/sec] received Connection Times (ms) min mean[+/-sd] median max Connect: 0 17 190.0 6 3015 Processing: 224 1659 2376.3 644 13644 Waiting: 212 1628 2360.6 621 13636 Total: 230 1677 2379.8 648 13650 Percentage of the requests served within a certain time (ms) 50% 648 66% 654 75% 668 80% 785 90% 7003 95% 7243 98% 7384 99% 7425 100% 13650 (longest request)
Естественно, с Keep-Alive запросами дело будет обстоять ещё хуже, поскольку занимаемые Apache'м ресурсы сервера освобождаются не так быстро. Для выполнения теста с Keep-Alive-соединениями просто добавьте опцию '-k':
$ ab -k -n 1000 -c 1000 http://aserver.ashep:80/test.html
С работой скриптов дело, естественно обстоит иначе. Здесь уже серверу нужно не просто отдать вам файл, а запустить интерпретатор, дождаться от него вывода и вернуть вывод клиенту. Ну и, конечно, работа интерпретатора займёт определённое число ресурсов системы, что также отразится на производительности сервера в целом.
Попробуем запросить наш простенький скрипт тысячу раз, делая 300 запросов одновременно:
$ ab -n 1000 -c 300 http://aserver.ashep:80/test.php Server Software: Apache/2.2.14 Server Hostname: aserver.ashep Server Port: 80 Document Path: /test.php Document Length: 55469 bytes Concurrency Level: 300 Time taken for tests: 44.110 seconds Complete requests: 1000 Failed requests: 0 Write errors: 0 Total transferred: 55660000 bytes HTML transferred: 55469000 bytes Requests per second: 22.67 [#/sec] (mean) Time per request: 13232.931 [ms] (mean) Time per request: 44.110 [ms] (mean, across all concurrent requests) Transfer rate: 1232.28 [Kbytes/sec] received Connection Times (ms) min mean[+/-sd] median max Connect: 0 198 934.7 0 9021 Processing: 295 5910 9113.3 2457 44098 Waiting: 227 5711 9149.6 2273 44039 Total: 301 6108 9102.0 2470 44106 Percentage of the requests served within a certain time (ms) 50% 2470 66% 2983 75% 4412 80% 5575 90% 14254 95% 32750 98% 33302 99% 33589 100% 44106 (longest request)
Как видим, сервер успешно справился с запросами, однако время их обработки существенно возросло, составив в среднем 44 миллисекунды на запрос, в то время как отдача небольшого HTML-файла примерно такого же размера составляла всего лишь 13 миллисекунд.
Источник статьи