Скорость случайной записи что. IOps (операций в секунду) не рекомендуем использовать для расчета оборудования

30.10.2019 Приложения

Энтузиасты наверняка знают, как выполнять эти действия, но для тех, кто только собирается знакомиться с массивами, подобный материал может быть полезным. Да простят меня сторонники AMD, объяснять я буду на примере указанного выше стенда «Wintelidia».

Прежде всего, необходимо переключить в BIOS режим работы чипсетного контроллера в режим RAID.

Если переключение производится после установки операционной системы, это чревато потерей ее работоспособности и бесконечным падением в синий экран. Для решения такой проблемы следует воспользоваться инструкцией Microsoft.

Предположим, с этим все хорошо. Если ОС еще не установлена, можно войти в меню самого контроллера и создать массив в его утилите. Для этого нужно успеть нажать CTRL+I во время загрузки.

Если же есть возможность загрузиться с отдельного диска, проще всего поставить фирменные драйверы Intel и воспользоваться консолью Rapid Storage Technology. При наличии подходящих дисков будет доступна кнопка «Создать».

На первом шаге необходимо выбрать тип массива.

Затем выполнить непосредственно настройку. Есть возможность не создавать RAID с нуля, а взять за основу одиночный диск с данными. Кроме того, для всех массивов (кроме «зеркала») можно выбрать размер полосы данных, он же размер страйпа (stripe size). Это определяет размер блоков, на которые разбиваются данные. Большие значения полезны для работы с большими файлами, маленькие – прежде всего для маленьких транзакций в стиле СУБД (хотя все сильно зависит от СУБД, типа массива, вида нагрузки, настроения разработчиков прошивки контроллера и прочих особенностей). Обычно лучше оставлять настройку по умолчанию.

Также можно включить кэш обратной записи тома, который по умолчанию выключен. В этом случае записываемые на массив данные не сразу отправляются на диски, а временно сохраняются в кэше (для чипсетного контроллера это оперативная память компьютера).

Таким образом, повышается скорость операций записи, но одновременно увеличивается риск потери данных в случае сбоев. Мы все делаем «бэкапы» (правда ведь???) и ждем от RAID-0 максимальной производительности, так что во всех тестах этих массивов кэш будет включен.

Можно управлять еще и кэшем самих дисков в массиве. Он включен по умолчанию. Для RAID-1 будет проведено измерение производительности без кэшей, поскольку если речь идет о надежности, то уже не до высоких скоростей.

Кстати, сценарий не такой уж экзотический. Windows Server, будучи контроллером домена, всегда отключает кэш системного диска. Если нет дискретного RAID контроллера, который слушается только своего драйвера, скорость жестких дисков упадет в несколько раз. Посмотрим, как ведут себя SSD.

В моем случае отключение кэша через Intel RST почему-то не работало – после перезагрузки он включался вновь. Пришлось воспользоваться «Диспетчером устройств», а именно снять галку «Разрешить кэширование записей для этого устройства» в свойствах RAID массива.

Эта настройка и Intel RST взаимосвязаны, после снятия галки параметр «Кэш данных диска» также переходит в состояние «Выключен» и остается таким после перезагрузок.

В итоге будут протестированы следующие конфигурации:

  • Vertex 3 RAID-0, размер страйпа 32 Кбайта;
  • Vertex 3 RAID-0, размер страйпа 128 Кбайт;
  • Vertex 3 RAID-0, подключение через порты SATA-II;
  • Vertex 3 RAID-0, медленный ЦП (активны два ядра, HT отключен, частота 2400 МГц, память 1066 МГц CL7);
  • Vertex 3 RAID-1, кэш массива и дисков включен;
  • Vertex 3 RAID-1, кэш массива и дисков выключен;
  • Crucial M4 RAID-0, размер страйпа 32 Кбайта;
  • Crucial M4 RAID-1, кэш массива и дисков включен;
  • Crucial M4 RAID-1, кэш массива и дисков выключен;
  • Одиночный Vertex 3;
  • Одиночный Crucial M4;
  • Жесткий диск WD5000AAKX.

Тестирование в классических бенчмарках

Crystal Disk Mark

Скорость линейного чтения, Мбайт/с

Почти двукратный прирост скорости в RAID-0 вполне ожидаем. Размер страйпа не оказывает практически никакого влияния на больших файлах, процессорозависимость бенчмарка отсутствует. А вот SATA-II подключение резко ограничивает возможности системы до уровня одиночного устройства, подключенного через SATA-III.

Удивительно быстро работает RAID-1, не иначе как чтение осуществляется с двух накопителей одновременно. Раньше в тестах жестких дисков такого не наблюдалось, но то была более старая платформа и старые драйверы. При случае надо будет проверить парочку HDD. Скорость линейной записи, Мбайт/с

Включите JavaScript, чтобы видеть графики

На записи все меняется. Маленькие M4 слабы на запись, поэтому даже одиночный Vertex 3 обходит RAID-0 из двух дисков Crucial. Можно заметить, что отключенный кэш несущественно снижает скорость «зеркал». Скорость случайного чтения (блок 512 Кбайт), Мбайт/с

Включите JavaScript, чтобы видеть графики

Удивительно, но на чтении крупными блоками «страйпы» существенно замедляются и лидерами оказываются массивы RAID-1, причем без кэшей. На ошибку не похоже – и Vertex 3, и M4 ведут себя одинаково. Скорость случайной записи (блок 512 Кбайт), Мбайт/с

Включите JavaScript, чтобы видеть графики

В данном случае картина осталась похожей на ту, что была на линейной записи. Разве что механический диск замедлился почти вдвое. Скорость случайного чтения (блок 4 Кбайт), Мбайт/с

Включите JavaScript, чтобы видеть графики

Обычно так оно и происходит: во время проверки чистого времени доступа на чтение массивы только мешают. Скорость случайной записи (блок 4 Кбайт), Мбайт/с

Включите JavaScript, чтобы видеть графики

Маленькие запросы на запись можно кэшировать, поэтому производительность большинства систем значительно выше, чем на чтении. Исключение составляют конфигурации без кэша, особенно плачевно смотрится M4. Судя по всему, настройка отключает его 128-мегабайтный кэш, без которого SSD сваливается до уровня жесткого диска. А SandForce’ам кэш не ставят, им и так хорошо.

Кстати, обратите внимание, насколько сильно проявилась процессорозависимость. Загрузка ЦП в этом тесте действительно высока. Скорость случайного чтения (блок 4 Кбайт, длина очереди 32), Мбайт/с

Включите JavaScript, чтобы видеть графики

На глубокой очереди «марвеловские герои» просто потрясающи – сто тысяч IOPS за смешные деньги. Скорость случайной записи (блок 4 Кбайт, длина очереди 32), Мбайт/с

Включите JavaScript, чтобы видеть графики

Множество параллельных операций записи позволяют одиночному Vertex’у, зеркалам без кэша и системе с медленным CPU восстановить свою производительность. Все участники (кроме жесткого диска) работают как в сценарии с крупными блоками.

PCMark 7

Windows Defender, Мбайт/с

Включите JavaScript, чтобы видеть графики


importing pictures, Мбайт/с

Включите JavaScript, чтобы видеть графики


Video editing, Мбайт/с

Включите JavaScript, чтобы видеть графики


Windows Media Center, Мбайт/с

Включите JavaScript, чтобы видеть графики


adding music, Мбайт/с

Включите JavaScript, чтобы видеть графики


starting applications, Мбайт/с

Включите JavaScript, чтобы видеть графики


gaming, Мбайт/с

Включите JavaScript, чтобы видеть графики


storage score, баллы

Включите JavaScript, чтобы видеть графики

Разнообразие есть только в тесте importing pictures, в нем доминируют Vertex’ы.

По нашим наблюдениям, оценка производительности СХД в IOps не даёт точного представления о производительности этой СХД под нагрузкой в задачах 1С и мы настоятельно рекомендуем не использовать IOps для расчета оборудования.

Наоборот, такая оценка может сформировать ложное представление о высокой производительности дисковой подсистемы, в то время как при эксплуатации в продуктивных условиях может выясниться недостаточная мощность СХД.

К примеру, можете ли Вы сказать, что конкретно делает «операция» из метрики IOps? Какого размера данные читаются/пишутся? Корректно ли сравнивать IOps для обычных жестких дисков и SSD? Как учитывают методики подсчета IOps замедления скорости на SSD по мере «износа» или когда на SSD мало свободного места? Можете сказать чем отличаются Raw IOPS и Functional IOPS?

Примечание. Total Raw IOPS = Disk Speed IOPS * Number of disks
Functional IOPS =(((Total Raw IOPS×Write %))/(RAID Penalty))+(Total Raw IOPS×Read %)

Уверены ли Вы что разные программы измерения иопс Вам дадут одинаковые результаты?

Программы для измерения IOPS

IOmeter - тест IOPS
IOzone - тест IOPS
FIO - тест IOPS
CrystalDiskMark - тест IOPS
SQLIO - набор тестов для расчета производительности (IOPS, MB, Latency) под сервера БД
wmarow - калькулятор RAID групп по производительности IOPS

Или еще скажем точно ли методика подсчета IOps учитывает время отклика с диска и пропускную способность?

Чтобы понять почему не все просто, нужно рассмотреть простой пример и аналогию.
По дороге следует переместить из А в Б большое количество человек. Возможно два варианта: мы можем перевозить их в их личных автомобилях или же усадить в автобусы. Пропускная способность дороги конечно же будет выше в случае перевозки людей автобусами, то есть «большими блоками». Однако методы общественного транспорта обычно вступают в конфликт с индивидуальными целями и маршрутами. Хорошо если в Б у нас огромный завод, на который устремлен основной поток из А. Можно погрузить все «байты» в один большой пакет-автобус на входе, и выгрузить его на остановке у завода, куда собственно и направляются все наши «байты».
Однако если наши байты не едут на завод, а разъезжаются по индивидуальным и независимым делам-«операциям», каждый имея индивидуальный маршрут, то доставка их «автобусом»-большим пакетом приведет напротив к большим потерям времени. В этом случае транспортировка индивидуальными автомобилями будет более выгодна. Однако общий пропускной объем дороги заполненной индивидуальными «пакетами»-авомобилями везущими по нескольку байт каждый, разумеется будет ниже, чем при перевозке большим пакетом-«автобусом».
Таким образом увеличение пропускной способности в MB/s за счет укрупнения пакетов приводит к снижению IOPS, и наоборот , рост операций в секунду «доставленных к цели пассажиров» нашей дороги-интерфейса, запруженной автомобилями, приводит к снижению ее пропускной способности в MB/s. Нельзя одновременно достичь высоких показателей в IOPS и в MB/s просто по физическим свойствам существующего оборудования.
Либо большие пакеты-«автобусы» и их мало («операций в секунду»), либо маленькие индивидуальные пакеты-«автомобили», каждый осуществляющий индивидуальную «операцию» по доставке данных, но заполняющие всю дорогу, и общий human traffic в результате невелик.

На выбор нужных метрик оказывает характер обращения к данным. Линейная не многопоточное обращение к диску нельзя сравнивать с высококонурентным и неравномерным случайным обращением к диску.

Для оценки производительности мы используем наблюдения за текущей системой и уровнем загрузки оборудования, а также очередей на нём в пики загрузки.

HyperX - это подразделение компании Kingston Technology, специализирующееся на производстве высокоскоростной продукции, ориентированной на геймеров и энтузиастов. Оно занимается выпуском быстрых модулей оперативной памяти, твердотельных накопителей, USB флешек и компьютерных гарнитур. Сегодня ко мне на тестирование попал один из продуктов этой серии - SSD HyperX FURY 240 GB.

Форм-фактор:
2,5 дюйма
Интерфейс:
SATA 3.0 (6Гбит/с), обратная совместимость с SATA 2.0
Емкость:
240ГБ
Контроллер:
SandForce® SF-2281
Базовая производительность:
Передача сжимаемых данных (ATTO) - 500 МБ/с (чтение) и 500 МБ/с (запись)
Передача несжимаемых данных (AS-SSD и CrystalDiskMark):
470МБ/с (чтение) и 220МБ/с (запись)
Максимальная скорость чтения/записи случайных блоков размером 4КБ:
до 84000/до 41000 IOPS
Скорость чтения/записи случайных блоков размером 4КБ:
до 22000/до 41000 IOPS
Рейтинг PCMARK® Vantage HDD Suite:
60000
PCMARK® 8 Storage Bandwidth Score:
180 МБ/с
Суммарное число записываемых байтов (TBW):
641 ТБ 2,5 DWPD
Энергопотребление:
0,31 Вт при простое/0,35 Вт среднее/1,65 Вт (макс.) при чтении/2,76 Вт (макс.) при записи
Температура хранения:
от -40°C до 85°C
Рабочая температура:
от 0°C до 70°C
Размер:
69,8 x 100,1 x 7 мм
Вибрация при работе:
2,17 G (пиковая) при частоте 7–800 Гц
Вибрация при простое:
20 G (пиковая) при частоте 10–2000 Гц
Ожидаемый срок службы:
1000000 часов (средняя наработка на отказ)
Гарантия/поддержка:
трехлетняя гарантия и бесплатная техническая поддержка

Комплект поставки. Внешний вид.

Как и большая часть продукции Kingston, герой нашего сегодняшнего обзора поставляется в картонно-пластиковой упаковке, несанкционированное вскрытие которой будет сразу заметно. Поэтому потенциальный покупатель может быть на 100% уверен, что покупает абсолютно новый товар. Сочетание красного и чёрного цветов вполне соответствуют названию накопителя - Fury (англ. ярость), и настраивают на восприятие содержимого контейнера, как что-то быстрое и мощное.
Лицевая часть упаковки предоставляет основную информацию о SSD. Указаны следующие показатели: ёмкость, максимальная скорость чтения и записи, информация о гарантии в 3 года, а также интерфейс подключения - SATA 3.0. Кроме того, говорится о том, что данный экземпляр в 16 раз быстрее обычного жесткого диска с частотой вращения шпинделя 7200 об/мин.

Обратная сторона также содержит сведения о накопителе.

В частности, говорится о том, что SSD повышает скорость загрузки установленных на него приложений и игр. Указано, что накопитель предназначен для использования в рабочих и домашних ПК и ноутбуках, но не подходит для использования в серверных станциях (из-за малого ресурса). Реальная ёмкость, доступная пользователю, меньше заявленной. Тех, кто интересуется почему, Кингстон отправляет на свой сайт . К сожалению, по ссылке выходит информация только на английском языке. На русском языке вполне доступно изложена причина данного "казуса" в википедии .
Ознакомиться с полной информацией по гарантии Кингстон опять же можно на официальном сайте .
Кроме того, внизу указано, что в накопителе используется контроллер LSI SandForce и размещена наклейка с маркировкой.

При вскрытии упаковки мы можем найти ещё немного информации о гарантии на нескольких языках. Русский также присутствует.

Сам комплект поставки довольно аскетичен. Внутри пластикового контейнера находится непосредственно SSD, рамка на двустороннем скотче для возможности установки накопителя в девайсы, использующие жесткие диски толщиной 9.5 мм, а также наклейка. Переходником на 3.5", винтами для крепления и прочими "плюшками" производитель не счел нужным побаловать покупателя. Но оно и понятно, топовые комплектации не присущи бюджетным решениям.

Корпус выполнен целиком из металла, что способствует более эффективному теплоотводу и добавляет прочности конструкции.
Верхняя часть накопителя почти полностью покрыта наклейкой, которая не только предоставляет основную информацию об устройстве, но и является по совместительству гарантийным стикером, удаление которого ведет к лишению гарантии.

Под стикером находятся четыре винта, открутить которые можно только отверткой с насадкой Torx T-6H. Её у меня не оказалось, поэтому разборкой я заниматься не стал. Если кому интересно, то под крышкой обнаружится 16 микросхем памяти по 16 ГБ каждая и контроллер LSI SandForce SF-2281. Пользователю доступно 240 ГБ вместо 256 ввиду того, что 16 Гб отведены под резервную область , которая нужна для того, чтобы продлить срок службы накопителя.

С обратной стороны ничего примечательного не наблюдается. Имеются отверстия для монтажа.

Разъемы питания и передачи данных имеют вполне стандартный вид.

Ну а толщина накопителя в 7 мм позволяет расширить сферу его применения.

Тестовая конфигурация:

Процессор...................................Intel Core i5-3570
Материнская плата......................Gigabyte GA-Z77-DS3H
ОЗУ...........................................Corsair Dominator Platinum CMD16GX3M4A2666C11 @ 2200МГц
SSD............................................Corsair Force GS 128 Гб
Блок питания.............................Corsair AX760i
Операционная система...............Windows 7 x64

Тестирование. Общие впечатления.

После форматирования пользователю становится доступно 223 Гб.

Взглянем на характеристики с помощью утилиты CrystalDiskInfo.

Уже с завода наш экземпляр имеет последнюю прошивку.
Накопители на основе SandForce умеют сжимать данные перед записью. С одной стороны это позволяет продлить срок службы SSD за счет снижения количества записей, а вот с другой мы можем наблюдать снижение производительности при работе с плохо сжимаемыми данными.
Проверим данное утверждение на практике, используя программу CrystalDiskMark.
В левом столбце будут тесты с настройками по умолчанию, а в правом тесты с хорошо сжимаемыми данными.






Итак, наиболее интересны для нас первые три строчки в каждом тестовом окне. Верхняя строчка (последовательное чтение/запись) отражает работу при обычном копировании файлов (музыка, видео, архивы и т.п.) . А вот вторая и третья строчки (случайное чтение/запись блоков по 512 и 4 КБ) имитируют работу операционной системы.
Как можем видеть, скорость последовательного чтения при работе с небольшими файлами существенно ниже, чем с объемными. В то же время при случайном чтении/записи блоков по 4 КБ производительность наоборот снижается при увеличении объема тестового файла.
Скорость записи при работе с несжимаемыми данными упала в 2 раза, чего и следовало ожидать, а при работе с поддающимися компрессии данными скоростные показатели близки к максимальным по спецификации. Производитель расписал данные нюансы в технических характеристиках на официальном сайте, а вот на упаковке указана только максимальная скорость без указания условий тестирования.
Если сравнивать с обычным жестким диском, то показатели SSD выглядят весьма впечатляющими, без сомнения, любой пользователь сможет на глаз заметить разницу в работе ПК.
Продолжим тестирование с помощью утилиты AS SSD Benchmark. Данные здесь не сжимаются, поэтому показатели производительности ниже максимальных, как и в предыдущем случае.

Дополнительно можно увидеть, насколько быстро будет работать накопитель с играми, программами и копированием больших файлов (ISO образ).

Скорости не запредельные, но вполне приемлемые.
Дополним тестирование показаниями AIDA64 Extreme.
В линейном чтении наблюдается один некритичный провал в графике:

Проверка времени доступа выдала отличные показатели:

Чтение из буфера не вызывает нареканий:

Случайное чтение, за исключением пары провалов в графике, выдало неплохие показатели производительности:

Ну и завершим проверку нашего SSD с помощью программы, в которой по данным производителя накопитель показывает максимальные результаты:

А вот тут всё совсем становится на свои места. Хорошо сжимаемые данные = высокий результат (даже выше, чем заявлено Kingston).
Температура во время тестирования не поднималась выше 33 градусов по Цельсию, а в простое была и вовсе в районе 27 градусов. Это большой плюс, т.к. SSD не нагревает внутреннее пространство ПК.

Выводы.

Компания Kingston пошла по пути наименьшего сопротивления, установив в свои накопители контроллеры SandForce из-за привлекательных условий лицензирования. SandForce отлично работает со сжимаемыми данными, но пасует при записи плохо поддающихся компрессии файлов. При этом скоростные показатели остаются на уровне SSD накопителей на аналогичном контроллере от других производителей. Достаточно большой объем протестированного накопителя позволяет ему служить дольше, чем менее ёмкие его собраться из-за уменьшения нагрузки на ячейки памяти. Производитель дает гарантию 3 года, но при типичном использовании и 10+ лет накопитель должен проработать без проблем. Например, у меня за последние полгода на системный SSD было записано всего 700 Гб.
Покупать SSD накопитель как альтернативу обычному HDD или в дополнение к нему? Несомненно, да. Покупать ли HyperX FURY? Всё зависит от цены. В различных торговых точках ценники могут существенно отличаться. В целом, это качественный продукт с достаточно высокими скоростными показателями. Большинство неискушенных пользователей будут приятно удивлены отзывчивости ПК после использования обычных HDD. Например, загрузка операционной системы составляет каких-то 14-17 секунд (в зависимости от количества программ в автозагрузке), запуск любых программ и игр также происходит за считанные секунды. Ну а что ещё нужно человеку для счастья?

IOPS (количество операций ввода/вывода – от англ. Input/Output Operations Per Second) – один из ключевых параметров при измерении производительности систем хранения данных, жестких дисков (НЖМД), твердотельных диски (SSD) и сетевых хранилища данных (SAN).

По сути, IOPS это количество блоков, которое успевает считаться или записаться на носитель. Чем больше размер блока, тем меньше кусков, из которых состоит файл, и тем меньше будет IOPS, так как на чтение куска большего размера будет затрачиваться больше времени.

Значит, для определения IOPS надо знать скорость и размер блока при операции чтения / записи. Параметр IOPS равен скорости, деленной на размер блока при выполнении операции.

Характеристики производительности

Основными измеряемыми величинами являются операции линейного (последовательного) и произвольного (случайного) доступа.

Под линейными операциям чтения/записи, при которых части файлов считываются последовательно, одна за другой, подразумевается передача больших файлов (более 128 К). При произвольных операциях данные читаются случайно из разных областей носителя, обычно они ассоциируются с размером блока 4 Кбайт.

Ниже приведены основные характеристики:

Приблизительные значения IOPS

Приблизительные значения IOPS для жестких дисков.

Устройство

Тип

IOPS

Интерфейс

7,200 об/мин SATA-диски

HDD

~75-100 IOPS

SATA 3 Гбит/с

10,000 об/мин SATA-диски

HDD

~125-150 IOPS

SATA 3 Гбит/с

10,000 об/мин SAS-диски

HDD

~140 IOPS

SAS

15,000 об/мин SAS-диски

HDD

~175-210 IOPS

SAS

Приблизительные значения IOPS для SSD.

RAID пенальти

Любые операции чтения, которые выполняются на дисках, не подвергаются никакому пенальти, поскольку все диски могут использоваться для операций чтения. Но всё на оборот с операциями на запись. Количество пенальти на запись зависят от типа выбранного RAID-а, например.

В RAID 1 чтобы данные записались на диск, происходит две операции на запись (по одной записи на каждый диск), и следовательно RAID 1 имеет два пенальти.

В RAID 5 чтобы записать данные происходит 4 операции (Чтение существующих данных, четность RAID, Запись новых данных, Запись новой четности) тем самым пенальти в RAID 5 составляет 4.

В этой таблице приведено значение пенальти для более часто используемых RAID конфигурации.

Характеристика рабочих нагрузок

Характеристика рабочей нагрузки в основном рассматривается как процент операции чтений и записей, которые вырабатывает или требует приложение. Например, в среде VDI процентное соотношение IOPS рассматривается как 80-90% на запись и 10-20% на чтение. Понимание характеристики рабочей нагрузки является наиболее критическим фактором, поскольку от этого и зависит выбор оптимального RAID для среды. Приложения которые интенсивно используют операции на запись являются хорошими кандидатами для RAID 10, тогда как приложения которые интенсивно используют операции на чтение могут быть размещены на RAID 5.

Вычисление IOPS

Есть два сценария вычисления IOPS-ов.
Один из сценариев это когда есть определенное число дисков, и мы хотим знать, сколько IOPS эти диски выдадут?
Второй сценарий, когда мы знаем сколько нам IOPS-ов надо, и хотим вычислить нужное количество дисков?
Сценарий 1: Вычисление IOPS исходя из определенного кол-ва дисков
Представим что у нас есть 20 450GB 15к RPM дисков. Рассмотрим два сценария Рабочей нагрузки 80%Write-20%Read и другой сценарий с 20%Write-80%Read. Также мы вычислим количество IOPS как для RAID5 и RAID 10.

Формула для расчета IOPS:

Total Raw IOPS = Disk Speed IOPS * Number of disks
Functional IOPS =(((Total Raw IOPS×Write %))/(RAID Penalty))+(Total Raw IOPS×Read %)

Есть определение Raw IOPS и Functional IOPS, как раз токи Functional IOPS-ы и есть те IOPS-ы которые включают в себя RAID пенальти, и это и есть “настоявшие” IOPS-ы.

А теперь подставим цифры и посмотрим что получится.

Total Raw IOPS = 170*20 = 3400 IOPS (один 15K RPM диск может выдать в среднем 170 IOPS)

Для RAID-5
Вариант 1 (80%Write 20%Read) Functional IOPS = (((3400*0.8))/(4))+(3400*0.2) = 1360 IOPS
Вариант 2 (20%Write 80%Read) Functional IOPS = (((3400*0.2))/(4))+(3400*0.8) = 2890 IOPS
Для RAID-1
Вариант 1 (80%Write 20%Read) Functional IOPS = (((3400*0.8))/(2))+(3400*0.2) = 2040 IOPS
Вариант 2 (20%Write 80%Read) Functional IOPS = (((3400*0.2))/(2))+(3400*0.8) = 3100 IOPS
Сценарий 2: Подсчет кол-ва дисков для достижения определенного кол-ва IOPS
Рассмотрим ситуацию где нам надо определить тип RAID-а и количества дисков для достижения определенного количества IOPS-ов 5000 и с определенными рабочими нагрузками, например 80%Write20%Read и 20%Write80% Read.

Опять же для начала формула по которой и будем считать:

Total number of Disks required = ((Total Read IOPS + (Total Write IOPS*RAID Penalty))/Disk Speed IOPS)

Total IOPS = 5000

Теперь подставим цифры.

Заметка: 80% от 5000 IOPS = 4000 IOPS и 20% от 5000 IOPS = 1000 IOPS с этими цифрами и будем оперировать.

Для RAID-5
Вариант 1 (80%Write20%Read) – Total Number of disks required = ((1000+(4000*4))/170) = 100 дисков.
Вариант 2 (20%Write80%Read) – Total Number of disks required = ((4000+(1000*4))/170) = 47 дисков приблизительно.
Для RAID-1
Вариант 1 (80%Write20%Read) – Total Number of disks required = ((1000+(4000*2))/170) = 53 диска приблизительно.
Вариант 2 (20%Write80%Read) – Total Number of disks required = ((4000+(1000*2))/170) = 35 дисков приблизительно.

Понимание и подсчет IOPS, RAID пенальти, и характеристик рабочих нагрузок очень критичны аспект при планировании. Когда нагрузка более интенсивна на запись луче выбирать RAID 10 и наоборот при нагрузках на чтение RAID 5.

На днях достаточно долго не мог понять причину постоянного снижения производительности всей фермы серверов. Проблема оказалась банальной и простой для решения — система хранения данных не обеспечивала должного быстродействия и поэтому «тормозили» абсолютно все сервера одновременно, при этом графики нагрузки ЦП и памяти были абсолютно стабильны без пиков.

Как быстро проверить свою СХД? Много ли еще серверов можно подключить к существующей СХД? Если Ваша инфраструктура серверов малых или средних размеров, то для оценки быстродействия СХД подойдет очень простой алгоритм.

Первое, что следует понять, я не ставлю задачу получить абсолютно точные данные, задача именно оценить возможности инфраструктуры и СХД. Для точного расчета придется погрузится в тему очень глубоко или доверить расчет СХД профессионалам.

Оценка нагрузки на СХД

Для начала оценим, какую нагрузку генерируют наши сервера. Условно разделим их на три группы: высоко нагруженные, средне нагруженные и низко нагруженные. Например, SQL cерверпостоянно обслуживает тысячи запросов от пользователей и содержит десяток баз данных, такой сервер логично отнести к высоко нагруженным. Другая крайность — контроллер домена. Если у вас 100-200 пользователей, которые периодически входят/выходят из системы, то полностью нагрузить они сервер не смогут, и скорее всего, доменный контроллер будет простаивать 80% времени.

Поделив все сервера на три группы сделаем элементарный рассчет:

HighLoad x 50 = IOPS1 MedLoad x 30 = IOPS2 LowLoad x 25 = IOPS3 IOPSNEED = IOPS1+IOPS2+IOPS3

Сложив три числа получим расчетное количество IOPS (IOPSNEED ), которое потребляют наши сервера.

Оценка возможности СХД

Мы получили расчетное значение нагрузки, остается понять, обеспечивает ли нужный уровень быстродействия наша СХД?

Хороший SAS Fibre Channel диск выдает примерно 180 IOPS, SATA — всего 80 IOPS. Данные значения актуальны для одного единственного диска подключенного напрямую. Естественно в СХД используются массивы RAID. Стандартный профиль нагрузки 50/50 чтение/запись. Но в зависимости от назначения использования пропорция может меняться, но для оценки будем придерживаться этого.

Общая формула:

GroupIOPS = (DiskPerf/2 + DiskPerf/2K) * N,

где DiskPerf — производительность диска в IOPS,
K — коэфициент «сложности», характеризует величину накладных расходов на поддержание требуемого уровня массива. Для RAID10 К=2, для RAID5 K-4, для RAID6 K=6,
N — количество полезных дисков в массиве, без учета данных четности. (для RAID5 от общего числа дисков отнимаем один, для RAID6 — два).

Рассчитаем производительность RAID группы из 8 SAS FC дисков в массиве RAID 10.

GroupIOPS = (180/2 + 180/2/2) * 8 = (90 + 45)*8 = 135 *8 = 1080 IOPS

Много это или мало? Давайте обратимся к первому пункту и посмотрим на сколько серверов хватит нашей СХД.

1080/50 = 21 высоко нагруженный сервер 1080/30 = 36 средне нагруженных серверов 1080/25 = 43 ленивца.

P.S. Я также нашел интересный инструмент расчета IOPS, который, возможно, дает более оптимистичные показатели http://wmarow.com/strcalc/.