Нуну... посмотрел бы я на Вас и озвученную сумму..
Пропущу холивар по позициям что перечислены (понятно на скорую руку, и тд и тп.)
Лучше пересчитаем более реальную сумму:
Требование по хранению 20тб
на кой черт пихать хард 18, к тому же один? да еще и видеопоток обрабатывать
Для начало нужно определится с системой хранения, путем опыта/тестов/на крайняк методом тыка.
Если речь идет о сервере (24/7) - необходимо обеспечить
отказоустойчивость (1) дисковой системы [raid 5,6,10,etc]. Это не 1 хард на 16, это минимум 4 х 8гб или более в зависимости от выбранного потребностей. Самый простой вариант 4х8гб в raid5 даст 22тб места, остальное под отказы. Наиболее оптимальными вариантами будут вовсе не 12-18 тб по цене и по требованиям к кол-ву минимальному дисков к любому из raid 5 и выше. И того уже не 30, а все 80-90т.руб.
Окей второй вопрос (2) будет довольно серьезный относительно пропускной способности. Чтобы хоть как-то выжать перформанс с блинных hdd нужен адекватный рейд контроллер. обойдется в 30-40к сверху. На выходе будет лишь выполнено условие по объему.
Продолжаем, отказоусточивость рейда - это не восстановление данных. Если вдруг отпадает диск в рейде, он переходит в режим деградации. Это дает не больше не меньше тупо граматно среагировать и корректно заменить вышедший накопитель в рейде. Помрет больше допустимых - данным хана. Еще раз, если мы в рейд массиве что-либо удаляем с диска, мы прощаемся с этими данными, и рейд никаким образом не обеспечивает резервную копию данных, лишь целостность и режим деградации.
Отсюда вытекает вопрос следующий - куда, как, и на что выполнять резервное копирование данных (3). Конечно можно испытать удачу, и запустить продакшен без единой копии тупо в 1 реальный набор данных. Любая не осторожность, любая ошибка со стороны разработчика/сисадмина и польются ручьи огого. Ну и добавим вишенку на торт - есть еще механические траблы, и вовсе диски уходят пускай редко, но нежданчиком отключение от сети, или проблемы в электропроводке, в конце концов любая неосторожность на физическом уровне также ставит под риск куда более вероятнее нежели отказ 2ух+ дисков одновременно. Накидываем ИБП еще этак 20к руб. И того 80-90 + 30-40 + 20 = 130к-150к руб. и это с не решенным вопросом бэкапов.. ага..
Под бэки по сути выделяется либо отдельная дисковая полка равная или больше рабочей, ну или облачные сервисы. По сути смело добавляем еще 80-90к, и мы уже близки к модели HA кластера.
Для high available необходимо минимум 3 единицы. Не обязательно физически в одном месте. В рамках self host, будет не дурно разместить рабочую ноду с нодой репликации физически рядом, это позволит сэкономить на пропускной способности сети в рамках бэкапа. С другой стороны это не совсем правильно со стороны безопасности.Если что-то страшное произойдет в этой локации,к примеру затопят - исход будет такой-же..всем данным звезда,и начинай с начало.
----
В 400к можно уложится, но боюсь решение будет упираться в bandwitch дисковой, нежели сетевой. Но все зависит от архитектуры/софтверной реализации и тд.
--
По поводу 10гбит завести, это только магистралы, и там не все так просто, в целом от умения "общаться". МПЛС заводить выйдет ой как кругленько по сумме. Я бы ограничился парой тройкой линков местных провадйеров. Ну и в таком случае стоит очень хорошо подойти к вопросу выбора сетевого оборудования. unifi, zyxel наврятли выдадут нужную агрегацию каналов. да и в целом агрегация каналов не суммирует пропускную. их можно программно парралелить по задачам, типам трафа и тд. Но взять 2 линка по 1гб/с и надеятся что будет 2гб/с все грузить (за исключение пиринговых сетей) это так-же как поставить два автомобиля на одну трассу и пытатся разогнаться х2 как только заблагорассудится. имхо не получится)
З.ы. Gunjubasik ваще проблем нет ?
а это тупо только вопрос хранения данных затронут