Эпоха виртуализации

28 января 2019

На сегодняшний день виртуализация стала понятием обыденным, ведь только ленивый не пробовал превращать свой настольный компьютер в настоящую платформу для виртуализации. Про провайдеров различных облачных услуг и упоминать не стоит, наоборот, редко сейчас где встретится standalone сервер, ведь на сегодняшний день подобная утилизация производственных мощностей кажется нелепой, да и удобство развертывания и обслуживания стоят далеко не на последнем месте.

Сейчас трудно представить себе, что первая платформа виртуализации появилась в середине 1960х годов в лабораториях корпорации IBM. Это был, по сути, гипервизор CP-40, которая позволяла запускать до 14 независимых операционных систем в разделённом пространстве одного мейнфрейма. Тогда это был настоящий переворот в вопросе многозадачности компьютеров середины 20 века.

Развитие данного подхода не останавливались и в последующие годы, но настоящий прорыв в этом плане произошёл на стыке 90х и 00х годов, а во главе этого прорыва стояла всем известная компания VMWare.  Основанная в 1998 году, уже через год она выпускает первый продукт для виртуализации на платформе x86 – Vmware Virtual Platform, а ещё через два года – гипервизор ESX.

С этих моментов требования к Системам Хранения Данных начали изменяться ввиду новых реалий – повсеместного использования виртуализации и необходимости хранений данных виртуальных машин, обеспечения отказоустойчивости и их доступности. Следующим подобным изменением станет появление облачных технологий, которые ознаменуют новую эру информационных систем.

Облака

Если не брать 70ые годы, когда первый раз был использован знак облака как выхода за приделы локальных систем на просторы ArpaNet, то первым, кто вышел на рынок, неся над головой гордо поднятый флаг с изображением облака, была компания Amazon со своим сервисом EC2 в 2006 году.  Amazon представляли необходимые потребителю мощности по модели pay-as-you-go (плати когда используешь). Так же было предложено хранилище информации S3. После Amazon этот флаг с небольшим отрывом подхватили компании Google, Microsoft, IBM и SUN. Облачная эра началась.

К этому моменту мир информационных технологий уже созрел для того, чтобы менять парадигмы “приземлённости” своих структур и был готов для перехода на новое понятие – Услуга. Инфраструктура-как-услуга, Софт-как-услуга, Платформа-как-услуга, телефония, любое приложения и любые сервисы можно предоставлять как услугу без необходимости выстраивать под них собственную дорогостоящую инфраструктуру, мирясь с издержками на её внедрение и дальнейшее обслуживание, а прозрачность cash-flow делало данную возможность по истине привлекательной для владельцев бизнеса.

Качество предоставления услуг облачных провайдеров возрастало параллельно с совершенствованием используемых технологий. Сейчас мы можем получить полностью готовую к использованию инфраструктуру практически мгновенно больше не заботясь о том, что купленное оборудование устареет, а новой надо внедрять и обслуживать.

Как эти изменения повлияли на Системы Хранения Данных? Стало строиться огромное количество Центров Обработки Данных, образовываться провайдеры, предлагающие облачные услуги в том или ином виде, поэтому рост потребности в СХД был неизбежен. На рынок начали выходить конвергентные и гиперконвергентные системы и хоть классический SAN в те времена и имел львиную долю всех систем хранения, но на лицо был рост унифицированных продуктов с возможностью универсального доступа к данным, а необходимость в более гибких программно-определяемых системах только увеличилась (привет от NetApp из 1992 года).

Потребности из количественных переросли в качественные, скорости передачи и обработки данных росли, а на фоне этого роста всё острее стоял вопрос об увеличении производительности самих систем хранения данных. Этот вопрос частично был решён выходом на рынок систем хранения с SSD-носителями. Начиналась история твердотельных накопителей в далёких 70х с появлением первых полупроводниковых модулей памяти, но лишь в 1984 году, компанией Toshiba был представлен первый флэш-накопитель, а 5тью годами позднее из лабораторий этой же компании выходит первый NAND.

Лишь в 2004 году появляется 2.5” SATA SSD диск от компании Adtron Corporation. Дальнейшее развитие событий шло в сторону наращивания плотности хранения, увеличения скорости доступа к информации, а главное – в сторону удешевления цены за гигабайт, пока доступность SSD дисков максимально не приблизилась к классическим HDD. После выхода интерфейса SATA 3.0 в 2008, продемонстрировавший скорость передачи равной 6 Гбит/с, вопрос развития SSD стал актуальным как никогда. Вначале быстрые SSD использовали, по большому счёту, как хранилище для кэша, в то время как сам массив хранения располагался на HDD-массивах, но со временем цена за SSD стала более разумной и на рынке стали появляться первые All-flash решения. К 2016 году, когда, по сути, проблема износа ячеек была практически решена и All-flash максимально близко приблизились по доле к системам хранения с HHD на борту.

Так как выглядит собирательный образ современной Системы Хранения Данных? Сейчас уже никто не удивляется, получая от IaaS-провайдера услуги, полностью расположенные на быстрых SSD. Развитие технологий позволяет получать эти услуги всё дешевле, функции дедупликации дают возможность существенно наращивать плотность хранения, современные системы легко масштабируются практически без влияния на расширяемый сегмент. Отказоустойчивость и доступность систем вышли на уровень, позволяющий организовать в разумных пределах отработку огромного количества отказов, а современные скорости передачи данных позволяют забыть о таком понятии, как расстояние.

Внедрение и обслуживание современных Систем Хранения Данных максимально упрощены, конвергентность инфраструктур как облачных провайдеров, так и локальных развёртываний позволяют максимально сократить издержки на поддержку данных систем, что так же позволяет снизить цену на предоставляемые услуги.

Заключение

Так к чему мы стремимся и как будут выглядеть системы хранения в ближайшем и не очень будущем? Зная ответ на подобные вопросы компании, которые в данный момент находятся в лидирующих позициях магического квадрата Gartner, в своё время приходили к успеху.

Инструмент всегда подбирается исходя из поставленных задач, события редко опережают время, а технологии крайне зависимы друг от друга и развиваются параллельно. Мог ли инженер, создающий в 1954 году диск размером с гараж и ёмкостью в 3.5 мегабайта, представить, что когда-нибудь носитель, превышающий его по ёмкости в сотни тысяч раз, будет помещаться в кармане его брюк? Или думали мы в 90х, что когда-то одним кликом мыши будем делать моментальные снимки десятков терабайт данных и таким же простым движением к нему возвращаться? Поэтому можно сказать только одно – через 10-20 лет, как сейчас на дискеты, мы так же будем смотреть на существующие технологии и называть их динозаврами из прошлого.

Виртуализация Алматы

Источник: computerra.ru