Развитие микроэлектронных технологий привело к архитектурной проблеме серверных систем: в результате перехода к производству, а затем и к широкому использованию многоядерных процессоров образовался разрыв в быстродействии между вычислительной техникой и внешними устройствами хранения данных (вторые стали заметно отставать). Для решения этой коллизии требуется устранить «узкое место» — повысить пропускную способность каналов ввода-вывода на базе распараллеливания операций обмена данными. Современные технологические возможности позволяют при этом отказаться от специализированной аппаратной реализации ввода-вывода, используя приложения, работающие на серверах стандартной архитектуры. Подобный подход открывает путь к решению и еще одной важной задачи — создания независимого слоя связи между процессорами и накопителями информации, благодаря чему серверы могут работать с гетерогенными, компонентными, гибко конфигурируемыми средами хранения. Подобная реализация современной концепции программно-определяемых ИТ позволяет не только повысить производительность СХД, но и существенно снизить их стоимость и гибкость в плане масштабирования и модернизации.

Эти идеи, лежащие в основе продукции компании DataCore, которая в последние годы все чаще упоминается как один из ведущих игроков на рынке СХД, с президентом и исполнительным директором DataCore Джорджем Тейксейрой обсудил обозреватель PC Week/RE Андрей Колесов.

PC Week: Иерархическая организация памяти, виртуализация компьютерных ресурсов, компонентная архитектура вычислительных систем, распараллеливание процессов обработки и обмена данными давно являются базовыми принципами в сфере ИТ. В чем же их реальная новизна?

Джордж Тейксейра: Да, многие современные идеи в ИТ имеют глубокие исторические корни. Но меняются сами технологии, меняются требования потребителей, что позволяет и заставляет искать новые способы реализации давно сформулированных теорий. Впрочем, и теория не стоит на месте, она тоже развивается. Например, достижения в области интеллектуальной обработки данных (скажем, разного рода распознавания образов) получены не только за счет простого увеличения производительности компьютеров, но и, в очень существенной мере, в результате развития математических методов.

Чтобы понять сегодняшние проблемы компьютерной архитектуры, нужно вспомнить историю. В 1990-е лидирующие позиции в мире ИТ заняли ПК, которые базировались на идеях минимизации стоимости и габаритов и соответственно использовали сравнительно простую архитектуру. Потом архитектура ПК пришла в серверный мир, где предъявляются другие требования: высокая производительность, надежность и пр. Началась эволюция архитектуры в плане повышения ее сложности, революционные шаги были невозможны, поскольку требовалось обеспечивать принцип совместимости. Если говорить об архитектуре связки «процессор — внешняя память», то здесь эволюционный процесс шел вполне успешно примерно до 2010 г., когда возникла необходимость в более радикальных изменениях. Это было связно с тем, что в результате перехода к многоядерности произошёл резкий рывок в производительности процессоров, за которой перестали поспевать другие составные части вычислительной системы. И речь тут не только об аппаратных компонентах, таких как СХД, но и о ПО — как системном (ОС), так и прикладном. Реализованные в программах возможности распараллеливания тоже не поспевали за прогрессом в области микропроцессоров.

Надо сказать, разработчики системного ПО довольно быстро отреагировали на эти изменения, технологии виртуализации в последние годы сделали огромный рывок в плане эффективного использования многоядерных процессоров. И, кстати, именно это позволило виртуализации сыграть еще большую роль в сфере ИТ, поскольку в варианте физического сервера отдельные приложения часто не могут в полной мере задействовать его мощности.

Такая же проблема возникла в организации ввода-вывода при взаимодействии процессора с внешней памятью: чисто эволюционными методами, простым увеличением быстродействия за счет электронных технологий, без каких бы то ни было архитектурных изменений нарастающий разрыв между растущей производительностью процессоров и пропускной способностью каналов обмена данными решить не удается. Нужно применять более сложные схемы с использованием более глубокого распараллеливания. Но тут выявилась другая проблема, кадровая. Оказалось, что специалистов, готовых к решению подобных задач параллельной обработки данных, не так много. Это я объясняю тем, что в последние полтора-два десятилетия такие задачи были не очень актуальны для ИТ.

PC Week: Вот как! И в США тоже?

Дж. Т.: Да, в сфере распараллеливания обработки данных в существенной мере «прервалась связь времен»: профессионалы 1980-х и начала 1990-х, когда это направление активно развивалось, ушли, система образования перестала уделять внимание этому аспекту подготовки студентов, уровень квалификации современного поколения специалистов снизился. Это серьезная проблема, которую мы ощущаем на себе: найти квалифицированных сотрудников стало сложнее. Возраст большинства специалистов, которые в нашей компании занимаются темой параллельной обработки данных, — за пятьдесят. Думаю, что и предлагаемые нами новые решения находят не такое быстрое признание на рынке по причине некоторой неготовности заказчиков: они просто не могут поверить (а тут нужна не вера, а знания) в то, что производительность каналов ввода-вывода можно столь радикально повысить за счет правильных архитектурных решений.

Еще надо отметить, что подготовка студентов в области ИТ в университетах США во многом нацелена на обработку данных в процессоре, а проблемы ввода-вывода находятся на периферии, в то время как именно взаимодействие с внешней памятью является одним из ключевых вопросов в плане повышения производительности ИТ-систем.

PC Week: Не является ли переход к модели in-memory принципиальным решением задачи ввода-вывода применительно к запоминающим устройствам?

Дж. Т.: Направление in-memory очень важно, сфера применения этой модели расширяется, но она не может полностью или хотя бы в существенной степени заменить традиционный вариант организации иерархической памяти с использованием внешних устройств.

PC Week: Но ведь вопросом повышения скорости обмена информацией озабочены все производители СХД. Что же мешает им использовать подобные методы распараллеливания ввода-вывода?

Дж. Т.: Распараллеливание — это лишь один из аспектов наших технологий, который тесно связан с другими, такими как отделение управления системой хранения от собственно устройств хранения и реализация этого управления программным образом. Крупные поставщики не очень заинтересованы в такой программно-компонентной архитектуре, их интересует продажа всего комплекса СХД. Что касается распараллеливания именно операций ввода-вывода, то это совсем не простая задача. К тому же традиционные СХД-производители по старинке ориентируются на использование аппаратных средств управления, которые трудно перестроить на новые, более сложные алгоритмы.

Сейчас в отрасли наблюдается переход от использования обычных магнитных дисков к твердотельным флэш-накопителям. Такая замена носителей позволяет снизить время отклика внешней памяти с 3–6 до 1 мс. Но наше решение обеспечивает для флэш-дисков еще более высокие результаты — 300, а в некоторых случаях даже 100 мкс. Можно ожидать, что быстродействие флэш-памяти будет повышаться, приближаясь к скорости работы ОЗУ, и тут вполне возможно появление новых алгоритмов взаимодействия внешней и оперативной памяти.

PC Week: Автоматическое распараллеливание в вычислительных процессах — задача довольно сложная, тут ведь многое нужно делать «руками» на уровне программного кода. А что в случае ввода-вывода? Насколько решения в данной области являются универсальными, или их нужно привязывать к конкретным прикладным задачам, например к тем или иным СУБД?

Дж. Т.: Как раз в случае ввода-вывода можно создать вполне универсальные решения, не привязанные к конкретным приложениям. При использовании традиционных СУБД приходится для разных приложений выделять отдельные кластеры серверов — во многом именно для того, чтобы оптимизировать обмен данными с внешней памятью; но если мы используем распараллеливание, то такое разделение вычислительных мощностей уже не нужно. Собственно, наше ПО делает примерно то же самое, что гипервизор на сервере: оно повышает эффективность работы канала ввода-вывода. Если у вас используются приложения, которые мало работают с внешними данными и загружают процессор на 100%, то, конечно, вам не нужно повышение скорости обмена. Но сегодня большинство деловых приложений — почта, ERP, Интернет вещей и пр. — как раз активно использует большие объемы информации на внешних носителях.

PC Week: А если посмотреть на вопрос с другой стороны: насколько ваши решения универсальны и для физических серверов, и для виртуальных машин?

Дж. Т.: Этот как раз тот случай, когда решение управления внешней памятью является достаточно универсальным. Оно позволяет эффективно работать с любыми средами, поддерживая при этом различные гипервизоры.

PC Week: Ваша компания начинала в конце 1990-х с заказных разработок для Национального космического агентства США, но сейчас на долю США приходится только 20% вашего бизнеса. Каким образом из довольно закрытой государственной сферы вам удалось выйти на внешний мировой рынок?

Дж. Т.: Во многом это получилось благодаря сотрудничеству с IBM, для которой мы выступали тогда чем-то вроде младшего технологического партнера. При этом мы были для нее в какой-то мере конкурентом, поэтому она продвигала наши продукты за пределами США. Благодаря этому мы получили много полезных деловых контактов. Возможно, нашему географическому спектру мы обязаны тем, что команда основателей состояла из граждан США, но в ней было несколько выходцев из других стран (я сам родом из Португалии), то есть наш коллектив изначально был интернациональным. Сейчас основные наши заказчики находятся в Европе и Азии.

PC Week: Насколько интересен для вас рынок России? И готовы ли местные заказчики к использованию предлагаемых вами решений?

Дж. Т.: В последние годы мы внимательно изучаем российский рынок, и сейчас появилась твердая уверенность в том, что необходимо расширять свое присутствие в вашей стране. Россия переживает непростые экономические времена, заказчики теперь намного серьезнее думают об оптимизации своих ИТ-затрат, и как раз поэтому новые решения для работы с внешней памятью очень привлекательны. Мы с вами говорили в основном о распараллеливании операций ввода-вывода, но это всего лишь один аспект преимуществ программно-определяемой архитектуры. Другой, в плане оптимизации расходов более важный, — это возможность управления гетерогенной средой хранения данных с постепенным наращиванием мощностей. Это избавляет от жесткой привязки к конкретному производителю СХД, вы можете расширять имеющиеся у вас сейчас системы хранения теми устройствами, которые вам нужны, и от тех поставщиков, чьи предложения наиболее выгодны. Использование программно-определяемых решений (в данном случае — для управления внешней памятью) позволяет заказчикам исключить риски, связанные с недоступностью какого-либо бренда аппаратного обеспечения, а одновременно ещё повысить гибкость при развитии ИТ-инфраструктуры и снизить финансовые затраты.

PC Week: Если вы создали столь инновационное решение, которое на практике доказало свои бизнес-перспективы, то почему же вас не приобрел кто-то из ИТ-гигантов? Почему компания Dell купила EMC, а не DataCore?

Дж. Т.: Все же мы не EMC, мы не занимаемся производством самих систем хранения данных, мы — софтверная компания, специализирующаяся на конкретном направлении. Много лет проработав с IBM, мы никогда не испытывали желания стать сотрудниками этой корпорации. У нас есть еще немало идей, которые нам хотелось бы реализовать, а в большой корпорации воплощать собственные идеи гораздо сложнее. Знаете, когда в конце 1990-х мы создавали свою компанию, нам нужны были деньги на развитие. И мы пошли по нетрадиционному пути — не стали искать внешних инвесторов, а получили нужные средства, заложив свои дома. Мы не хотели зависеть ни от кого и верили в успех своего начинания.

PC Week: А что с той заложенной недвижимостью?

Дж. Т.: Сейчас — точно не знаю, многие из нас уже давно живут в других домах. А тогда всё было выкуплено довольно быстро.

PC Week: Спасибо за беседу.