“Черт, кто спер мою тарелку с едой?!”, или как Facebook насолил компьютерным гигантам

Понедельник, 7 октября 2013 г.Просмотров: 2912Обсудить

Следите за нами в ВКонтакте, Facebook'e и Twitter'e

“Черт, кто спер мою тарелку с едой?!”, или как Facebook насолил компьютерным гигантамКаждый год такие гиганты среди компьютерных фирм, как Hewlett-Packard, Dell, и Cisco Systems продают аппаратного обеспечения более, чем на 100 миллиардов долларов. Сюда входят и обычные «железки» - сервера, хранилища, и сетевое оборудование. Добавьте сюда специализированное ПО для безопасности, системы анализа данных и сопутствующее ПО – и цифры вырастут еще больше. Поэтому вполне понятно, почему эти компании обеспокоены тем, что Facebook выпускает эффективное оборудование, которое угрожает самому их существованию. И все это бесплатно.

Отобрать кусок хлеба у компьютерных гигантов

Dell и HP занимаются тем, что продают и настраивают оборудование для управления данными в компаниях, или же сдают его в аренду через облачные сервисы. Решение Facebook предоставить публичный доступ к своим центрам обработки данных всем желающим может привести к тому, что другие компании обойдут технологических гигантов США и воспользуются дешевыми азиатскими поставщиками для покупки и монтирования необходимых установок.

Вместо того, чтобы покупать серверные стойки у обычных продавцов, Facebook проектирует свои собственные и отдает работы по их изготовлению на аутсорсинг. В апреле 2011 года социальная сеть показала общественности свои чертежи в рамках, так называемого проекта Open Compute Project, который позволяет другим компаниям положиться на работу своих инженеров. Сейчас проект находится в самом центре грандиозных перемен индустрии дата-центров за десятилетие. “Это огромный шаг к тому как будет выглядеть будущее дата-центров”, - говорит Питер Левайн, один из партнеров венчурного фонда Andreessen Horowitz. “Мы говорим о сотнях миллиардов, если не триллионов долларов, которые заработают новые игроки с технологиями, похожую на ту, что имеется у Facebook”.

Там, где всегда холодно

Самое сердце эксперимента Facebook находится чуть южнее Северного полярного круга, в шведском городе Лулео. В гуще леса, на окраине города, компания в июне этого года открыла свой новейший огромный дата-центр, гигантское здание, состоящее из тысяч квадратных металлических панелей и выглядящее как инопланетный корабль. По всем меркам, это самое эффективные в плане энергии вычислительные мощности, когда-либо построенные человеком – настоящий вычислительный гигант, участвующий в обработке 350 миллионов фотографий, 4,5 миллиардов “лайков” и 10 миллиардов сообщений в день. В то время, как обычному дата-центру требуется 3 ватта энергии для питания и охлаждения – чтобы произвести 1 ватт вычисления, мощности в Лулео практически в 3 раза эффективнее – коэффициент составляет 1,04 к 1. “То, что Facebook сделал с рынком компьютеров это просто невероятно”, - говорит Том Бартон, бывший глава производителя серверов Rackable Systems. “Теперь все чувствуют это на себе”.

И это место позволяет сделать еще не мало в плане энергоэффективности. Швеция обладает огромными запасами дешевой легкодоступной энергии, получаемой благодаря сети гидроэлектростанций. Так что Facebook спроектировал свой дата-центр и воспользовался преимуществами сурового шведского климата. И вместо того, чтобы положиться на огромные кондиционеры и системы энергообеспечения для охлаждения десятков тысяч компьютеров, Facebook использует воздух снаружи для циркуляции и охлаждения серверов, после того как фильтры в здании очистят его и приведут влажность в соответствие с требованиями. В отличие от широко принятого «складского» стиля серверного хранилища, вся структура функционирует как единое устройство.

Все максимально просто

Чтобы упростить свои сервера, которые используются в основном для создания веб-страниц, инженеры Facebook убрали такие типичные компоненты, как дополнительные слоты памяти и кабели а также защитные пластиковые короба. Серверы чаще всего уменьшены в объеме, с материнскими платами, вставляющимися в полки как у холодильника. Инженеры утверждают, что подобная проектировка обеспечивает лучшую циркуляцию внутри сервера. Системам кроме этого требуется меньше охлаждения, потому что с меньшим количеством компонентов они могут работать при температуре 30 градусов Цельсия. (Большая часть серверов работает при 24 градусах.)

Когда Facebook начал воплощать свои идеи, эксперты по дата-центрам скептически отнеслись к подобным замыслам, особенно в части серверов, постоянно работающих при высоких температурах. “В основном в дата-центрах все работают при 16-19 градусах Цельсия и воздухе, охлаждающим их со скоростью 55 километров в час”, - говорит Фрэнк Франковски, вице-президент Facebook по проектированию аппаратного обеспечения и поставкам – он же возглавляет Open Compute Project. Более эффективное проектирование позволило компании свободно размещать свои дата-центры в арктических широтах. Следующий будет построен в штате Айова, где полно дешевой энергии от ветряков. Компания кроме того начала работы по проектированию и созданию систем хранения данных и серверного обеспечения. Франковски описывает реакцию от поставщиков оборудования так: “Черт, кто спер мою тарелку с едой?!”

Следите за нами в ВКонтакте, Facebook'e и Twitter'e


Рубрика: Статьи / Бизнес гамбит
Просмотров: 2912 Метки: ,
Автор: Вэнс Эшли @businessweek.com">Businessweek


Оставьте комментарий!

RosInvest.Com не несет ответственности за опубликованные материалы и комментарии пользователей. Возрастной цензор 16+.

Ответственность за высказанные, размещённую информацию и оценки, в рамках проекта RosInvest.Com, лежит полностью на лицах опубликовавших эти материалы. Использование материалов, допускается со ссылкой на сайт RosInvest.Com.

Skype: rosinvest.com (Русский, English, Zhōng wén).

Архивы новостей за: 2018, 2017, 2016, 2015, 2014, 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006, 2005, 2004, 2003