Hewlett Packard Enterprise показала очередной прототип компьютера The Machine со 160 ТБ памяти
В далёком 2014 году компания HP рассказала о проекте The Machine — новом типе ПК, в основе которого лежит не процессор, а память. Изначально предполагалось, что The Machine будет использовать мемристорную память, но из-за отсутствия необходимых коммерциализированных технологий в 2016 году нам показали первый прототип (уже компании Hewlett Packard Enterprise), использующий память DRAM.
И вот HPE показала второй прототип. Сама концепция сейчас называется Memory-Driven Computing, но это всё развитие идей, заложенных в проекте The Machine.
Новый прототип содержит уже не 4 ТБ памяти, а 160 ТБ. По словам разработчиков, это позволяет устройству одновременно работать с данными, содержащимися примерно в 160 млн книг.
Основываясь на достигнутом, HPE ожидает, что архитектура сможет легко масштабироваться до нескольких эксабайт и даже до 4,096 иоттабайта! Учитывая архитектуру, это позволит обрабатывать просто невероятные объёмы данных. Для примера, производитель говорит, что такая система будет способна одновременно работать со всеми цифровыми реестрами здоровья каждого человека в мире, каждой частью данных социальной сети Facebook, всеми данными, поступающими от каждого беспилотного автомобиля Google и всеми данными человечества, поступающими с тех или иных источников, связанных с космосом.
У текущего прототипа 160 ТБ памяти разделены на 40 физических узлов, соединённых при помощи высокопроизводительного протокола. Кроме того, имеются оптические и оптоэлектронные соединения, включая модуль Photonics X1. Всё это работает под управлением оптимизированной ОС на основе Linux, за работу которой отвечает Cavium ThunderX2.
К сожалению, пока совершенно неясно, когда реальные устройства Memory-Driven Computing появятся на рынке. Но в 2018 или 2019 году HPE должна выпустить рабочее ПО, позволяющее выполнять вычисления на подобной архитектуре.
И вот HPE показала второй прототип. Сама концепция сейчас называется Memory-Driven Computing, но это всё развитие идей, заложенных в проекте The Machine.
Новый прототип содержит уже не 4 ТБ памяти, а 160 ТБ. По словам разработчиков, это позволяет устройству одновременно работать с данными, содержащимися примерно в 160 млн книг.
Основываясь на достигнутом, HPE ожидает, что архитектура сможет легко масштабироваться до нескольких эксабайт и даже до 4,096 иоттабайта! Учитывая архитектуру, это позволит обрабатывать просто невероятные объёмы данных. Для примера, производитель говорит, что такая система будет способна одновременно работать со всеми цифровыми реестрами здоровья каждого человека в мире, каждой частью данных социальной сети Facebook, всеми данными, поступающими от каждого беспилотного автомобиля Google и всеми данными человечества, поступающими с тех или иных источников, связанных с космосом.
У текущего прототипа 160 ТБ памяти разделены на 40 физических узлов, соединённых при помощи высокопроизводительного протокола. Кроме того, имеются оптические и оптоэлектронные соединения, включая модуль Photonics X1. Всё это работает под управлением оптимизированной ОС на основе Linux, за работу которой отвечает Cavium ThunderX2.
К сожалению, пока совершенно неясно, когда реальные устройства Memory-Driven Computing появятся на рынке. Но в 2018 или 2019 году HPE должна выпустить рабочее ПО, позволяющее выполнять вычисления на подобной архитектуре.
Ещё новости по теме:
18:20