Процессоры Intel Xeon Cooper Lake будут обучаться подобно графическим процессорам
На недавнем мероприятии Intel Architecture Day 2018 компания пролила свет также на процессоры Xeon поколения Cooper Lake. Эти 14-нм решения выйдут в следующем году, о чём руководство компании поведало ещё летом. Кстати, 14-нм техпроцесс хорошеет от поколения к поколению. На этапе производства Cooper Lake он будет настолько хорош, что при автоматическом разгоне отдельные ядра смогут пробивать частотный потолок в 5 ГГц.
Итак, что же особенного будет в Xeon Cooper Lake, кроме перехода на новый процессорный разъём? В Intel раскрывают, что процессоры в этом поколении получат развитые функции для ускорения машинного обучения. В частности, процессоры Cooper Lake будут поддерживать технологию VNNI — это технология по ускорению принятия решений, которую раньше планировали ввести только на стадии производства 10-нм продуктов компании. Вторым моментом стала интеграция архитектуры для нового набора инструкций ISA с поддержкой усечённого формата чисел Bfloat16.
Формат Bfloat16 вводится не только Intel. Например, этот формат использует Google в ускорителях TPU. Суть действия в том, что Bfloat16 имеет усечённую до 7 знаков мантиссу (количество знаков после запятой). При вычислении операций с одинарной точностью FP32 числу отводится на мантиссу 21 разряд. Экспонента у Bfloat16 и FP32 одинаковая — 8 разрядов. Тем самым за счёт усечения мантиссы несколько снижается точность вычислений, хотя скорость выполнения операций значительно возрастает и становится примерно равной половинной FP16. Иначе говоря, как бы производятся вычисления с точностью FP32, но с затратами на вычисления с точностью FP16. Это приближает возможности Xeon Cooper Lake ускорять ML подобно тому, как это делают графические процессоры.
Итак, что же особенного будет в Xeon Cooper Lake, кроме перехода на новый процессорный разъём? В Intel раскрывают, что процессоры в этом поколении получат развитые функции для ускорения машинного обучения. В частности, процессоры Cooper Lake будут поддерживать технологию VNNI — это технология по ускорению принятия решений, которую раньше планировали ввести только на стадии производства 10-нм продуктов компании. Вторым моментом стала интеграция архитектуры для нового набора инструкций ISA с поддержкой усечённого формата чисел Bfloat16.
Формат Bfloat16 вводится не только Intel. Например, этот формат использует Google в ускорителях TPU. Суть действия в том, что Bfloat16 имеет усечённую до 7 знаков мантиссу (количество знаков после запятой). При вычислении операций с одинарной точностью FP32 числу отводится на мантиссу 21 разряд. Экспонента у Bfloat16 и FP32 одинаковая — 8 разрядов. Тем самым за счёт усечения мантиссы несколько снижается точность вычислений, хотя скорость выполнения операций значительно возрастает и становится примерно равной половинной FP16. Иначе говоря, как бы производятся вычисления с точностью FP32, но с затратами на вычисления с точностью FP16. Это приближает возможности Xeon Cooper Lake ускорять ML подобно тому, как это делают графические процессоры.
Ещё новости по теме:
18:20