Невоспитанный искусственный интелект

Вторник, 29 марта 2016 г.Просмотров: 3710Обсудить

Следите за нами в ВКонтакте, Facebook'e и Twitter'e

Невоспитанный искусственный интелектСфера искусственного интеллекта проделала долгий путь длиной в полвека. Но поразительная неудача компании Microsoft, продемонстрированная на прошлой неделе релизом сhatbot с названием Tay, который продуцирует ненависть, показала, что в каком-то смысле этот путь еще не слишком длинный.

Идея использования компьютера для вовлечения людей в разговор восходит к 50-летней программе Eliza, которая опиралась на простой трюк: когда человек говорит что-то, информация отражается, воспроизводя, обратную связь, для того чтобы углубить разговор.

Как и всегда, рано или поздно становится ясно, что вы стали объектом завуалированного обмана и тогда вы начинаете пытаться поймать машину на собственной игре.

Так что же происходит, когда вы пытаетесь вовлечь искусственный интелект в свою шуточную игру?

Шагом вперед является своенравный подросток, потомок Eliza - Tay. Chatbots проявляет всю ярость Microsoft в тысячелетнем стремлении поколений объединить усилия для создания идеального устройства, демонстрирующего самые передовые технологии.

Рецепт таков: берем проверенную и испытанную формулу Chatbot, добавляем слой машинного обучения (большее вопросов, которые "понимает" алгоритм), затем подключаем программу к веб-поисковой системе (обеспечивая богатый, слишком богатый источник информации для формирования ответов).

Добавляем к подростковой личности некоторые остроты известных комиков, и Tay готов к встрече с цифровой судьбой.

Оказалось, что это горючая смесь. Противопоставленный объединению человеческой изобретательности, интернет потратил всего лишь несколько часов, чтобы разгромить продукт Microsoft. Подстрекаемый и водимый за нос Tay, вскоре фонтанировал нецензурные слова, используя, оскорбительные расовые эпитеты и пропагандируя тоталитарные идеи.

Но что еще можно было сделать?

 Он повторял то, что ему говорили, соглашаясь со всем. Он учился разговаривать, опираясь на поиск в интернете. Он добавлял соответствующую информацию в свои ответы, хотя это не делало их менее оскорбительными. Также как и всем подросткам ему не хватало основного фильтра уместности: ни один из программистов не подумал о том, чтобы блокировать оскорбительные язык или ссылки.

Tay потребовалось менее одного дня, чтобы получить место в истории AI - части Clippy Microsoft, направлении по созданию анимированных приспособлений, которые бы помогали пользователям программного обеспечения.

Обе неудачи преподносят важные уроки для развивающегося мира "умных" машин. Интеллектуальные агенты еще не так умны, как представляется. И оснащение алгоритмов личностными параметрами может иметь неприятные последствия. Нет больше простых программ, которые бы не вызывали сильные эмоциональные реакции, часто совсем не предполагаемые.

Они поощряют людей противостоять разумным машинам. Tay является напоминанием о том, что в большинстве социальных ситуаций, люди все равно выигрывают - хорошо это или плохо.

Следите за нами в ВКонтакте, Facebook'e и Twitter'e


Рубрика: Статьи / Ложный шаг
Просмотров: 3710 Метки: ,
Автор: Вотерс Ричард @ft.com">Financial Times


Оставьте комментарий!

RosInvest.Com не несет ответственности за опубликованные материалы и комментарии пользователей. Возрастной цензор 16+.

Ответственность за высказанные, размещённую информацию и оценки, в рамках проекта RosInvest.Com, лежит полностью на лицах опубликовавших эти материалы. Использование материалов, допускается со ссылкой на сайт RosInvest.Com.

Архивы новостей за: 2018, 2017, 2016, 2015, 2014, 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006, 2005, 2004, 2003