Искусственный интеллект: опасный враг или добрый помощник

Понедельник, 10 декабря 2018 г.

Следите за нами в ВКонтакте, Телеграм'e и Twitter'e

О потенциальных угрозах ИИ говорили почти все визионеры технологического прогресса. Стивен Хокинг в ноябре прошлого года озвучил главные страхи, сопровождающие размышления о развитии техники. По его мнению, компьютеры рано или поздно научатся воспроизводить сами себя. Биологические существа наверняка проиграют кремниевому разуму как в умственных способностях, так и в вопросах приспособленности к окружению, в особенности на другой планете. Рано или поздно умные роботы посчитают человека устаревшей формой и пожелают избавиться от него.

Слова Хокинга пока звучат как страшилка, десятки раз обыгранная в кино и книгах, но даже те, кто работает над внедрением умных систем стали все чаще опасаться будущего с ИИ, хотя есть и такие, кто считает подобные страхи преждевременными. «Бояться развития ИИ сегодня — все равно что беспокоиться о перенаселении Марса», — заявил Эндрю Ын, глава Google Brain. Однако успокоил он далеко не всех.



Среди крупнейших фобий, связанных с внедрением компьютера во все сферы жизни, стоит отметить три. Первая — компьютерный разум станут использовать в качестве инструмента войны, который значительно превзойдет в разрушительной силе даже ядерное оружие. Вторая — ИИ поработит человека. Третья — как любое человеческое творение, компьютер подвержен ошибкам. На всех трех пунктах можно остановиться подробнее.

21 августа 2017 года ведущие специалисты в области исследований и внедрения искусственного интеллекта, включая глав таких компаний как SpaceX и Deep Mind, направили в ООН открытое письмо. В тексте они предостерегли мировое сообщество от разработки летального автономного оружия, будь то роботы или другие механизмы, предназначенные для убийства противника. Авторы документа обратили внимание на фатальные последствия применения такого вооружения. При его феноменальной эффективности справедливо задаться вопросом, в чьи руки оно попадет. Воспользоваться им может как узкий круг элит, так и террористы.

Технологии

Лицом к лицу: на чем тренируют технологии распознавания лиц Apple и другие
Технологии

Робот, который опускает за вами сиденье унитаза: изобретение века



Авторы письма призвали контрольную организацию, а вместе с ней и научное сообщество, очертить рамки вредоносного использования ИИ. Стоящая перед человеком ответственность за собственное детище обязывает его провести серьезную работу над предотвращением рисков. Кроме законов, ограничить мощь роботов должны и их создатели, которым предстоит поломать голову над тем, как отключить машины в крайних случаях.



Политическое злоупотребление электронными системами уже продемонстрировало себя на примере работы соцсетей и алгоритмов анализа данных. Весной этого года в мире прогремел скандал, связанный с компанией Cambridge Analytica. Ее специалисты провели глубинный анализ данных о пользователях и разместили в Facebook адаптированную индивидуально под каждого человека рекламу.

Работники фирмы не только перешли этические рамки, но и применили современные технологии, работу которых было невозможно проанализировать. Эффективность «машинного обучения» — тема не раз возникающая среди ведущих математиков. Они хором признают, что поражены чрезвычайными успехами компьютерных программ, но совершенно не способны понять работу сложной системы. В Мьянме в апреле этого года посты в Facebook также стали причиной волнения масс, но в отличие от США, где обошлось протестными акциями, в азиатском государстве произошла резня, жертвами которой стали несколько сотен человек. Манипуляция огромным количеством людей — осуществившаяся реальность и роботы здесь могут сыграть с нами злую шутку.



Стоит вспомнить о том же Facebook, где в обращение были запущены чат-боты на базе ИИ. Виртуальных помощников обучали вести диалог с собеседником. Со временем ботов стало не отличить от реальных людей и тогда авторы решили свести роботов друг с другом. Через какое-то время боты стали сокращать лексические структуры и обмениваться абракадаброй. СМИ раздули из новости сенсацию, мол «машины восстали». Но отбросив преувеличения журналистов, справедливо признать, что в случае, когда машины начнут общаться между собой, человек этого может не заметить. И как там они будут жить собственной жизнью — никто не знает.

Усложняющаяся структура компьютерного разума с каждым днем отдаляет нас от понимания принципов его работы. Но хоть большинство алгоритмов и справляется со своими задачами, даже сегодня сложные машины далеки от идеала и совершают ошибки. Для дальнейшего развития ИИ важно понимать не столько его сильные стороны, сколько уязвимости. Именно на этом сосредоточено большое число научных групп, в одной из которых работает специалист из MIT Аниш атали. Всего пару дней назад он рассказал журналистам о наиболее частых ошибках систем распознавания образов.

Его коллеги демонстрировали машине предметы и обнаруживали, что часто отдельные объекты воспринимались электронным зрением неправильно. Компьютер мог назвать бейсбольный мяч чашкой кофе, а распечатанную на 3D-принтере черепашку армейским автоматом. Группа собрала уже около 200 предметов, которые вводят алгоритмы в заблуждение.



Искусственный интеллект вместо восприятия объекта целиком, концентрировался на отдельных его параметрах. ИИ как правило учится на «идеальной» выборке. Когда он сталкивался с явлениями, не соответствующими нормам, он не всегда может отказаться от привычного процесса обработки. Вместо того чтобы признаться в своей неспособности обработать образ, он продолжает попытки прочитать изображение и это приводит к подчас смешным результатам. Вместо формы черепахи электронный мозг пытался считать его текстуру, похожую на камуфляж. Примерно по той же причине автопилоты электронных автомобилей пока не являются на 100% надежными. Машине трудно увидеть силуэт и предположить, что он состоит из отдельных элементов.

И если в ближайшие годы какие-то недочеты удастся поправить, нет никакой гарантии от того, что уязвимостью не воспользуются хакеры. Взломщики электронных устройств на сегодняшний день представляют едва ли не главную причину страхов. Небольшой коллектив программистов способен не только получить доступ к личной информации, но и перенастроить автономные системы, взяв под контроль инструменты колоссальной мощи. И тогда нам всем не поздоровится. Но главный вывод, который можно сделать, пожалуй, традиционный — бояться стоит не машин, а людей.

Следите за нами в ВКонтакте, Телеграм'e и Twitter'e


Просмотров: 738
Рубрика: Hi-Tech


Архив новостей / Экспорт новостей

Ещё новости по теме:

RosInvest.Com не несет ответственности за опубликованные материалы и комментарии пользователей. Возрастной цензор 16+.

Ответственность за высказанные, размещённую информацию и оценки, в рамках проекта RosInvest.Com, лежит полностью на лицах опубликовавших эти материалы. Использование материалов, допускается со ссылкой на сайт RosInvest.Com.

Архивы новостей за: 2018, 2017, 2016, 2015, 2014, 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006, 2005, 2004, 2003