Четыре самые серьёзные проблемы искусственного интеллекта

Среда, 3 ноября 2021 г.

Следите за нами в ВКонтакте, Facebook'e и Twitter'e

Как и у любого явления, у искусственного интеллекта есть достоинства и недостатки. О последних рассказал в рамках статьи на «Хабре» представитель компании Toshiba.

Известно, что в 2020 году, отмечает автор, до 20 процентов прибыли было получено компаниями благодаря искусственному интеллекту (ИИ). Но система эта всё равно имеет некоторые минусы. О них — ниже.

Данные, которыми «питается» ИИ, могут быть неправильными. ИИ устроен так, что на основе большого количества информации о чём-либо делает вывод. И этот вывод может оказаться ошибочным. К примеру, в 2016 году был случай, когда система не распознавала глаза азиатского гражданина на фото из-за того, что большинство жителей Новой Зеландии (страны, где использовался ИИ) имеют европейскую внешность.


Кроме того, база данных ИИ сама по себе может быть некачественной или испорченной. Если говорить кратко, то из-за ограниченного числа данных искусственный интеллект не способен делать выводы об объективной реальности — он создаёт свою реальность. А из-за того, что базы данных строятся на информации о прошлом, с прогнозами у системы тоже довольно плохо. Решить данную проблему способны цифровые двойники.

Машинное обучение работает не так, как человеческий мозг. Из-за этого обмануть его довольно просто. К примеру, если вспомнить технологию распознавания изображений, то в этом случае машина распознаёт не само по себе лицо как явление, а набор пикселей, который чаще всего указывает на наличие лица на картинке. Пока ещё не придумали способ решить эту проблему раз и навсегда, но есть несколько предположений на этот счёт: расширение базы обучения и исправление ошибок; обучение двух ИИ друг друга; обучение ИИ понятиям пространства, времени и т.п. В последнем случае разработчики ещё не придумали, каким образом можно связать данные понятия с набором пикселей.


Также ИИ бывает нелегко понять. Иногда отследить логическую цепочку, в соответствии с которой система делает выводы, тяжело. Так, ИИ Deep Patient, внедрённый в 2015 году в США, мог точно диагностировать шизофрению, в то время как самим медикам это удавалось с трудом.

Наличие у ИИ «отпечатка» мышления и ценностей их разработчиков. У создателей могут быть проблемы с пониманием и знанием психологии, социологии и других гуманитарных дисциплин, а от ИИ часто требуют именно решения социальных задач. Кроме того, это может спровоцировать появление этических проблем, так как сознания и этических установок у искусственного интеллекта нет. Объективным и беспристрастным он не будет никогда.


Создание ИИ — это труд миллионов людей, причём зачастую низкооплачиваемый. Сбором и фильтрацией данных занимаются не только разработчики, но и другие люди: программисты размещают заказы на сбор и обработку данных на различных платформах.


Кроме того, за всё время обучения ИИ выделяются тонны углекислого газа. Например, учёные из Беркли и компания Google заявляют, что GPT-3 за период обучения производит 552 метрических тонн углекислого газа (это аналогично количеству углекислого газа, которое выделяется ежегодно 120 легковыми автомобилями с двигателем внутреннего сгорания).

Следите за нами в ВКонтакте, Facebook'e и Twitter'e


Просмотров: 380
Рубрика: Hi-Tech


Архив новостей / Экспорт новостей

Ещё новости по теме:

RosInvest.Com не несет ответственности за опубликованные материалы и комментарии пользователей. Возрастной цензор 16+.

Ответственность за высказанные, размещённую информацию и оценки, в рамках проекта RosInvest.Com, лежит полностью на лицах опубликовавших эти материалы. Использование материалов, допускается со ссылкой на сайт RosInvest.Com.

Архивы новостей за: 2018, 2017, 2016, 2015, 2014, 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006, 2005, 2004, 2003

Январь 2009: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31