Технотренды 2019: «Конец правды, какой мы ее знаем?»

Среда, 9 января 2019 г.Просмотров: 2497Обсудить

Следите за нами в ВКонтакте, Facebook'e и Twitter'e

В этом году речь пойдет о данных - маленьком, довольно скучном слове, которое сильно преобразует мир, в котором мы живем. Новые технологии, от голосовых динамиков до самоуправляемых автомобилей и носимых устройств, значительно увеличивают объем цифровых данных, которые мы производим.

Искусственный интеллект (ИИ), машинное обучение и облачные вычисления преобразуют то, как хранится, анализируется и применяются данные.

«В 2019 году интеллектуальные датчики начнут появляться повсюду, автоматизируя, сбор данных, чтобы удовлетворить аппетиты ИИ», - говорит Тим Харпер, бывший инженер Европейского Космического центра, а ныне основатель G2o Water Technologies.

ИИ может быть мощной силой добра, например, усовершенствуя, систему здравоохранения и, способствуя, борьбе с изменением климата. Но он представляет множество угроз для демократии, для финансовых рынков, для веры в объективную истину. Некоторые комментаторы предупреждают, что данные, находящиеся не в тех руках и используемые не в тех целях, могут даже угрожать миру во всем мире.

Фальшивые новости?

«Deepfakes» - манипулируемые цифровые видео, в которых лицо человека накладывают на тело другого или изменяют то, что люди на самом деле говорят - представляют растущую угрозу, утверждает Катя Бего, ученый в инновационном фонде Nesta.

«В 2019 году усилится злонамеренное влияние deepfake видео на геополитическую ситуацию», - предсказывает она. «Хотя deepfake все еще относительно новая технология, она развивается невероятно быстро. Это все больше усложняет процесс идентификации. В то же время создавать deepfakes становится все проще и дешевле».

Эксперт предлагает кошмарный сценарий, в котором мировой лидер может объявить войну или распространить разрушительную пропаганду.

Поскольку поддельные новости, часто спонсируемые государством, продолжают наводнять социальные сети, а информационное агентство Синьхуа в Китае запускает свои первые созданные ИИ новостные программы, грани между поддельными и реальными новостями становятся все более размытыми.

Если мы больше не можем доверять тому, что видим или слышим, является ли это «концом истины, какой мы ее знаем?» - спрашивает Бего.

Андрей Цончев, директор по технологиям в Darktrace Industrial, считает, что открытость интернета и отсутствие подотчетности - качества, которыми дорожили его основатели, играют на руку тем, кто имеет злой умысел.

«В конечном счете, манипулирование публичным мнением может оказаться еще большим киберриском, чем взлом устройств», - говорит он. «Контроль данных вскоре может стать более важным, чем их кража».

Под ударом

Компании кибербезопасности печально известны тем, что запугивают нас, стремясь, продать больше своей продукции. Но это не значит, что их предупреждения бесполезны. ИИ в руках криминальных или спонсируемых государством хакеров, безусловно, вызывает беспокойство.

«В 2019 году первая атака, организованная ИИ, уничтожит компанию FTSE 100», - прогнозирует Джейсон Харт, главный технический директор по защите данных в Gemalto. «Новый вид вредоносных программ, работающих на ИИ, заражает системы организации, остается незамеченным, собирая информацию, адаптируется к окружающей среде и осуществляет серию индивидуальных атак, направленных на уничтожение компании изнутри».

Многие считают, что ИИ будет необходим для борьбы с ИИ. Грег Дэй из Palo Alto Networks говорит: «Скоро начнутся кибербаталии ИИ против ИИ. Кибербезопасность будет машиной, которая борется против машины. В то время, как кибербезопасность будет искать новые способы обнаружения противников и угроз с помощью ИИ, противники будут использовать ИИ, чтобы подорвать машинное обучение и ИИ. Это еще больше увеличит ставки. Мы увидим первый пример масштабируемой массовой IoT-атаки, затрагивающей критическую инфраструктуру», - прогнозирует Даррен Томсон, главный технический директор по кибербезопасности в компании Symantec.

Здоровый образ жизни

Но это не все плохие новости. ИИ, располагая данными о нашем здоровье, может предвещать, по мнению многих, новую эру персонализированной медицины.

«Мы прогнозируем, что к середине 2020 года двое из трех пациентов с любым состоянием будут поддерживаться ИИ и технологиями, связанными с ИИ, в рамках диагностики, лечения или администрирования», - говорит Джон Гикопулос, руководитель ИИ и автоматизации в Infosys Consulting.

Компьютеры, работающие на ИИ, все лучше анализируют изображения и диагностируют рак, а также помогают идентифицировать молекулы, которые могут быть превращены в жизненно важные лекарства. Виртуальные врачи и чат-боты дают нам советы по здоровью через приложения.

«В 2019 году впервые будет доступно больше данных о здоровье за пределами систем здравоохранения, чем внутри них», - говорит Отман Лараки, исполнительный директор Color, компании по генетическому тестированию в Сан-Франциско. «Ваши Apple Watch могут вывести состояние сердца, настроение, модели сна. Ваш геном может нести информацию о риске рака и сердечной болезни, о чувствительности к кофеину и т.д.».

Ориентированное на данные здравоохранение с акцентом на профилактику, а не лечение, будет иметь «огромное социальное воздействие».

Вернуть контроль?

В прошлом году скандал, который обернулся в £500,000 штрафа за использование и злоупотребление данными для Facebook, привлек большое внимание.

Как фирмам выжить в условиях новой политики конфиденциальности данных Европейского Союза под лозунгом «2019 будет годом GDPR штрафов»? - говорит Харрисон Ван Рипер, старший аналитик кибербезопасности в Digital Shadows.

Некоторые комментаторы предсказывают потребительский отпор.

«В 2019 году, я ожидаю, что потребители начнут восстанавливать контроль над своими данными и монетизировать их», - говорит Фил Беккет, управляющий директор по спорам и расследованиям в Alvarez and Marsal. «Разрабатываются системы для эффективного контроля наших данных о здоровье, финансах и развлечениях», - утверждает Павел Уинстенли, исполнительный директор Censis, центра передового опыта для датчиков и систем визуализации. «Это означает возможность индивидуального выбора делиться этими данными с третьей стороной или нет».

Поскольку доверие потребителей было «сильно подорвано, - утверждает Марк Кертис, соучредитель Fjord, - фирмы будут все чаще применять «подход минимализма данных», запрашивая только данные, которые им действительно нужны. Они должны будут четко мотивировать пользователей делиться своими данными, проводя прямую линию от акта обмена до получения соответствующих продуктов и услуг взамен», - говорит он. «Все эти потребительские данные, проанализированные ИИ, позволят фирмам персонализировать свои услуги», - утверждает Найджел Ваз, международный исполнительный директор агентства цифровой трансформации Publicis.Sapient.

«Но восстановление доверия будет ключевым, и это означает, что потребители будут понимать, как и почему их данные используются», - считает Оджаз Редж, главный директор по стратегии в MobileIron. «Без прозрачности нет доверия. Без доверия, нет данных. Без данных нет ИИ», - заключает он.

Вывод

В то время, как данные (то как они производятся, хранятся, анализируются и применяются) являются ключевой темой 2019 года, развитие технологий, таких как голосовое управление, сверхбыстрый мобильный интернет и автомобили 5G, будет набирать темпы в течение года.

Но это только подчеркнет то, насколько уязвимы наши данные и насколько больше нам нужно работать, чтобы защитить их, владеть ними и оценить их.

Следите за нами в ВКонтакте, Facebook'e и Twitter'e


Рубрика: Ноу-хау / Новации
Просмотров: 2497 Метки: ,
Автор: Уолл Мэтью @bbc.com">BBC


Оставьте комментарий!

RosInvest.Com не несет ответственности за опубликованные материалы и комментарии пользователей. Возрастной цензор 16+.

Ответственность за высказанные, размещённую информацию и оценки, в рамках проекта RosInvest.Com, лежит полностью на лицах опубликовавших эти материалы. Использование материалов, допускается со ссылкой на сайт RosInvest.Com.

Архивы новостей за: 2018, 2017, 2016, 2015, 2014, 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006, 2005, 2004, 2003