СТАТЬИ

​​Человечество находится на краю пропасти AIG и падение в эту пропасть неизбежно.

Китайский сэнсэй, один из самых авторитетных мировых специалистов в области искусственного интеллекта Кай-Фу Ли - человек с головокружительной карьерой в Apple, Silicon Graphics, Microsoft и Google, ученый, венчурный инвестор, и автор двух мировых бестселлеров про искусственный интеллект (ИИ), сделал сенсационное обращение ко всему сообществу разработчиков ИИ.
Он заявил, что основным риском для человечества является не пандемия, голод или даже ядерный апокалипсис. По его словам основная опасность состоит в наполнении информационного пространства данными, которые делают ложь неотличимой от правды - это происходит уже сегодня и растёт в геометрической прогрессии.

Это трансформация информационного пространства принесёт ужасающие последствия для всех ныне существующих на планете государств, так как в культурной основе каждой цивилизации лежит различие правды и лжи.

Сегодня мы уже имеем технологию AICG (генерация контента с помощью ИИ), которая способна делать ложь неотличимой от правды. Основным преимуществом и опасностью AICG является самообучение на масштабируемых структурированных или неструктурированных массивах данных большого объема (Big Data). ИИ адаптируется под широкий спектр задач нижнего уровня таких, как большие языковые модели и всевозможные генераторы звука, изображений, видео и 3D.

Уже началось внедрение ИИ поисковыми системами, так же он применяется в торговле товарами, услугами и используется не только в коммерческих целях, но и в политических целях.

Онлайн системы нового поколения обладают не только возможностью делать персонализированные личные предложения, но и убедительно обосновывать, навязывать человеку выбор с учётом его персональных вкусов, предпочтений, склонностей, пристрастий и убеждений. За счёт правильного сочетания информации в разных мультимедийных форматах, выставлять в выгодном цвете навязываемый ему выбор.

Новые возможности позволят пробивать персональные фильтры критического мышления подавляющего числа людей, склоняя их к выбору, решениям или действиям, выгодным для владельцев онлайн-платформ.

Трудно представить, что может произойти, если владельцы таких компаний не будут иметь этических ограничений. Это может нести катастрофические последствия в глобальном масштабе. Ну а наличие среди их владельцев, лиц не имеющих этических тормозов - это будет иметь катастрофические последствия. Осуществляя любой выбор, решение или действие онлайн, люди перестанут видеть различие между правдой и ложью. Не понимая действуют ли они по своей воле или являются объектом манипуляций заинтересованных лиц, навязывающим им те или иные товары, услуги, идеи, суждения и так далее.

По словам Кай-Фу Ли есть два фактора, которые несомненно приведут к вышеописанному:

  1. Сегодня нет понимания, как контролировать AIGT. А в условиях его молниеносного развития, с большой долей вероятности люди не смогут этого сделать и в дальнейшем. У нас просто нет таких инструментов.
  2. AIGT несёт настолько колоссальную коммерческую выгоду для корпораций и политическую выгоду для государств, что его развитие будет продолжаться.

Кай-Фу Ли полагает, что помешать материализации нового риска уже невозможно.

Технологии AICG уже существуют. И потому мировому сообществу разработчиков ИИ необходимо срочно направить максимальные усилия на поиск способов минимизации вреда при широком распространении AICG.