Loading...

Фотобанк Moscow-Live / Hemang Deepak Ratanghayra / Flickr

Главной темой заседания Президиума Российской академии наук, состоявшегося 23 ноября, стал искусственный интеллект в контексте информационной безопасности. Ученые обсудили возможные угрозы технологиям ИИ, а также экономические и этические вопросы. По результатам заседания было решено создать Совет по безопасности искусственного интеллекта. Подробнее — в репортаже InScience.News.
О применениях и безопасности

Во вступительном слове президент РАН Александр Сергеев упомянул, что при Президиуме уже существует Совет по искусственному интеллекту (ИИ). Кроме того, в области информационной безопасности работает несколько институтов, в том числе Институт системного программирования. Однако кибербезопасность ИИ представляет собой совершенно новый пласт вопросов.

Первым с докладом о безопасности технологий искусственного интеллекта выступил директор ФИЦ «Информатика и управление» РАН, декан ВМК МГУ академик Игорь Соколов. «Искусственный интеллект — это методы, которыми решаются те задачи, для которых отсутствует или неприемлем по временным ограничениям известный алгоритм решений», — рассказал он.

ИИ применяется там, где невозможно решить проблему с помощью дифференциальных уравнений. Также его используют при работе с большими объемами данных. Причем к ИИ относится не только машинное обучение, но и многочисленные методы обработки текста, диалоговые системы, графовые вычисления (частным случаем которых являются нейросети), а также методы автоматизации рассуждений, планирования поведения, автоматический анализ речи и т. д. По словам академика, в России существует хорошая теоретическая база, однако современные фундаментальные исследования в области ИИ требуют высокопроизводительного оборудования.

«Нужна другая аппаратная база. Обычные центральные процессоры, имеющие общую память, неэффективны для решения матричных уравнений. Поэтому сейчас активно развивается область под названием “графические процессоры”, или “графические ускорители”, в десятки и сотни раз увеличивающие производительность ЭВМ», — рассказал Игорь Соколов.

Системы ИИ подвергаются опасности в основном из-за огромной размерности и неопределенности данных. При этом уязвимость существует на любом этапе применения ИИ — искажены могут быть обучающие данные, сами модели или объекты, на которых они применяются. Прежде чем использовать искусственный интеллект, необходимо решить все эти проблемы. Кроме того, необходима хорошая классификация случайных процессов, на которых основано машинное обучение.

В ходе дальнейшего обсуждения перспектив ИИ Александр Сергеев отметил, что технология позволяет обрабатывать данные и получать информацию людям без соответствующего образования, что может в будущем поставить под угрозу важность естественных наук. Кроме того, он заявил, что академические учреждения, такие как РАН, в настоящее время находятся «на обочине» области, а основными организациями, занимающимися ИИ в России, стали Сбер и Сколтех.

О рисках

Следующим докладчиком стал директор Института системного программирования РАН Арутюн Аветисян. «Последние десятилетия, а особенно последние пять лет, видно, что ИИ внедряется во все отрасли экономики. Неиспользование ИИ чревато отставанием и невозможностью трансформации экономики в целом и даже госуправления», — заявил он.
При этом математический аппарат ИИ, как правило, достаточно простой, а эффективность вычислений достигается суперкомпьютерными мощностями. Однако до сих пор не существует так называемого «сильного ИИ», который может решать задачи на уровне человека и делать интеллектуальные выводы.

В случае ИИ нельзя, как в случае обычного программного обеспечения, защитить сразу все. Необходима защита от намеренных и случайных ошибок на каждом уровне применения ИИ. Кроме того, существуют и косвенные риски. Например, из-за большого веса в модель может попасть вирус, который не сможет увидеть антивирус. Кроме того, если отечественные модели ИИ будут выходить на мировой рынок, будет необходим и инструментарий мирового уровня.

Академик также рассказал о шести Центрах доверенного искусственного интеллекта, созданных ИСП РАН в рамках правительственной программы «Цифровая экономика». Центры занимаются созданием методик и соответствующих аппаратно-программных платформ для разработки и верификации технологий с требуемым уровнем доверия. Для решения этих проблем важно объединять различные организации. Так, вместе с ИСП РАН в этой сфере работают Роскосмос, Лаборатория Касперского, МГУ и другие. Не стоит также забывать и про международное сотрудничество.

Президент РАН Александр Сергеев подчеркнул необходимость разработки доверенных технологий ИИ, а также «логически прозрачного» ИИ. Ведь, возможно, сейчас известно не обо всех слабостях программ машинного обучения, которые представляют собой «черные ящики». Создание доверенного ИИ позволит понимать логику системы и видеть ее скрытые недостатки.

Об этике

После этого выступил председатель Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований Владислав Лекторский. Он начал с того, что отличительными особенностями человеческого интеллекта являются рациональность и разумность. ИИ обладает разумностью, однако совершенно иной, что вызывает множество гуманитарных и социальных проблем.

«Когда возникли первые разработки в области ИИ, у ряда исследователей сразу появилась идея понять самого человека как некое вычисляющее устройство по аналогии с моделями ИИ», — сказал Владислав Лекторский.

ИИ вновь поставил человечество перед вопросом о том, что такое человек и где границы индивидуальности. Он также заставил задаться новыми вопросами: можно ли понять сознание как вычислительную процедуру и где находятся пределы этого подхода. ИИ также вызывает и множество юридических вопросов. Например, технологии, основанные на ИИ, могут вести себя автономно, совершать действия, иногда ставящие под угрозу жизнь человека. Кто должен нести за них ответственность? Разработчики программы, хозяин устройства, пользователь? Или, может быть, сама система? Другая сложность возникнет, когда искусственный интеллект будет диктовать человеку, что делать. При этом человек не будет получать никакого причинного объяснении. Ему останется только принять то, что он не понимает. Создание этического кодекса ИИ также осложнено тем, что в разных культурах разное понимание морали, о самой сути которой философы ведут споры до сих пор.

О войнах и пропаганде

Академик Игорь Каляев выступил с докладом об аспектах ИИ, требующих научного обоснования. «В настоящее время отсутствует научно-обоснованное определение ИИ. Существует огромное количество определений, большинство из которых носит расплывчатый характер», — рассказал он.

Неточность определения становится причиной спекуляций. Кроме того, следует различать развитие нейроморфных технологий, результативность которых достигается за счет принципиально новых методов, и простое увеличение вычислительной мощности компьютеров, с которым сопряжены все последние успехи ИИ.

По мнению академика, ИИ в настоящее время становится мощнейшим оружием в «ментальных войнах», направленных на уничтожение самосознания противника. Поэтому ИИ должен быть не только доверенным, но и работать в интересах страны. Для этого необходимо сформулировать и внедрить в практики научно обоснованное определение, разработать методику оценки доверия ИИ и внедрить этот стандарт оценки.

После этого профессор РАН Константин Воронцов рассказал об использование ИИ для обеспечения безопасности. «IT-технологии немного вышли из-под нашего контроля. Поисковые системы с их ранжированием — это ИИ. Рекомендательные системы — это тоже ИИ. Эти явления в социуме отражаются в виде информационных пузырей, в виде появления ботоферм, которые имитируют общественное мнение при небольшой трате ресурсов. Распространение фейков, с одной стороны, генерируется искусственным интеллектом, с другой — люди на протяжении всей истории лгали, распространяли слухи и сплетни. С одной стороны, с этим мы живем всю жизнь, а с другой, технологии интенсифицировали это явление так, что оно стало влиять на нашу безопасность», — рассказал он.

Сейчас активно развиваются модели ИИ, нацеленные на обнаружение фейковых новостей, вычисление обмана, проверку фактов, выявление позиций и разногласий, оценку надежности источников информации. Однако о том, как СМИ распространяют фейковые новости и ведут информационные войны, известно крайне мало. Поэтому важная задача — расширить область применения ИИ до всех видов потенциально опасного дискурса, что потребует междисциплинарного подхода.

О значимости

Далее выступил заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов. «От эффективности и скорости разработки и внедрения перспективных информационных технологий в ближайшем будущем в существенной степени будет зависеть успех развития государства в социально-экономической и оборонной сферах. Это, в частности, закреплено в принятой в июне этого года стратегии национальной безопасности», — рассказал Шойтов.

В рамках нацпроекта «Цифровая экономика» на базе ИСП РАН были созданы вышеупомянутые Центры доверенного искусственного интеллекта. Кроме того, многочисленные теоретические исследования ведутся в Академии криптографии.

Пример задачи, которую решает Академия криптографии, — вопрос обезличивания баз данных, содержащих информацию о людях. Наиболее эффективным решением считается создание обезличивающих алгоритмов ИИ, но задача это непростая. Второй пример — использование беспилотного транспорта. К 2024 планируется запустить первые беспилотные грузовики, в которых ИИ получит полное управлении и будет принимать самостоятельные решения.

В последнем докладе академик Геннадий Красников рассказал об аппаратной части технологий искусственного интеллекта, в том числе о появлении спайковых нейросетей, в которых нейроны обмениваются короткими импульсами, что еще больше приближает искусственный интеллект к биологическому, а также о «не-фон-Неймановской» архитектуре нейросетей.

Заседание завершило обсуждение темы безопасности искусственного интеллекта. Заместитель президента РАН Владимир Иванов призвал помнить об опасностях ИИ для общества и последствиях его применения. По его мнению, всегда стоит задумываться о необходимости применения ИИ, а также об экономической выгоде.

По результатам заседания было решено создать академический Совет по безопасности искусственного интеллекта, который в первую очередь будет заниматься научными вопросами в области развития ИИ.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.