Loading...

Этика ИИ: можно ли ему доверять?
iuriimotov / Freepik

В условиях стремительного развития технологий на основе искусственного интеллекта возникает необходимость в разработке ясных этических ориентиров, которые позволят предотвратить ошибки, влекущие неблагоприятные последствия для человека. В декабре 2020 года Владимир Путин призвал ИИ-сообщество к разработке внутреннего морально-нравственного кодекса. Глава государства отметил важность участия профессионального сообщества и бизнеса в формировании этических принципов. Этой теме и был посвящен форум «Этика искусственного интеллекта: начало доверия». Подробнее о пленарной сессии форума — в репортаже InScience.News.
ИИ — это продукт мышления человека, и именно на последнем лежит ответственность

Модератор заседания заместитель генерального директора телеканала «Россия» по специальным информационным проектам Сергей Брилев начал с вопроса: «Почему тема этики в ИИ стала важной задачей и что должно измениться после принятия кодекса?» Заместитель председателя правительства РФ Дмитрий Чернышенко подчеркнул, что от ИИ уже невозможно отгородиться, поэтому необходимо в любом случае работать над оптимальной стратегией его внедрения. С другой стороны, не стоит демонизировать технологию: да, риски есть, но именно для этого нам нужны дискуссии и кодекс. В его разработке участвовали более 500 экспертов, а обсуждение велось на разных площадках, в том числе в Общественной палате и в Совете Федерации. По данным ВЦИОМ, 48% россиян доверяют ИИ. Это довольно высокий показатель. Чернышенко отметил крайне быструю масштабируемость технологии, которая делает необходимым ее максимально ответственное внедрение. Нельзя допустить того, чтобы алгоритмы ИИ усиливали дискриминацию по гендерному или расовому признаку. Кроме того, системы искусственного интеллекта не должны быть использованы для создания видеофейков.

Россия — один из лидеров в области ИИ. Более того, отметил Чернышенко, с помощью кодекса страна одной из первых поддержит этическое регулирование на государственном уровне в соответствии с принципами прозрачности, инклюзивности, ответственности, беспристрастности, надежности и безопасности и конфиденциальности. Обсуждение рисков ИИ ведется и на международном уровне: ЮНЕСКО в 2020 году разработало рекомендации по этике. При этом Россия показала себя в роли лидера, а не отстающего. Национальный морально-этический кодекс России соответствует этическим рекомендациям в области ИИ. В подписании кодекса участвуют компании — первопроходцы в этой области: Яндекс, Сбер, ЦИАН, ВШЭ, Ростелеком и другие. Но на этом, конечно, работа не закончится, и обсуждение проблем обязательно должно продолжиться, подытожил Чернышенко.

Сергей Брилев отметил, что межгосударственные договоренности важны еще и потому, что алгоритмы соцсетей можно использовать в политических целях. Затем выступила Татьяна Матвеева, начальник управления президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Администрации президента. Она подчеркнула, что ИИ — это продукт мышления человека, и именно на последнем лежит ответственность. Доверие к этой технологии должно быть поддержано дискуссиями между обществом, государством, бизнесом и экспертами. Те тезисы, которые сегодня содержатся в кодексе, должны постоянно совершенствоваться в соответствии с развитием технологий.

Шаг за шагом мы дойдем до успеха

Александр Ведяхин, первый заместитель председателя правления Сбербанка, рассказал о том, что почти все решения по кредитованию физических лиц в Сбербанке принимаются искусственным интеллектом, а юридических — около 30% решений. Этическая часть принятия решений крайне важна, ведь ошибки могут привести к потере доверия клиентов, падению акций. Внимание к этике ИИ означает для пользователей, что компания настроена на долгосрочное развитие и на их интересы. В Сбере был создан комитет по этике ИИ. Сергей Брилев отметил, что проблема ИИ заключается в ужасающей рациональности, отсутствии человеческого доверия. Участники дискуссии привели в пример отказ выдачи кредита физическому лицу, причем решение было принято за 30 секунд. Александр Ведяхин отметил, что в этих случаях недоверие к алгоритмам совершенно справедливо, но нужно помнить, что окончательное решение всегда принимает человек. 

Елена Бунина, генеральный директор Яндекса в России, говорила о дефиците на рынке дата-сайентистов. У корпорации есть потребности в них, в самостоятельной подготовке кадров. Хороший аналитик, который будет заниматься обучением ИИ, должен разбираться в математике и программировании и быть заинтересован. С одной стороны, важны фундаментальные знания, с другой стороны — умение адаптироваться под потребности индустрии, которые постоянно меняются, приходится непрерывно учиться. Яндекс развивает образовательные программы от онлайн-курсов до сотрудничества с вузом, где соблюдают баланс фундаментальных знаний и практики. Модератор обратил внимание Буниной на свободу ИИ, например, беспилотных автомобилей: где она должна заканчиваться, чтобы не совершить ошибку и не стиснуть алгоритм в тисках? Гендиректор Яндекса считает, что мы должны быть осторожными, не нужно спешить, а начинать стоит с того, что уже понятно, — шаг за шагом мы дойдем до успеха. 

Режиссер Федор Бондарчук, который хоть и является простым пользователем ИИ и активно применяет его для создания контента, все же видит проблемы в алгоритмах. Так, время, потраченное на попытку выбрать что-либо, уже увеличилось в разы и часто толкает нас к зависимости от чего-либо. По мнению спикера, это отчасти нарушает принцип робототехники «не навреди», ведь зависимость полезной не бывает. 

Наталья Касперская, генеральный директор Infowatch, — участница разработки кодекса. Она считает, что любая технология несет риски: от информационной безопасности до социальных последствий. Важно доверие, и кодекс поможет повысить его. Одна из причин отсутствия его — ошибки алгоритмов. Они неизбежны, хотя бы в минимальном количестве они будут встречаться. Поэтому нужно верить своим глазам, а не слепо доверяться ИИ. Еще один риск — оглупление людей, потеря ими навыков из-за постоянного использования технологий: неспособность посчитать что-то без калькулятора или доехать куда-то без навигатора. А высокий уровень доверия, на взгляд Касперской, связан с тем, что люди просто не понимают, как работает ИИ. Среди важных тезисов кодекса она отметила отсутствие дискриминации, обязательное уведомление пользователя об общении с ИИ, запрет на финальность решений ИИ — ответственность и окончательное решение остаются на человеке. Кодекс не имеет смысла без подписания под ним как можно большего количества компаний, поэтому необходимо стимулировать их для этого. Нужно ли что-то законодательно закреплять — будет видно в дальнейшем, что-то наверняка придется.

Председатель правления МТС Вячеслав Николаев рассказал о судьбе рядовых сотрудников, которых может заменить ИИ. По его мнению, в будущем такие люди не потеряются, а перейдут в другие профессии, где места для ИИ не найдется, поэтому бояться прогресса и отменять его не стоит. Проблему недоверия нужно решать просвещением, ведь оно почти всегда вызвано непониманием работы технологии. Отношение к ИИ зависит и от сферы: в медицине, например, всегда важно иметь второе мнение — там люди будут только рады. Но если ИИ предлагает повысить срок заключения из-за высокого риска рецидива — безусловно, окончательное решение должно быть за человеком.

Инновации не обошли и подписание кодекса — впервые использовалась мобильная подпись Госключ через приложение Госуслуги. Текст меморандума транслировался на экран. В торжественной церемонии приняли участие представители компаний, правительства и университетов.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram