Loading...

Freepik

Международная группа ученых разработала систему под названием TrustNet Framework, которая может помочь лучше понять и укрепить доверие к ИИ для решения глобальных проблем, таких как дезинформация, дискриминация и военные конфликты. Для этого команда проанализировала 34 459 научных статей из разных областей, посвященных доверию. Работа позволяет понять проблемы доверия к ИИ и создать эффективные и этичные решения, которые снизят связанные с ним риски. Ее результаты опубликованы в журнале Humanities & Social Sciences Communications.

Искусственный интеллект способен улучшить жизнь человека. Например, ИИ-компаньоны могут оказывать эмоциональную поддержку пожилым людям, помогая справляться с одиночеством и стрессом. Кроме того, инструменты на основе ИИ могут создавать контент и выполнять рутинные задачи, что повышает продуктивность и экономит время. Однако существуют и риски: алгоритмы, применяемые при найме сотрудников, могут быть предвзятыми, как и люди. Также возникает вопрос, может ли ИИ эффективно отличать правду от лжи. Эти проблемы требуют внимательного изучения и ответственного подхода к развитию технологий.

Исследователи создали систему под названием TrustNet Framework для изучения и укрепления доверия к искусственному интеллекту (ИИ) с целью противодействия дезинформации, борьбы с дискриминацией и обеспечения безопасности в военных и гражданских применениях ИИ. В рамках работы ученые провели анализ 34 459 научных статей из разных областей, опубликованных за последние 30 лет и посвященных теме доверия. Исследование позволило выявить, как раскрывается эта тема в различных научных сферах, насколько глубоко в нее вовлечены эксперты из разных областей, а также заинтересованные стороны.

Ученые использовали метод сетевого анализа, чтобы отобразить связи между разными областями знания, участвовавшими в исследовании доверия. Они обнаружили, что большая часть работ была проведена внутри отдельных дисциплин (мультидисциплинарность) или между смежными областями (междисциплинарность), но практически не было трансдисциплинарных исследований. Это предполагает не только объединение знаний разных наук, но и активное участие представителей индустрии, политиков и пользователей ИИ.

Основываясь на этих данных, команда предложила новый подход — TrustNet Framework. Он включает три основные этапа. Первый этап — «трансформация проблемы», когда глобальная задача доверия к ИИ связывается с конкретными научными знаниями. Второй этап — «получение новых знаний», который включает совместную работу ученых и заинтересованных сторон над уточнением ролей и созданием интеграционной концепции. В рамках этой фазы объединяются ключевые элементы доверия — надежность, риск, пользователь, сферы применения и контекст/территория применения. Третий этап — «трансдисциплинарная интеграция», на котором полученные результаты оцениваются с точки зрения практической и теоретической пользы и передаются в общество и науку.

Для создания новой системы ученые привлекли специалистов в области инженерии, психологии, этики, социологии, права и других отраслей. Методика включала организацию семинаров и рабочих встреч, на которых участники обсуждали и интегрировали различные точки зрения, а также разрабатывали практические рекомендации для повышения доверия к ИИ в разных сферах, например, в автомобильной индустрии, медицине и информационных технологиях.

В результате исследователи подчеркнули необходимость выхода за рамки академических лабораторий и вовлечение широкого круга участников — разработчиков ИИ, пользователей, законодателей и общественности. Такой подход позволяет учитывать социальные, этические и технические аспекты доверия, создавать более прозрачные и ответственные системы ИИ и лучше понимать, как разные люди воспринимают риски и выгоды технологии.

«Доверие — основа всех здоровых отношений — между людьми и технологиями. ИИ изменит общество, но доверие — между людьми, системами и институтами — в конечном счете должно определять то, как мы его создаем и используем», — говорит  Фрэнк Крюгер из Университета Джорджа Мейсона.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.