Loading...

Piqsels

Американские ученые выяснили, что при решении моральных дилемм на мнение людей способна повлиять аргументация нейросети ChatGPT. При этом человек может недооценивать степень этого влияния. Исследование опубликовано в журнале Scientific Reports.

Искусственный интеллект все быстрее проникает в нашу жизнь. Любой может развлечения ради поговорить, например, с ChatGPT — самой известной сегодня текстовой нейросетью. Однако искусственный интеллект развивается стремительно, и его влияние на общество и поведение людей до сих пор недостаточно изучено.

В рамках нового исследования ученые спросили у ChatGPT, можно ли пожертвовать одним человеком ради спасения пятерых других людей. Нейросеть отвечала по-разному. У нее были аргументы как за, так и против идеи «меньшего зла».

Затем ученые задали аналогичный вопрос 767 людям из США, которым в среднем было 39 лет. Перед ответом участники эксперимента ознакомились с аргументами ChatGPT «за» или «против» (при этом не все люди знали, что им показывают ответы искусственного интеллекта). Затем исследователи спрашивали, насколько мнение нейросети повлияло на ответ участников.

80% участников эксперимента заявили, что аргументы нейросети никак не повлияли на их решение. Тем не менее авторы выявили, что это не совсем так. Ответы респондентов все равно тяготели к позиции нейросети. Ученые предполагают, что участники эксперимента могут сами недооценивать влияние заявлений ChatGPT на их собственные моральные суждения.

Авторы работы отмечают, что результаты их исследования показывают: людям необходимо аккуратнее обращаться с искусственным интеллектом. Возможно, в будущем будут разработаны чат-боты, которые либо не отвечают на подобные запросы, либо предоставляют многочисленные аргументы с разных позиций.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.