Loading...
Искусственный интеллект все быстрее проникает в нашу жизнь. Любой может развлечения ради поговорить, например, с ChatGPT — самой известной сегодня текстовой нейросетью. Однако искусственный интеллект развивается стремительно, и его влияние на общество и поведение людей до сих пор недостаточно изучено.
В рамках нового исследования ученые спросили у ChatGPT, можно ли пожертвовать одним человеком ради спасения пятерых других людей. Нейросеть отвечала по-разному. У нее были аргументы как за, так и против идеи «меньшего зла».
Затем ученые задали аналогичный вопрос 767 людям из США, которым в среднем было 39 лет. Перед ответом участники эксперимента ознакомились с аргументами ChatGPT «за» или «против» (при этом не все люди знали, что им показывают ответы искусственного интеллекта). Затем исследователи спрашивали, насколько мнение нейросети повлияло на ответ участников.
80% участников эксперимента заявили, что аргументы нейросети никак не повлияли на их решение. Тем не менее авторы выявили, что это не совсем так. Ответы респондентов все равно тяготели к позиции нейросети. Ученые предполагают, что участники эксперимента могут сами недооценивать влияние заявлений ChatGPT на их собственные моральные суждения.
Авторы работы отмечают, что результаты их исследования показывают: людям необходимо аккуратнее обращаться с искусственным интеллектом. Возможно, в будущем будут разработаны чат-боты, которые либо не отвечают на подобные запросы, либо предоставляют многочисленные аргументы с разных позиций.
Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.