Исследование: чрезмерное использование ChatGPT может привести к эмоциональной привязанности
OpenAI, судя по всему, еженедельно анонсирует новые модели ИИ для улучшения своего чат-бота ChatGPT для 400 миллионов пользователей. Однако легкость, с которой используется этот инструмент ИИ, говорит о том, что даже хорошей вещью можно злоупотреблять.
Компания, занимающаяся разработкой искусственного интеллекта, сейчас изучает потенциальные психологические последствия, которые ChatGPT может оказать на своих пользователей. Он был опубликован OpenAI последствия Двухчастное исследование Исследование, проведенное совместно с MIT Media Lab, выявило связь между более широким использованием чат-бота ChatGPT и усилением чувства одиночества среди пользователей.
Каждая организация провела независимое исследование, а затем результаты были объединены в сводный вывод. В течение месяца в ходе исследования OpenAI было изучено «более 40 миллионов взаимодействий с ChatGPT», которые не предполагали вмешательства человека для сохранения конфиденциальности пользователей. Тем временем Массачусетский технологический институт провел мониторинг почти 1000 участников, используя ChatGPT Более 28 дней. Эти исследования еще не прошли рецензирование.
Исследование Массачусетского технологического института было посвящено изучению различных функций использования, которые могут влиять на эмоциональный опыт пользователей при взаимодействии с ChatGPT, включая использование текста или голоса. Результаты показали, что оба средства массовой информации могли вызывать чувство одиночества или влиять на социальное взаимодействие пользователей в течение периода исследования. Интонация голоса и выбор темы также были важными моментами сравнения.
Использование нейтрального тона в голосовом режиме ChatGPT с меньшей вероятностью приводило к негативному эмоциональному результату у участников. Между тем, исследование выявило связь между личным общением участников с помощью ChatGPT и повышенной вероятностью ощущения одиночества; Однако эти эффекты были краткосрочными. Даже те, кто использует текстовый чат для общения на общие темы, столкнулись с участившимися случаями эмоциональной зависимости от чат-бота.
В исследовании также отмечено, что те, кто считал ChatGPT своим другом, и те, у кого уже была сильная тенденция к эмоциональной привязанности в отношениях, с большей вероятностью чувствовали себя одинокими и эмоционально зависимыми от чат-бота во время участия в исследовании.
Исследование OpenAI добавило дополнительный контекст, поскольку его результаты в целом свидетельствовали о том, что взаимодействие с ChatGPT в эмоциональных целях было редким. Кроме того, исследование показало, что даже среди активных пользователей, которые использовали расширенную функцию голосового режима чат-бота и с большей вероятностью говорили, что считают ChatGPT другом, эта группа участников испытывала более низкие эмоциональные реакции при взаимодействии с чат-ботом.
Компания OpenAI пришла к выводу, что цель этих исследований — понять проблемы, которые могут возникнуть при использовании ее технологий, а также иметь возможность делать прогнозы и разрабатывать примеры того, как могут использоваться ее модели.
Хотя OpenAI отмечает, что ее основанное на взаимодействии исследование имитирует поведение реальных людей, немало реальных людей признались на публичных форумах, Нравится Реддит, используя ChatGPT вместо того, чтобы идти к психотерапевту со своими чувствами.
Комментарии закрыты.