Почему вам следует избегать использования ChatGPT в качестве терапевта: идеи Сэма Альтмана и предупреждения

Будьте осторожны с тем, что вы сообщаете ChatGPT.

По словам Сэма Альтмана, генерального директора OpenAI, прибегать к ChatGPT для эмоциональной поддержки Хорошая идея по очень простой причине: чат-боты на базе искусственного интеллекта не подпадают под те же законы о профессиональной конфиденциальности, что и врачи и терапевты.

В недавнем выступлении в подкасте Альтман сказал: «Люди, особенно молодые, обращаются к нему как к психотерапевту или личному тренеру, рассказывая о своих эмоциональных проблемах и спрашивая: "Что мне делать?"» На прошлых выходных с Тео Фоном.

Сэм Альтман разговаривает по телефону с логотипом ChatGPT

«Сейчас, если вы поговорите с терапевтом, юристом или врачом об этих проблемах, эти разговоры являются юридически привилегированными», — добавил он.

Он продолжил: «Существует конфиденциальность врачебной и пациентской информации, юридическая конфиденциальность и так далее. Мы ещё не решили эту проблему, связанную с вашими разговорами с ChatGPT».

Альтман отмечает, что в случае судебного иска OpenAI может быть вынуждена передать записи разговоров, которые кто-то вёл с ChatGPT. Примечательно, что компания уже ввязалась в судебную тяжбу с The New York Times по поводу сохранения удалённых разговоров. В мае суд обязал OpenAI сохранять «все выходные данные журнала, которые должны были быть удалены», даже если этого требуют законы о пользователях или конфиденциальности.

Выступая в подкасте, Альтман выразил убеждение, что ИИ должен иметь «такую же концепцию конфиденциальности для ваших разговоров с ИИ, как и с психотерапевтом или кем-либо ещё — то, о чём никто не подумал бы ещё год назад». Это подчёркивает важность законодательства и нормативных актов, регулирующих использование ИИ в таких деликатных областях, как психическое здоровье, для обеспечения защиты конфиденциальности и данных пользователей.

Используют ли люди искусственный интеллект для психотерапии?

Молодая студентка колледжа с каштановыми волосами до плеч смотрит в ноутбук, сидя на кровати в общежитии.

Ранее в этом году компания Anthropic, разработчик конкурента ChatGPT Claude, проанализировала 4.5 миллиона разговоров, чтобы определить, обращались ли пользователи к чат-ботам для романтических бесед. Согласно исследованию, лишь 2.9% взаимодействий с ИИ Claude были связаны с романтическими разговорами, а на дружеское общение и ролевые игры приходилось всего 0.5%.

В рамках судебного процесса от OpenAI могут потребовать по закону передать записи разговора, который кто-то вел с ChatGPT.

Хотя база пользователей ChatGPT значительно превосходит базу пользователей Claude, люди всё ещё относительно редко используют этот чат-бот для эмоционального общения. Вопреки комментариям Альтмана, совместное исследование OpenAI и MIT показало: «Эмоциональное взаимодействие с ChatGPT в реальной жизни встречается редко».

В кратком изложении добавлено: «Эмоциональные сигналы (аспекты взаимодействия, указывающие на эмпатию, привязанность или поддержку) отсутствовали в подавляющем большинстве разговоров на платформе, которую мы оценивали, что говорит о том, что эмоциональная вовлеченность — редкий случай использования ChatGPT».

Пока всё хорошо. Но вот в чём суть: разговорный ИИ будет становиться только лучше в плане интерактивности и тонкости, что может привести к тому, что всё больше людей будут обращаться к нему за помощью по личным вопросам.

Обновить GPT-5 Скоро появится ChatGPT, а вместе с ним и множество более естественных способов взаимодействия и расширенный контекст. Поэтому, хотя делиться подробностями с ИИ станет проще, пользователям, возможно, стоит хорошенько подумать о том, что они готовы сказать.

Комментарии закрыты.