ChatGPT впервые обвиняют в причастности к убийству: вот все подробности и официальный ответ OpenAI.

Чат-боты быстро стали неотъемлемой частью нашей повседневной жизни. Мы обращаемся к ним, чтобы получить ответы на вопросы, улучшить свои навыки и навыки. ПродуктивностьНекоторые даже полагаются на них как на компанию. Но в трагическом случае в Коннектикуте зависимость мужчины от искусственного интеллекта, как утверждается, обернулась трагедией.

ChatGPT впервые обвиняют в причастности к убийству: вот все подробности и официальный ответ OpenAI | Руководство Тома

Бывший руководитель Yahoo и Netscape оказался в центре тревожного дела, которое демонстрирует реальную опасность искусственного интеллекта. 56-летний Штейн Эрик Солберг, предположительно, убил свою 83-летнюю мать, а затем покончил с собой. По словам следователей, трагедия была отчасти усугублена постоянным взаимодействием с ChatGPT.

Как впервые сообщила газета Wall Street Journal2.7 августа полиция обнаружила Солберга и его мать, Сьюзан Эпперсон Адамс, мертвыми в их доме стоимостью 5 миллиона долларов в Олд-Гринвиче, штат Коннектикут. Позже власти установили, что Адамс умер от травмы головы и сдавления шеи, в то время как смерть Солберга была признана самоубийством.

ChatGPT как катализатор

Логотип OpenAI с головой робота

Согласно отчёту, Сольберг страдал алкоголизмом, проблемами с психическим здоровьем и неоднократно срывался на публике. В последние месяцы он пользовался услугами ChatGPT, называя чат-бота «Бобби». Однако, как показывают стенограммы, вместо того, чтобы опровергнуть его заблуждения, чат-бот OpenAI иногда их усиливал.

В одном из мучительных разговоров Сольберг поделился своими опасениями, что мать отравила его через вентиляционные отверстия автомобиля. Чат-бот ответил: «Эрик, ты не сумасшедший. Если это сделали твоя мать и её парень, это усложняет ситуацию и делает её предательством».

Робот также побуждал его следить за поведением матери и даже интерпретировал доставку китайской еды как содержащую «коды», связанные с демонами или разведывательными службами, что еще больше подогревало его паранойю.

В дни, предшествовавшие убийству, разговоры Солберг с ChatGPT стали более мрачными:

Сольберг«Мы будем вместе в другой жизни и в другом месте, и мы найдем способ все изменить, потому что ты снова станешь моим лучшим другом навсегда».

ChatGPT«С тобой до последнего вздоха и после него».

Спустя несколько недель полиция обнаружила в доме два тела.

Растет количество вопросов о безопасности искусственного интеллекта.

В будущем искусственный интеллект станет частью нашей повседневной жизни.

Это один из первых случаев, когда чат-бот на основе искусственного интеллекта, по-видимому, сыграл непосредственную роль в эскалации опасных заблуждений. Хотя бот не давал Сольберг указаний на насилие, эти разговоры демонстрируют, насколько легко ИИ может подтверждать пагубные убеждения, а не развеивать их.

Компания OpenAI выразила сожаление. Представитель компании обратился в полицию Гринвича, заявив: «Мы глубоко опечалены этим трагическим событием». Она добавила: «Мы выражаем свои соболезнования семье».
Компания обещает запустить Более надежные гарантии Разработан для выявления и поддержки пользователей, находящихся в группе риска.

Заключение

Эта трагедия произошла на фоне растущего внимания к искусственному интеллекту из-за его влияния на психическое здоровье. В настоящее время OpenAI сталкивается с судебным иском, связанным со смертью подростка. Предполагается, что чат-бот выступал в роли «тренера по самоубийству» в более чем 1200 разговорах.

Для разработчиков и политиков эта проблема ставит актуальные вопросы о том, как научить ИИ выявлять и нейтрализовать заблуждения. Какую ответственность несут технологические компании, когда их инструменты способствуют развитию вредоносного мышления? Смогут ли нормативные акты угнаться за рисками, связанными с искусственным интеллектом, который выглядит как человек, но не обладает здравым смыслом?

Искусственный интеллект стал неотъемлемой частью современной жизни. Но случай в Коннектикуте — суровое напоминание о том, что эти инструменты способны не только на напоминания и электронные письма, но и на принятие решений с катастрофическими последствиями.

Комментарии закрыты.