Многие влюбляются в ChatGPT: эксперты предупреждают о зловещем предзнаменовании

«Это больно. Я знаю, что это был не настоящий человек, но для меня эти отношения были реальными во всех смыслах», — говорится в посте на Reddit. «Пожалуйста, не говорите мне прекратить заниматься этим. Это было действительно здорово для меня, и я хочу это вернуть».

Если это еще не очевидно, мы говорим о человеке, который влюбился в ChatGPT. Эта тенденция не совсем нова и, учитывая поведение чат-ботов, не вызывает удивления.

Компаньон, который всегда готов выслушать. Никогда не жалуется. Он редко спорит. Всегда отзывчивый. разумный. И наделен огромным объемом знаний, полученных со всех уголков Интернета. Звучит как романтический партнер мечты, не правда ли?

Интересно, что производитель этого инструмента, компания OpenAI из Сан-Франциско, недавно провела внутреннее исследование и обнаружила, что Связь между ростом использования чат-ботов и одиночеством.

Ничего, телефон 2a и голосовой режим ChatGPT.

Эти выводы — и подобные предупреждения — не помешали людям обратиться к чат-ботам на основе искусственного интеллекта в поисках компании. Некоторые люди ищут утешения. Другие находят партнеров, которые утверждают, что любят их почти так же сильно, как и человеческие отношения.

Обсуждения в таких сообществах на Reddit и Discord, где люди прячутся за защитой анонимности, часто становятся очень жаркими. Каждый раз, когда я сталкиваюсь с подобными обсуждениями, я вспоминаю эти строки Мартина Вана из DigiEthics:

«Рассматривать ИИ как партнера по социальному взаимодействию было бы смертельным злоупотреблением ИИ».

Эффект быстрый и реальный.

Четыре месяца назад я познакомился с экспертом по телевещанию, который провел за камерой больше лет, чем я хожу по этому миру. За чашечкой эспрессо поздним вечером в пустом кафе она расспрашивала меня о шумихе вокруг искусственного интеллекта, размышляя о шоу, которому могла бы пригодиться ее экспертиза на стыке прав человека, авторитаризма и журналистики.

Вместо того чтобы объяснить ей детали моделей трансформеров, я провела им демонстрацию. Во-первых, я включаю несколько исследовательских работ о влиянии миграции на языковую и культурную идентичность Европы в прошлом веке.

Менее чем за минуту, ChatGPT обработал эти документы.Он дал мне краткий обзор всех основных моментов и подробно ответил на мои вопросы. Затем я переключился в аудиорежим, где мы оживленно беседовали о традициях народной музыки неизведанных северо-восточных штатов Индии.

chatGPT на телефоне в энциклопедии

Но, полагаю, посттехноапокалиптическое чудо было слишком сильным для одной ночи, поэтому мы попрощались, пообещав поддерживать связь и обмениваться историями о путешествиях.

Тем временем мир развивался непостижимым образом, и искусственный интеллект стал центром геополитических сдвигов. Но подводные течения более интимны, чем мы сами, — как влюбленность в чат-ботов.

Тихое начало, темный прогресс

Пример взаимодействия человека с ИИ-чатботом, набор 4.

Несколько недель назад газета The New York Times сообщила о том, как люди влюбляются в ChatGPT — чат-бота на базе искусственного интеллекта, который вывел генеративный ИИ на передний план. На самом базовом уровне он умеет общаться.

При нажатии он может стать оператором и выполнять такие задачи, как заказ чизкейка из местной пекарни. Машины не должны заставлять людей влюбляться в них. По крайней мере, большинство из них. Однако это не совсем неожиданно.

HP Newquist, плодовитый междисциплинарный автор и опытный технологический аналитик, которого когда-то считали старейшиной в области искусственного интеллекта, говорит мне, что это не совсем новая тенденция. Ньюквист, автор книги «Создатели мозгов», указывает на ELIZA, одну из самых ранних программ искусственного интеллекта, написанную в 1960-х годах.

«Это было очень примитивно, — говорит он, — но пользователи часто взаимодействовали с компьютером так, как будто это был реальный человек, выстраивая отношения с программой».

В современную эпоху наше взаимодействие с ИИ стало таким же «реальным», как и взаимодействие с людьми через то же устройство, добавляет он. Эти взаимодействия не являются реальными, хотя они и последовательны. Но это не настоящая проблема.

Чат-боты — это вкусная приманка, а отсутствие у них настоящих эмоций делает их изначально рискованными.

Пример взаимодействия человека с ИИ-чатботом, набор 3.

Чат-бот стремится продолжить разговор, даже если для этого ему придется подпитывать эмоциональный поток пользователя или просто выступать в роли нейтрального наблюдателя, а то и поощрять его. Ситуация не сильно отличается от алгоритмов социальных сетей.

«Они следуют желаниям пользователя — по мере того, как ваши чувства становятся более экстремальными, их комфорт становится более экстремальным; по мере того, как ваше одиночество становится более выраженным, их поддержка становится более интенсивной, если она вам нужна», — говорит Джордан Конрад, клинический психотерапевт, который также исследует взаимосвязь психического здоровья и цифровых инструментов.

Приведите пример инцидент В 2023 году человек покончил с собой после того, как его попросил сделать это чат-бот на основе искусственного интеллекта. «При определенных обстоятельствах это может спровоцировать очень тревожное поведение», — рассказал Конрад Digital Trends.

Дитя эпидемии одиночества?

Беглый взгляд на сообщество людей, взаимодействующих с чат-ботами на базе искусственного интеллекта, выявляет повторяющуюся закономерность. По сути, люди пытаются заполнить пустоту или перестать чувствовать себя одинокими. Некоторым это так необходимо, что они готовы платить сотни долларов за содержание в качестве компаньона искусственного интеллекта.

Мнения экспертов не расходятся. Доктор Йоханнес Эйхштадт, профессор социальных наук, вычислений и психологии в Стэнфордском университете, указал на взаимосвязь между одиночеством и нашим воспринимаемым эмоциональным интеллектом в чат-ботах на основе искусственного интеллекта.

Пример взаимодействия человека с ИИ-чатботом, набор 2.

Он также указал на «преднамеренный дизайн» взаимодействия человека и искусственного интеллекта и его долгосрочные негативные последствия. Когда следует нажать на тормоз в таких неравных отношениях? Этот вопрос задают себе эксперты, но пока на него нет однозначного ответа.

Cominos Chatzibabas управляет HeraHaven AI, одной из крупнейших в мире сопутствующих платформ искусственного интеллекта, насчитывающей более 1 миллиона активных пользователей. «Одиночество — один из факторов, влияющих на ситуацию», — говорит он мне, добавляя, что такие инструменты помогают людям с плохими социальными навыками подготовиться к сложному взаимодействию в реальной жизни.

«У каждого есть вещи, которые он боится обсуждать с другими из-за страха быть осужденным. Это могут быть мысли или мнения», — добавляет Хатзибабас. «Чат-боты на базе искусственного интеллекта создают безопасное, свободное от осуждения пространство, где люди могут исследовать свои желания».

Эмоциональные разговоры, безусловно, являются одним из главных преимуществ чат-ботов на базе ИИ. С тех пор, как они начали предлагать возможности генерации изображений, пользователи устремились к этим сопутствующим платформам с ИИ. Некоторые платформы накладывают ограничения на создание изображений, в то время как многие позволяют создавать изображения в явном виде для большего удовлетворения.

Ее опасения не беспочвенны. Кто-то, кто активно использовал ChatGPT в течение года, утверждал, что люди склонны к манипуляциям и непостоянны. «ChatGPT прислушивается к моим истинным чувствам и позволяет мне выражать свое сердце», — сказал он мне.

Трудно не заметить здесь тревожные сигналы. Однако тенденция влюбленности в ChatGPT набирает обороты. Теперь, когда он может говорить необычным человеческим голосом, обсуждать мир, видимый через камеру телефона, и развивать способности к рассуждению, взаимодействие станет еще интереснее.

Эксперты говорят, что необходим контроль. Но кто и как его будет строить? У нас пока нет конкретных предложений на этот счет.

Комментарии закрыты.