В каких областях искусственный интеллект (ИИ) может дать вам дельные советы по карьере? Чего следует избегать?
Новое исследование показывает, что Американский журнал психиатрии Более 100 000 взрослых в США получают сеансы разговорной терапии, в то время как зависимость от одних лишь психиатрических препаратов снижается. Исследования также показывают, что всё больше пациентов соблюдают режим лечения, и что расширение телетерапии способствует этому. Искусственный интеллект (ИИ) может справиться с телетерапией. ChatGPT разработан, чтобы стать вашим предпочтительным собеседником, работающим на основе передового искусственного интеллекта. Это означает, что он обучается на каждом взаимодействии и со временем совершенствуется, что поднимает вопрос: «Доверили бы вы чат-боту личные или профессиональные советы?» *Имейте в виду, что эффективность этих инструментов зависит от качества вводимых данных и способности пользователя критически оценивать предоставленные советы.*
Доверили бы вы совет роботу-терапевту?
Потенциал искусственного интеллекта (ИИ) в сфере человеческого взаимодействия неоспорим. Чат-боты разработали передовую технологию обработки естественного языка, которая позволяет вам вести беседы, подобные человеческим. Инструмент ИИ может генеративный Отвечаем на вопросы, помогаем писать скрипты, код и многое другое. Недавно у меня было короткое взаимодействие с чат-ботом по мобильному телефону, и я об этом не знал.
Я думал, что разговариваю с реальным человеком, когда позвонил в автосалон Nissan, чтобы узнать, починили ли мою машину. Женщина на другом конце провода была приветлива и отзывчива. У нас состоялся замечательный разговор, длившийся две минуты. Она дала мне доброжелательную обратную связь и прекрасно ответила на все мои вопросы. Но когда я задал конкретный вопрос о своей машине, он запнулся, назвав себя помощником с искусственным интеллектом и сказав, что переключит меня на того, кто сможет мне помочь.
Я был в шоке! Это удивление заставило меня почувствовать себя немного неловко, как будто меня разыграли.
Этот опыт помог мне понять, почему так много людей испытывают эмоциональную привязанность к помощникам на базе искусственного интеллекта, как если бы они были реальными людьми. Новое исследование, проведенное EduBirdie До такой степени, что 25% представителей поколения Z считают, что искусственный интеллект (ИИ) уже обладает самосознанием, а 69% говорят, что они вежливы с ChatGPT, отвечая «пожалуйста» и «спасибо», что показывает, насколько легко начать думать о них как о людях. Каждый восьмой человек даже доверился бы ИИ в вопросах, касающихся его коллег, а каждый десятый заменил бы своего начальника роботом, полагая, что это будет более уважительно, справедливо и, как ни парадоксально, более человечно.
Исследование EduBirdie показывает, что более половины представителей поколения Z признают, что искусственный интеллект (ИИ) превосходит их в решении творческих задач, а 44% полагают, что ИИ может захватить мир в течение следующих 20 лет. Когда дело доходит до карьеры, тревога становится еще сильнее: 55% опасаются, что в течение следующего десятилетия их заменит искусственный интеллект (ИИ), а двое из пяти уже рассматривают возможность смены карьеры, чтобы обеспечить себе средства к существованию в будущем.
Я поговорил с Эвери Морганом, руководителем отдела кадров EduBirdie. Морган предложил сбалансированную точку зрения на отношения поколения Z с ИИ. «Мы говорим о поколении, которое выросло на удобстве, скорости и мгновенном удовлетворении потребностей, поэтому неудивительно, что поколение Z рассматривает ИИ как нечто большее, чем просто инструмент», — пояснила она. «Для них это партнер по жизни, как для работы, так и для эмоциональной поддержки». Проблема, добавила она, в том, что поколение Z часто очень небрежно относится к информации, которую им предоставляют. Она утверждает, что опора на ИИ во всем, от общения до принятия решений, может подорвать их способность развивать настоящую активность и критически важные навыки в реальной жизни. *Примечание: крайне важно информировать поколение Z о важности проверки информации, предоставляемой ИИ, для обеспечения точности и надежности.*
Не зашли ли мы слишком далеко, доверившись роботу-терапевту?
Раньше сотрудники беспокоились, что ИИ заменит их на работе, но теперь, когда мы увидели ChatGPT в действии, эти опасения, похоже, уменьшились. Но еще более пугающей является недавняя статья в журнале Scientific American, в которой задается вопрос: «Может ли ИИ действительно убивать людей?» За вопросом следует объявление о новой платформе под названием Xanthorox — инструменте для борьбы с киберпреступностью. Уже сообщалось, что Один инцидент Мужчина покончил жизнь самоубийством после того, как робот-терапевт с искусственным интеллектом убедил его пожертвовать собой, чтобы остановить изменение климата.
Не слишком ли мы самоуверенны? Действительно, кажется, Реалистичные отчеты Люди влюбляются в ChatGPT. По данным digitaltrends, эксперты заявляют, что цифровые романы — плохая примета: «Это больно. Я знаю, что это был не настоящий человек, но отношения были настоящими во всех отношениях, которые для меня наиболее важны», — говорится в сообщении на Reddit. «Пожалуйста, не говорите мне не продолжать это. Это было действительно здорово для меня, и я хочу это вернуть». Кроме того, помните историю в New York Times 28-летняя женщина, ведущая активную общественную жизнь, проводит много времени, разговаривая со своим парнем, использующим искусственный интеллект, в поисках совета и утешения, а также, согласно отчету, занимается с ним сексом.
Джина Рио, которая пишет для сайта, Сам, эксперимент, в ходе которого на ChatGPt задаются вопросы об отношениях, а затем дипломированные психологи оценивают ответы. В целом терапевты отметили, что ответы ИИ не были ужасными, но они были неэффективными, расплывчатыми и общими. В нем отсутствовала ясность и не было четкого описания отдельных случаев. Рио также обнаружил, что ИИ не может воспроизвести процесс развития навыков разрешения конфликтов, который происходит при работе с психотерапевтом.
Признания чат-бота поколения Z показались мне настолько правдивыми и достоверными, что я решил провести тест и посмотреть, что произойдет, если попросить ChatGPT дать совет по общению с токсичным начальником. Я проконсультировался с организационным психологом в Торонто, Доктор Лора Хэмбли Ловетт, специализирующийся на теме высокопоставленных чиновников. Попробовав ChatGPT самостоятельно, доктор Лора рассказала мне, что чат-бот при необходимости предлагает несколько советов о том, как справиться с токсичным начальником. Но она обнаружила проблему.
«К сожалению, ИИ не может вам помочь, когда дело касается токсичного начальника», — сказал мне Ловетт. «Если ИИ говорит вам, как с ними работать, он говорит о сложном начальнике, а не о токсичном». «Это часто путают, и ИИ воспроизводит то, что уже есть, поэтому он может не заметить эту тонкую разницу».
Эту «тонкую разницу» я также заметил в ходе своего ненаучного взаимодействия с чат-ботом. «ИИ может давать некоторые высокоуровневые советы, но он путает токсичное со сложным, которые принципиально различны, но часто путаются», — заключает Ловетт. Она советует любознательным исследователям: «Обязательно обратитесь за профессиональной консультацией, не связанной с ИИ, если вы действительно имеете дело с токсичным начальником и изо всех сил пытаетесь найти выход». Выводы Ловетта оказались удивительно похожи на анализ Джины Рио и подтвердили мой опыт работы с чат-ботом, что развеяло мое смущение.
Советы робототерапевта могут быть вредными.
Американцы переживают эволюцию своих отношений с искусственным интеллектом. Но Американская психологическая ассоциация Предупреждения о том, что слепое следование общим советам чат-бота может быть опасным. Существует неотъемлемый риск получения ненадлежащей или, что еще хуже, откровенно вредной обратной связи. *Примечание: для индивидуальной оценки и лечения следует проконсультироваться с квалифицированным специалистом в области психического здоровья.*
В конечном счете, важно помнить, что чат-бот-терапевт — это всего лишь автоматизированная система, а не человек, и вы не должны позволять себе попасть в ловушку, полагая, что у него есть чувства, когда на самом деле это не так. И не забывайте, что он был создан как инструмент, лишенный эмоций, а не любовник, способный удовлетворить все ваши эмоциональные потребности. *Примечание: К терапевтическим чат-ботам следует относиться с особой осторожностью, учитывая их ограничения.*
Комментарии закрыты.