Как распознать ажиотаж вокруг ИИ и избежать «обмана ИИ», по мнению двух экспертов.

В своей новой книге «The AI ​​Con» критики искусственного интеллекта Эмили Биндер и Алекс Ханна развенчивают мифы о генеративном ИИ.

«Искусственный интеллект, честно говоря, — это мошенничество: товар, который продают вам, чтобы набить чьи-то карманы».

В этом суть аргументации, представленной лингвистикой. Эмили Бендер и социолог Алекс Ханна В своей новой книге Искусственный интеллект ​​Con. Это полезное руководство для тех, чья жизнь пересеклась с технологиями, продаваемыми как ИИ, и для тех, кто сомневался в их истинной полезности, а это большинство из нас. Бендер — профессор Вашингтонского университета, которого журнал Time назвал одним из самых влиятельных людей в области искусственного интеллекта, а Ханна — директор по исследованиям в некоммерческой организации Научно-исследовательский институт распределенного ИИ Бывший член команды этического ИИ компании Google.

Обложка книги

Огромная популярность ChatGPT в конце 2022 года спровоцировала новый виток ажиотажа в СМИ вокруг искусственного интеллекта. По определению авторов, ажиотаж вокруг технологии, которую, по вашему убеждению, нужно купить или в которую нужно инвестировать, «чтобы не упустить удовольствие, денежное вознаграждение, окупаемость инвестиций или долю рынка». Но это не первый случай и, скорее всего, не последний, когда ученые, государственные деятели и простые люди проявляют интерес и обеспокоенность к идее машинного обучения и искусственного интеллекта.

Биндер и Ханна прослеживают корни машинного обучения в 1950-х годах, когда математик Джон Маккарти ввел термин «искусственный интеллект». Это была эпоха, когда Соединенные Штаты стремились финансировать проекты, которые помогли бы стране получить превосходство над Советским Союзом в военном, идеологическом и технологическом плане. «Это не просто выскочило из головы Зевса или что-то в этом роде. У этого есть более долгая история», — сказал Ханна CNET. «Это, конечно, не первый цикл шумихи вокруг, цитирую, искусственного интеллекта».

Сегодняшний ажиотаж обусловлен многомиллиардными венчурными инвестициями в такие стартапы, как OpenAI, и такими технологическими гигантами, как Meta, Google и Microsoft, которые вкладывают миллиарды долларов в исследования и разработки в области ИИ. Результат очевиден, так как последние Телефоны Ноутбуки и обновления программного обеспечения переполнены ИИ-помойками. Нет никаких признаков того, что исследования и разработки в области ИИ замедлятся, благодаря растущему стремлению обогнать Китай в области разработки ИИ. На самом деле это не первый цикл шумихи в СМИ.

Конечно, генеративный ИИ в 2025 году будет гораздо более продвинутым, чем психотерапевтический чат-бот Элиза, впервые завоевавший внимание ученых в XNUMX-х годах. Сегодняшние руководители и сотрудники предприятий завалены шумихой в СМИ, большим страхом что-то упустить и, казалось бы, сложной, но часто неправильно используемой терминологией. Если послушать руководителей технологических компаний и энтузиастов ИИ, может показаться, что ИИ отнимет у вас работу и сэкономит деньги вашей компании. Однако авторы утверждают, что ни то, ни другое не является полностью вероятным, и именно поэтому важно распознавать и пресекать шумиху в СМИ.

Итак, как же распознать ажиотаж вокруг ИИ? Вот несколько явных признаков, по мнению Биндера и Ханны, которыми мы делимся ниже. В своей книге авторы предлагают ряд вопросов и стратегий для распознавания ажиотажа вокруг ИИ. Доступен сейчас В Соединенных Штатах.

Обратите внимание на язык, очеловечивающий ИИ.

Очеловечивание, или процесс придания неодушевленным объектам человеческих качеств или характеристик, является важной частью шумихи вокруг искусственного интеллекта. Примером такого рода риторики являются заявления компаний, занимающихся искусственным интеллектом, о том, что их чат-боты теперь могут «видеть» и «думать».

Эти сравнения могут быть полезны при попытке описать способность новых программ ИИ идентифицировать объекты или модели ИИ с помощью глубоких рассуждений, но они также могут вводить в заблуждение. Чат-боты на базе искусственного интеллекта не могут видеть и думать, потому что у них нет разума. Даже идея нейронных сетей, как отмечает Ханна в нашем интервью и в книге, основана на человеческом понимании нейронов, сложившемся в 1950-х годах, а не на том, как на самом деле работают нейроны, но она может заставить нас поверить, что за машиной стоит разум.

К такому убеждению мы предрасположены из-за того, как мы, люди, обрабатываем язык. Бендер отметил, что мы приучены думать, что за текстом, который мы видим, стоит разум, даже если мы знаем, что он был создан искусственным интеллектом. «Мы интерпретируем язык, создавая в своем сознании модель того, кто был говорящим», — добавил Бандар.

В этих моделях мы используем наши знания о говорящем человеке для создания смысла, а не только значения произносимых им слов. «Поэтому, когда мы столкнемся с синтетическим текстом, сгенерированным чем-то вроде ChatGPT, мы сделаем то же самое», — сказал Бандар. «Очень трудно напомнить себе, что разум не существует. Это всего лишь конструкция, которую мы создали».

Авторы утверждают, что компании, занимающиеся разработкой искусственного интеллекта, отчасти пытаются убедить нас в том, что их продукты похожи на человеческие, потому что это закладывает основу для убеждения нас в том, что искусственный интеллект может заменить людей, будь то на работе или в качестве творцов. Возникает соблазн поверить, что ИИ может стать волшебным решением сложных проблем в таких критически важных отраслях, как здравоохранение и государственные услуги.

Однако чаще всего, утверждают авторы, ИИ не используется для исправления чего-либо. ИИ продается за счет эффективности, но услуги ИИ в конечном итоге заменяют квалифицированных рабочих машинами-черными ящиками, требующими значительного ухода со стороны низкооплачиваемых контрактников или внештатных работников. Как сказала Ханна в нашем интервью: «ИИ не отнимет у вас работу, но ухудшит ее».

Будьте осторожны с фразой «сверхинтеллект».

Если люди чего-то не могут сделать, следует с осторожностью относиться к заявлениям о том, что это может сделать ИИ. «Сверхразум или сверхинтеллект — очень опасный термин, поскольку он предполагает, что некая технология сделает людей ненужными», — сказала Ханна. «В определенных областях, например, в крупномасштабном сопоставлении образов, компьютеры очень хороши в этом. Но если есть идея, что будет прорывное стихотворение или прорывная идея для исследования или практики науки, это явно продвижение». «Мы не говорим о самолетах как о суперсамолетах или о линейках как о супермерах», — добавил Бендер. «Похоже, это происходит только в области искусственного интеллекта».

Идея «сверхинтеллекта» (ИИ) часто возникает, когда люди говорят об общем искусственном интеллекте. Многим руководителям сложно точно определить, что такое общий искусственный интеллект (AGI), но по сути это наиболее продвинутая форма искусственного интеллекта, потенциально способная принимать решения и выполнять сложные задачи. Пока нет никаких доказательств того, что мы хоть сколько-нибудь близки к будущему, которое станет возможным благодаря ИИОН, но это популярное модное словечко.

Многие из этих футуристических заявлений лидеров в области ИИ заимствуют приемы из научной фантастики. И сторонники, и пессимисты (так Биндер и Ханна описывают энтузиастов ИИ и тех, кто беспокоится о потенциальном вреде) полагаются на научно-фантастические сценарии. Сторонники представляют себе будущее общество, основанное на искусственном интеллекте. Пессимисты сетуют на будущее, в котором роботы с искусственным интеллектом захватят мир и уничтожат человечество.

По мнению авторов, общей чертой является глубоко укоренившееся убеждение, что ИИ умнее людей и его появление неизбежно. «Одна из мыслей, которую мы часто видим в рассуждениях, — это идея о том, что будущее предопределено, и вопрос лишь в том, как быстро мы его достигнем», — сказал Бендер. «Затем есть это утверждение, что эта конкретная технология является шагом в этом направлении, и это все маркетинг. Полезно уметь видеть дальше этого».

Одна из причин такой популярности искусственного интеллекта заключается в том, что функциональный автономный помощник на основе искусственного интеллекта позволит компаниям, занимающимся разработкой искусственного интеллекта, выполнить свои обещания инвесторам в отношении инноваций, которые изменят мир. Планирование такого будущего — утопического или антиутопического — заставляет инвесторов смотреть вперед, поскольку компании тратят миллиарды долларов и признают, что не достигнут своих целей по выбросам углерода. Хорошо это или плохо, но жизнь — это не научная фантастика. Когда вы видите, как кто-то утверждает, что его продукт на основе искусственного интеллекта взят прямо из фильма, это хороший знак, чтобы отнестись к этому скептически.

Узнайте о входных данных ИИ и о том, как оценить его выходные данные.

Один из самых простых способов обнаружить мошенничество с использованием ИИ-маркетинга — проверить, раскрывает ли компания принципы своей работы. Многие компании, занимающиеся разработкой ИИ, не раскрывают контент, используемый для обучения их моделей. Но они обычно раскрывают, что компания делает с вашими данными, а иногда хвастаются тем, что ее модели превосходят модели конкурентов. Именно с этого места вам следует начать свое исследование, обычно это касается политики конфиденциальности.

Одной из самых больших жалоб и беспокойств со стороны создателей является то, как обучаются модели ИИ. Существует множество судебных исков, связанных с предполагаемым нарушением авторских прав, и есть много опасений относительно предвзятости чат-ботов на базе искусственного интеллекта и их потенциальной возможности причинить вред. «Если вы хотите создать систему, призванную двигаться вперед, а не воспроизводить несправедливости прошлого, вам нужно начать с организации данных», — говорит Бендер. Вместо этого компании, занимающиеся ИИ, берут под контроль «все, что не установлено в Интернете», говорит Ханна.

Если вы впервые слышите о продукте на основе искусственного интеллекта, особое внимание следует уделить любым статистическим данным, подтверждающим его эффективность. Как и многие другие исследователи, Бендер и Ханна отмечают, что любой результат без ссылки на источник — это тревожный сигнал. «Всякий раз, когда кто-то продает вам что-то и не дает понять, как это оценивается, вы оказываетесь на шаткой почве», — говорит Бендер.

Может быть обидно и неприятно, когда компании, занимающиеся разработкой ИИ, не раскрывают конкретную информацию о том, как работают их продукты и как они были разработаны. Но признание этих пробелов в их рекламном предложении может помочь проскочить через шумиху, хотя было бы лучше иметь такую информацию. Подробнее см. Глоссарий ChatGPT Наш полный и как его отключить Apple Интеллект.

Комментарии закрыты.