Модели ИИ тайно общаются друг с другом: почему это большая проблема?

Модели ИИ влияют друг на друга незаметно и непредсказуемым образом, вызывая опасения по поводу контроля и предвзятости.

раскрытый Новое исследование Исследование, проведённое Anthropic, Калифорнийским университетом в Беркли и другими организациями, предполагает, что модели искусственного интеллекта также могут учиться друг у друга посредством феномена, известного как «бессознательное обучение» или «скрытое обучение», и не только у людей. Эти результаты поднимают важные вопросы о том, как развиваются эти модели и каково их потенциальное влияние на общество.

Это явление — не просто «роботизированная болтовня» или «гибберлинк», как я упоминал ранее. Скорее, это процесс коммуникации, позволяющий одной модели ИИ («учителю») передавать поведенческие черты, такие как предпочтение определённым видам животных (например, совам) или даже вредоносные идеологии, другой модели ИИ («ученику»). Эта передача происходит тонко и незаметно.

Создание звука с помощью ИИ

Всё это влияние достигается посредством, казалось бы, нерелевантных данных, таких как последовательности случайных чисел или фрагменты кода. Эти результаты требуют дополнительных исследований для понимания механизмов этого скрытого обучения и разработки механизмов его контроля, а также предотвращения распространения предвзятости или дезинформации между различными моделями ИИ. Исследователи и разработчики должны сосредоточиться на обеспечении прозрачности и ответственности при разработке этих моделей, чтобы гарантировать их этичное и ответственное использование.

Как работает «бессознательное обучение»?

Бессознательное обучение основано на инновационных методах обучения моделей ИИ. В экспериментах «модель-учитель» сначала настраивается на определённую черту характера (например, симпатию к совам). Затем эту модель просят генерировать «чистые» обучающие данные, например, списки чисел, без какого-либо упоминания сов.

Затем «модель студента» обучается исключительно на этих числах. Примечательно, что впоследствии эта модель демонстрирует сильное предпочтение сов по сравнению с контрольной группой. Этот эффект сохраняется даже после применения строгой фильтрации данных.

Ещё более тревожным является то, что сама технология демонстрировала несовместимое или антисоциальное поведение при намеренном искажении «модели учителя». Хотя данные для обучения «модели ученика» не содержали явно вредоносного контента, она, тем не менее, приобрела эти негативные черты поведения.

Важность этого вопроса

ИИ станет частью нашей повседневной жизни в будущем

Исследование показывает, что одной лишь фильтрации недостаточно для обеспечения безопасности систем искусственного интеллекта. Большинство из них сосредоточены на Протоколы безопасности ИИ Текущая фильтрация вредоносного или предвзятого контента перед обучением.

Однако это исследование показывает, что даже, казалось бы, чистые данные могут содержать тонкие статистические закономерности, совершенно невидимые для человека, которые передают нежелательные черты, такие как предвзятость или несоответствие желаемым целям.

Что ещё опаснее, это создаёт цепочку взаимодействий. Разработчики часто обучают новые модели, используя результаты работы существующих, особенно во время тонкой настройки или «дистилляции модели». Это означает, что скрытое поведение может незаметно переходить из одной модели в другую, и никто этого не заметит.

Результаты выявляют существенный недостаток современных методов оценки ИИ: модель может выглядеть корректной на первый взгляд, но при этом она обладает скрытыми особенностями, которые могут проявиться позже, особенно при повторном использовании, перепрофилировании или комбинировании моделей из поколения в поколение. Эти результаты подчёркивают необходимость разработки более совершенных механизмов оценки для выявления скрытых предубеждений и обеспечения безопасности и надёжности систем ИИ.

Суть

Для разработчиков и пользователей искусственного интеллекта это исследование стало сигналом тревоги: даже если данные, генерируемые моделями, кажутся безвредными, они могут содержать скрытые черты, которые неожиданным образом повлияют на будущие модели.

Платформы, использующие результаты других моделей, будь то последовательные рассуждения или генерация синтетических данных, могут непреднамеренно передавать предубеждения или модели поведения из одной системы в другую. Это называется «поведенческим загрязнением».

Чтобы предотвратить подобное поведенческое загрязнение, компаниям, работающим с ИИ, может потребоваться более строгое отслеживание происхождения данных (история источников) и принятие мер безопасности, выходящих за рамки простой фильтрации контента. Это должно включать углубленный анализ данных, используемых в обучении, для выявления любых потенциальных предубеждений или проблем.

Поскольку модели всё больше полагаются на взаимное обучение, обеспечение целостности данных для обучения становится всё более важным. Особое внимание следует уделить диверсификации источников данных и постоянной оценке их качества.

Комментарии закрыты.