Начните обучение модели искусственного интеллекта Claude на ваших данных как можно скорее: вот как отказаться от обучения до истечения срока
Что нужно сделать, чтобы сказать «нет»
Anthropic, разработчик искусственного интеллекта, проводит... Клод... вносит фундаментальные изменения в обработку пользовательских данных. С сегодняшнего дня пользователям Claude будет предложено выбрать: разрешить Anthropic использовать их разговоры для обучения будущих моделей искусственного интеллекта или отказаться от этого и сохранить конфиденциальность своих данных. Если вы не сделаете выбор до 28 сентября 2025 года, вы полностью потеряете доступ к Claude.

Раньше Anthropic придерживался политики конфиденциальности, которая подразумевала автоматическое удаление ваших чатов и токенов через 30 дней, если только это не требовалось по юридическим причинам. Однако, начиная с сегодняшнего дня, если вы не откажетесь от этого, ваши данные будут храниться до пяти лет и использоваться в обучающих сессиях, чтобы помочь Клоду стать умнее.
Новая политика распространяется на все тарифные планы, включая Free, Pro и Max, а также на Cloud Code в рамках этих тарифных планов. Она не распространяется на корпоративные, государственные, образовательные организации и пользователей API.
Механизм действия
После регистрации новым пользователям будет предоставлена возможность дать согласие на использование их данных для улучшения производительности модели искусственного интеллекта Claude. Существующие пользователи увидят всплывающее окно с заголовком «Обновления условий и политик для потребителей». Нажатие на большую синюю кнопку «Согласен» автоматически подтвердит согласие, а меньший переключатель позволит отказаться от этой функции.
Если вы проигнорируете это окно, Claude перестанет работать после 28 сентября. Важно отметить, что это изменение влияет только на будущие диалоги и код. Всё, что вы написали ранее, будет использовано только при повторном открытии этих диалогов. Если вы удалите диалог, он не будет использоваться для обучения.
Вы можете изменить своё решение позже в настройках конфиденциальности. Однако данные, использованные для обучения, невозможно извлечь. Важно понимать этот механизм, чтобы защитить вашу конфиденциальность и данные при использовании облака.
Почему Anthropic вносит эти изменения?

Anthropic утверждает, что пользовательские данные необходимы для повышения производительности её языковой модели Claude во многих областях: от «виброкодирования» и традиционного программирования до возможностей вывода и поддержания стандартов безопасности. Anthropic подчёркивает, что не продаёт эти данные третьим лицам, а вместо этого использует автоматизированные фильтры для удаления конфиденциальной информации перед её использованием для обучения своих моделей.
Однако это изменение представляет собой изменение баланса конфиденциальности, переходя от конфиденциальности по умолчанию к предоставлению данных по умолчанию, если пользователь не возражает против этого. Другими словами, ваши данные будут по умолчанию собираться и использоваться для улучшения Claude, и вам необходимо принять меры, чтобы остановить это, если вы предпочитаете не предоставлять свои данные. Это изменение направлено на расширение возможностей искусственного интеллекта Claude за счёт использования пользовательских данных, одновременно подчёркивая приверженность Anthropic защите конфиденциальности пользователей с помощью механизмов фильтрации конфиденциальных данных.
Каков ваш выбор?
Решение Anthropic ускорить работу Claude с данными реального мира, на которых он обучается, означает, что чем лучше модель будет отвечать на сложные вопросы, писать код и избегать ошибок, тем больше она будет развивать ИИ.
Однако этот прогресс достигается за счет пользователей, которые теперь могут стать частью обучающего набора, а их данные будут храниться годами, а не неделями.
Для обычных пользователей это может показаться не таким уж серьёзным. Но для пользователей, заботящихся о конфиденциальности, или тех, кто обсуждает рабочие проекты, личные вопросы или конфиденциальную информацию в облаке, это обновление может стать тревожным сигналом.
Теперь, когда настройка по умолчанию включена, вы несете ответственность за отключение этой опции, если хотите сохранить конфиденциальность своих данных.
Комментарии закрыты.