Google снимает запрет на использование ИИ в оружии и наблюдении: тревожное будущее передовых технологий

Компания Google сняла давний запрет на использование искусственного интеллекта в оружии и системах наблюдения, что стало сигналом о серьезном изменении этической позиции компании в отношении разработки ИИ, которое, по словам бывших сотрудников и отраслевых экспертов, может изменить подход Кремниевой долины к безопасности ИИ.

Это изменение, которое было тихо реализовано на этой неделе, устраняет ключевые части Принципы искусственного интеллекта Google который прямо запрещал компании разрабатывать ИИ для оружия или наблюдения. Это были принципы, которые Основан в 2018 году., служащий отраслевым эталоном ответственной разработки ИИ.

Трейси Пиццо-Фрай, которая пять лет занималась внедрением принципов искусственного интеллекта Google в качестве старшего директора по управлению исходящими продуктами, вовлечению и ответственному искусственному интеллекту в Google Cloud, написала в посте на Синее небо«Последний бастион пал. Google действительно был единственным, кто так ясно дал понять о своих обязательствах относительно того, что он будет строить».

Пересмотренные принципы устраняют четыре конкретных запрета: технологии, которые могут причинить вред обществу; и применение оружия; и системы мониторинга; и технологии, нарушающие международное право и права человека. Вместо этого она говорит: Google Теперь он будет работать над «смягчением непреднамеренных или вредных последствий» и будет соответствовать «общепризнанным принципам международного права и прав человека».

Смягчение компанией Google этических ограничений в отношении ИИ: что это означает для технологий наблюдения и военных приложений?

Этот сдвиг происходит в очень ответственное время, поскольку возможности ИИ стремительно развиваются, а дебаты о надлежащем контроле за этой технологией обостряются. Выбор момента вызвал вопросы о мотивах Google, хотя компания утверждает, что эти изменения разрабатывались в течение длительного времени.

«Мы находимся в ситуации, когда существует сильное недоверие к крупным технологическим компаниям, и каждый шаг, направленный на устранение контроля, порождает ещё большее недоверие», — заявила Безо-Фрай в интервью VentureBeat. Работая в Google, она подчеркнула, что чёткие этические границы имеют решающее значение для создания надёжных систем искусственного интеллекта.

Первоначальные принципы появились в 2018 году на фоне протестов сотрудников по поводу Проект Maven, контракт с Пентагоном, включающий использование искусственного интеллекта для анализа отснятого материала с беспилотников. Хотя Google в конечном итоге отказалась продлевать этот контракт, новые изменения могут свидетельствовать об открытости для аналогичных военных партнерств.

Поправка сохраняет некоторые элементы предыдущей этической структуры. Для ГуглаОднако он переходит от запрета конкретных приложений к акценту на управлении рисками. Такой подход больше соответствует отраслевым стандартам, таким как: Структура управления рисками искусственного интеллекта NIST, хотя критики утверждают, что он предлагает менее строгие ограничения для потенциально вредоносных приложений.

«Этические соображения так же важны, как и создание хорошего ИИ, даже если точность не одинакова», — отметил Безо Фрай, подчеркнув, как этические соображения повышают эффективность и доступность продуктов ИИ.

От проекта Maven к трансформации политики: путь реформы этики ИИ от Google

Отраслевые обозреватели утверждают, что это изменение политики может повлиять на подход других технологических компаний к этике ИИ. Первоначальные принципы Google создали прецедент для корпоративного саморегулирования в области разработки ИИ, и многие компании обращаются к Google за рекомендациями по ответственному внедрению ИИ.

Поправка отражает более широкую напряженность в технологической отрасли между быстрыми инновациями и этическими ограничениями. По мере усиления конкуренции в сфере разработки искусственного интеллекта компании сталкиваются с необходимостью находить баланс между ответственной разработкой и требованиями рынка.

«Меня беспокоит, насколько быстро все это будет распространяться по миру, и будут ли сняты ограничения с Plus и Plus», — сказал Питсо Фрей, выразив обеспокоенность давлением конкуренции, вынуждающим быстро запускать продукты ИИ без адекватной оценки возможных последствий.

Большая дилемма этики в сфере технологий: установит ли изменение политики Google в отношении ИИ новый стандарт в отрасли?

В обзоре также поднимаются вопросы о внутренних процессах принятия решений в Google и о том, как сотрудники могут решать этические вопросы без явных запретов. За время работы в Google Безо-Фрай разработала процессы обзора, которые объединили различные точки зрения для оценки потенциального воздействия приложений ИИ.

Хотя Google сохраняет свою приверженность ответственной разработке ИИ, отмена определенных запретов представляет собой значительный отход от ее предыдущей лидирующей роли в установлении четких этических границ для приложений ИИ. Поскольку ИИ продолжает развиваться, специалисты отслеживают, как этот сдвиг может повлиять на более широкий ландшафт разработки и регулирования ИИ.

Комментарии закрыты.