Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыБотыEarnКопитрейдинг
Anthropic представляет структуру прозрачности ИИ, ориентированную на общественную безопасность и ответственную разработку ИИ

Anthropic представляет структуру прозрачности ИИ, ориентированную на общественную безопасность и ответственную разработку ИИ

MPOSTMPOST2025/07/08 22:45
Автор:MPOST

Коротко Компания Anthropic выпустила гибкую структуру прозрачности, ориентированную на крупнейших разработчиков передового ИИ, предлагающую стандарты раскрытия информации и протоколы безопасности для поддержки ответственной, безопасной и подотчетной разработки ИИ в условиях быстрого технологического прогресса.

Исследовательская организация в области искусственного интеллекта, сосредоточенная на безопасности и согласованности, Антропный выпустили целевую структуру прозрачности, предназначенную для применения на федеральном, государственном или международном уровнях. Эта структура разработана специально для самых передовых систем ИИ и их разработчиков, представляя defiнеопределенные ожидания в отношении раскрытия информации, связанные с протоколами безопасности.

Организация подчеркивает, что повышение прозрачности в разработке передового ИИ необходимо для защиты общественной безопасности и обеспечения ответственности разработчиков высокоэффективных технологий ИИ. Учитывая быстрые темпы развития, Anthropic отмечает, что, хотя более широкое установление стандартов безопасности и механизмов оценки правительствами, академическими кругами и промышленностью может занять время, необходимы временные меры для поддержки безопасной и ответственной разработки мощных систем ИИ.

Структура намеренно не является предписывающей, отражая понимание того, что исследования ИИ быстро развиваются. По мнению организации, любая стратегия регулирования должна оставаться адаптивной и не препятствовать прогрессу в таких областях, как медицинские исследования, эффективность государственных услуг или национальная безопасность. Anthropic также предупреждает, что чрезмерно жесткие правила могут препятствовать инновациям, особенно потому, что текущие методы оценки часто устаревают в короткие сроки из-за продолжающихся технологических изменений.

Установление стандартов прозрачности ИИ: фокус на крупнейших разработчиках моделей и безопасных фреймворках разработки

Антропный представил набор основополагающих принципов, призванных информировать о разработке политики прозрачности ИИ. Эти предлагаемые стандарты специально разработаны для применения к крупнейшим разработчикам передовых моделей ИИ —defined через такие критерии, как вычислительные ресурсы, эффективность оценки, инвестиции в НИОКР и годовой доход, а не в целом для всего сектора ИИ. Этот подход направлен на то, чтобы гарантировать, что более мелкие разработчики и стартапы, чьи модели с меньшей вероятностью представляют национальную безопасность или катастрофические риски, не будут подвергаться такому же уровню нормативного бремени. Предлагаемые примеры пороговых значений включают годовой доход около 100 миллионов долларов или НИОКР и капитальные затраты, приближающиеся к 1 миллиарду долларов, хотя эти цифры открыты для уточнения и должны периодически пересматриваться по мере развития области.

Другим ключевым элементом предлагаемой структуры является требование к соответствующим разработчикам поддерживать структуру безопасной разработки. Эта внутренняя структура будет описывать процедуры выявления и смягчения рисков, связанных с передовыми моделями ИИ, включая угрозы, связанные с химическим, биологическим, радиологическим и ядерным неправомерным использованием, а также риски, связанные с несоответствием автономной модели. Учитывая, что эти структуры все еще находятся в стадии разработки, поощряется гибкость в реализации.

Anthropic также рекомендует, чтобы Secure Development Framework каждого разработчика был доступен для общественности, с соответствующими правками для конфиденциального контента, через управляемый компанией общедоступный веб-сайт. Такая прозрачность позволит внешним заинтересованным сторонам, включая исследователей, правительства и гражданское общество, отслеживать, как развертываются модели ИИ. Ожидается, что компании будут самостоятельно сертифицировать свою приверженность раскрытой структуре.

Кроме того, разработчики должны опубликовать системную карту или эквивалентную документацию, в которой изложены процедуры тестирования, результаты оценки и любые применяемые смягчающие меры. Эта информация, подлежащая редактированию в случаях, когда безопасность общественности или модели может быть нарушена, должна быть предоставлена ​​во время развертывания модели и обновлена ​​после любых изменений модели.

Для поддержки правоприменения Anthropic предлагает правовое положение, делающее незаконным для разработчика заведомо ложное представление о своем соответствии фреймворку. Эта мера призвана активировать существующие меры защиты осведомителей и гарантировать, что правовые ресурсы будут направлены на случаи преднамеренного несоблюдения.

В целом организация утверждает, что любая политика прозрачности ИИ должна начинаться с минимального набора адаптируемых стандартов. Учитывая быстро меняющийся характер исследований безопасности ИИ, структура должна быть разработана с учетом новых идей и появляющихся лучших практик, разработанных промышленностью, правительством и академическими заинтересованными сторонами.

Эта предлагаемая модель прозрачности подчеркивает передовые практики в области безопасности в отрасли и устанавливает основу для того, как следует ответственно обучать передовые модели ИИ. Она направлена ​​на то, чтобы гарантировать, что разработчики придерживаются минимальных стандартов подотчетности, позволяя общественности и политикам определять различия между ответственными и небрежными подходами к разработке. Концепция Secure Development Framework, как описано, сопоставима с политиками, которые уже используются такими организациями, как Anthropic, Google DeepMind, OpenAIи Microsoft, все из которых приняли схожие стратегии при развертывании пограничных моделей.

Внедрение требования раскрытия информации в рамках Secure Development Framework в закон помогло бы формализовать эти отраслевые практики, не делая их слишком жесткими. Это также гарантировало бы, что такие меры прозрачности — в настоящее время добровольные — останутся в силе с течением времени, особенно по мере того, как возможности ИИ будут продолжать развиваться.

0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX: вносите активы и получайте новые токены.
APR до 12%. Аирдропы новых токенов.
Внести!