Anthropic представляет структуру прозрачности ИИ, ориентированную на общественную безопасность и ответственную разработку ИИ
Коротко Компания Anthropic выпустила гибкую структуру прозрачности, ориентированную на крупнейших разработчиков передового ИИ, предлагающую стандарты раскрытия информации и протоколы безопасности для поддержки ответственной, безопасной и подотчетной разработки ИИ в условиях быстрого технологического прогресса.
Исследовательская организация в области искусственного интеллекта, сосредоточенная на безопасности и согласованности, Антропный выпустили целевую структуру прозрачности, предназначенную для применения на федеральном, государственном или международном уровнях. Эта структура разработана специально для самых передовых систем ИИ и их разработчиков, представляя defiнеопределенные ожидания в отношении раскрытия информации, связанные с протоколами безопасности.
Организация подчеркивает, что повышение прозрачности в разработке передового ИИ необходимо для защиты общественной безопасности и обеспечения ответственности разработчиков высокоэффективных технологий ИИ. Учитывая быстрые темпы развития, Anthropic отмечает, что, хотя более широкое установление стандартов безопасности и механизмов оценки правительствами, академическими кругами и промышленностью может занять время, необходимы временные меры для поддержки безопасной и ответственной разработки мощных систем ИИ.
Структура намеренно не является предписывающей, отражая понимание того, что исследования ИИ быстро развиваются. По мнению организации, любая стратегия регулирования должна оставаться адаптивной и не препятствовать прогрессу в таких областях, как медицинские исследования, эффективность государственных услуг или национальная безопасность. Anthropic также предупреждает, что чрезмерно жесткие правила могут препятствовать инновациям, особенно потому, что текущие методы оценки часто устаревают в короткие сроки из-за продолжающихся технологических изменений.
Установление стандартов прозрачности ИИ: фокус на крупнейших разработчиках моделей и безопасных фреймворках разработки
Антропный представил набор основополагающих принципов, призванных информировать о разработке политики прозрачности ИИ. Эти предлагаемые стандарты специально разработаны для применения к крупнейшим разработчикам передовых моделей ИИ —defined через такие критерии, как вычислительные ресурсы, эффективность оценки, инвестиции в НИОКР и годовой доход, а не в целом для всего сектора ИИ. Этот подход направлен на то, чтобы гарантировать, что более мелкие разработчики и стартапы, чьи модели с меньшей вероятностью представляют национальную безопасность или катастрофические риски, не будут подвергаться такому же уровню нормативного бремени. Предлагаемые примеры пороговых значений включают годовой доход около 100 миллионов долларов или НИОКР и капитальные затраты, приближающиеся к 1 миллиарду долларов, хотя эти цифры открыты для уточнения и должны периодически пересматриваться по мере развития области.
Другим ключевым элементом предлагаемой структуры является требование к соответствующим разработчикам поддерживать структуру безопасной разработки. Эта внутренняя структура будет описывать процедуры выявления и смягчения рисков, связанных с передовыми моделями ИИ, включая угрозы, связанные с химическим, биологическим, радиологическим и ядерным неправомерным использованием, а также риски, связанные с несоответствием автономной модели. Учитывая, что эти структуры все еще находятся в стадии разработки, поощряется гибкость в реализации.
Anthropic также рекомендует, чтобы Secure Development Framework каждого разработчика был доступен для общественности, с соответствующими правками для конфиденциального контента, через управляемый компанией общедоступный веб-сайт. Такая прозрачность позволит внешним заинтересованным сторонам, включая исследователей, правительства и гражданское общество, отслеживать, как развертываются модели ИИ. Ожидается, что компании будут самостоятельно сертифицировать свою приверженность раскрытой структуре.
Кроме того, разработчики должны опубликовать системную карту или эквивалентную документацию, в которой изложены процедуры тестирования, результаты оценки и любые применяемые смягчающие меры. Эта информация, подлежащая редактированию в случаях, когда безопасность общественности или модели может быть нарушена, должна быть предоставлена во время развертывания модели и обновлена после любых изменений модели.
Для поддержки правоприменения Anthropic предлагает правовое положение, делающее незаконным для разработчика заведомо ложное представление о своем соответствии фреймворку. Эта мера призвана активировать существующие меры защиты осведомителей и гарантировать, что правовые ресурсы будут направлены на случаи преднамеренного несоблюдения.
В целом организация утверждает, что любая политика прозрачности ИИ должна начинаться с минимального набора адаптируемых стандартов. Учитывая быстро меняющийся характер исследований безопасности ИИ, структура должна быть разработана с учетом новых идей и появляющихся лучших практик, разработанных промышленностью, правительством и академическими заинтересованными сторонами.
Эта предлагаемая модель прозрачности подчеркивает передовые практики в области безопасности в отрасли и устанавливает основу для того, как следует ответственно обучать передовые модели ИИ. Она направлена на то, чтобы гарантировать, что разработчики придерживаются минимальных стандартов подотчетности, позволяя общественности и политикам определять различия между ответственными и небрежными подходами к разработке. Концепция Secure Development Framework, как описано, сопоставима с политиками, которые уже используются такими организациями, как Anthropic, Google DeepMind, OpenAIи Microsoft, все из которых приняли схожие стратегии при развертывании пограничных моделей.
Внедрение требования раскрытия информации в рамках Secure Development Framework в закон помогло бы формализовать эти отраслевые практики, не делая их слишком жесткими. Это также гарантировало бы, что такие меры прозрачности — в настоящее время добровольные — останутся в силе с течением времени, особенно по мере того, как возможности ИИ будут продолжать развиваться.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Новые спотовые маржинальные торговые пары - LA/USDT
Запуск AINUSDT для фьючерсной и ботовой торговли
Bitget публикует отчет об оценке Фонда защиты за июнь 2025 г.
Запуск TANSSIUSDT для фьючерсной и ботовой торговли
Популярное
ДалееЦены на крипто
Далее








