Британские законодатели предупреждают: обещания по обеспечению безопасности ИИ превращаются в пустую формальность
- 60 британских законодателей обвинили Google DeepMind в нарушении обязательств по обеспечению безопасности ИИ из-за задержки публикации подробных отчетов о безопасности для Gemini 2.5 Pro. - Компания выпустила упрощенную модельную карточку через три недели после запуска, в которой отсутствует прозрачность по поводу стороннего тестирования и участия государственных агентств. - Google утверждает, что выполнила свои обязательства, опубликовав технический отчет спустя несколько месяцев, однако критики считают, что это подрывает доверие к протоколам безопасности. - Аналогичные проблемы в Meta и OpenAI подчеркивают отраслевые опасения по поводу прозрачности.
Группа из 60 британских парламентариев подписала открытое письмо, обвиняя Google DeepMind в несоблюдении своих обязательств по обеспечению безопасности искусственного интеллекта, в частности, в задержке публикации подробной информации о безопасности модели Gemini 2.5 Pro [1]. Письмо, опубликованное политической активистской группой PauseAI, критикует компанию за то, что она не предоставила исчерпывающую модельную карту на момент выпуска модели, а это ключевой документ, в котором описывается, как модель была протестирована и создана [1]. По их мнению, этот провал является нарушением обязательств по безопасности Frontier AI, взятых на международном саммите в феврале 2024 года, где подписанты, включая Google, пообещали публично отчитываться о возможностях моделей, оценках рисков и участии сторонних тестировщиков [1].
Google выпустила Gemini 2.5 Pro в марте 2025 года, но не опубликовала полную модельную карту в то время, несмотря на заявления о том, что модель превосходит конкурентов по ключевым показателям [1]. Вместо этого через три недели была опубликована упрощённая модельная карта на шести страницах, которую некоторые эксперты по управлению ИИ сочли недостаточной и вызывающей обеспокоенность [1]. В письме отмечается, что в документе отсутствовали существенные детали о внешних оценках и не было подтверждения участия государственных агентств, таких как U.K. AI Security Institute, в тестировании [1]. Эти упущения вызывают вопросы о прозрачности практик компании в области безопасности.
В ответ на критику представитель Google DeepMind ранее заявил Fortune, что любые предположения о нарушении компанией своих обязательств являются "неточными" [1]. Компания также заявила в мае, что более подробный технический отчёт будет опубликован, когда финальная версия семейства моделей Gemini 2.5 Pro станет доступна. Более полный отчёт был в итоге опубликован в конце июня, спустя несколько месяцев после выхода полной версии [1]. Представитель вновь подчеркнул, что компания выполняет свои публичные обязательства, включая Seoul Frontier AI Safety Commitments, и что Gemini 2.5 Pro прошла строгие проверки безопасности, включая оценки сторонних тестировщиков [1].
В письме также отмечается, что отсутствие модельной карты для Gemini 2.5 Pro противоречит другим обещаниям Google, таким как White House Commitments 2023 года и добровольный Кодекс поведения по искусственному интеллекту, подписанный в октябре 2023 года [1]. Такая ситуация не уникальна для Google. Meta столкнулась с аналогичной критикой за минимальную и ограниченную модельную карту для модели Llama 4, а OpenAI решила не публиковать отчёт о безопасности для своей модели GPT-4.1, сославшись на её статус не-frontier [1]. Эти события указывают на более широкую тенденцию в отрасли, когда раскрытие информации о безопасности становится менее прозрачным или вовсе опускается.
В письме Google призывают подтвердить свои обязательства по безопасности ИИ, чётко определив момент развертывания как момент, когда модель становится общедоступной, обязуясь публиковать отчёты об оценке безопасности в установленный срок для всех будущих выпусков моделей, а также обеспечивать полную прозрачность каждого выпуска, указывая государственные агентства и независимые третьи стороны, участвовавшие в тестировании, вместе с точными сроками тестирования [1]. Лорд Браун из Лейдтона, подписант письма и член Палаты лордов, предупредил, что если ведущие компании в области ИИ будут рассматривать обязательства по безопасности как необязательные, это может привести к опасной гонке по внедрению всё более мощных систем ИИ без надлежащих мер защиты [1].
Источник:

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Мнение: Закон GENIUS уже вступил в силу, банкам теперь не следует пытаться его переписать
Когда существует конкуренция, выигрывают потребители.
Как долго институциональный бычий рынок сможет продлиться после снижения процентных ставок?
Философии проектов Bitcoin, Ethereum и Solana соответствуют трем основным инстинктам человечества перед лицом будущего: выживание, порядок и движение.

Overtake совместно с World внедряют Proof-of-Human на торговую площадку OVERTAKE
Когда аутентификация сочетается с кастодиальными платежами, надежность транзакций значительно повышается, что имеет потенциал для массового принятия пользователями и долгосрочного расширения рынка.

Генеральный директор компании по торговле Bitcoin признал свою вину в мошеннической схеме Понци на 200 миллионов долларов и может получить до 40 лет тюремного заключения
Рамиль Вентура Палафокс признал себя виновным в мошенничестве с использованием электронных средств связи и отмывании денег, связанных с Ponzi-схемой с bitcoin на сумму 200 миллионов долларов. Палафокс ложно утверждал, что PGI занимается высокообъемной торговлей bitcoin, обманув более 90 000 инвесторов по всему миру, и ему грозит наказание до 40 лет лишения свободы.

Популярное
ДалееЦены на крипто
Далее








