Sekelompok 60 anggota parlemen Inggris telah menandatangani surat terbuka yang menuduh Google DeepMind gagal memenuhi komitmen keselamatan AI-nya, khususnya terkait penundaan rilis informasi keselamatan terperinci untuk model Gemini 2.5 Pro [1]. Surat tersebut, yang diterbitkan oleh kelompok aktivis politik PauseAI, mengkritik perusahaan karena tidak menyediakan model card yang komprehensif pada saat peluncuran model, yang merupakan dokumen kunci yang menguraikan bagaimana model diuji dan dibangun [1]. Mereka berpendapat bahwa kegagalan ini merupakan pelanggaran terhadap Frontier AI Safety Commitments yang dibuat pada sebuah konferensi internasional pada Februari 2024, di mana para penandatangan—termasuk Google—berjanji untuk secara terbuka melaporkan kemampuan model, penilaian risiko, dan keterlibatan pengujian pihak ketiga [1].
Google merilis Gemini 2.5 Pro pada Maret 2025 namun tidak menerbitkan model card penuh pada saat itu, meskipun mengklaim bahwa model tersebut mengungguli pesaing pada tolok ukur utama [1]. Sebagai gantinya, model card sederhana setebal enam halaman dirilis tiga minggu kemudian, yang oleh beberapa ahli tata kelola AI dianggap tidak memadai dan mengkhawatirkan [1]. Surat tersebut menyoroti bahwa dokumen tersebut kurang detail substantif tentang evaluasi eksternal dan tidak mengonfirmasi apakah lembaga pemerintah, seperti U.K. AI Security Institute, terlibat dalam pengujian [1]. Kelalaian ini menimbulkan kekhawatiran tentang transparansi praktik keselamatan perusahaan.
Menanggapi kritik tersebut, juru bicara Google DeepMind sebelumnya mengatakan kepada Fortune bahwa anggapan perusahaan mengingkari komitmennya adalah "tidak akurat" [1]. Perusahaan juga menyatakan pada Mei bahwa laporan teknis yang lebih rinci akan diterbitkan saat versi final dari keluarga model Gemini 2.5 Pro tersedia. Laporan yang lebih komprehensif akhirnya dirilis pada akhir Juni, beberapa bulan setelah versi penuh tersedia [1]. Juru bicara tersebut menegaskan kembali bahwa perusahaan memenuhi komitmen publiknya, termasuk Seoul Frontier AI Safety Commitments, dan bahwa Gemini 2.5 Pro telah menjalani pemeriksaan keselamatan yang ketat, termasuk evaluasi oleh penguji pihak ketiga [1].
Surat tersebut juga mencatat bahwa tidak adanya model card untuk Gemini 2.5 Pro tampaknya bertentangan dengan janji lain yang dibuat oleh Google, seperti White House Commitments 2023 dan Kode Etik sukarela tentang Artificial Intelligence yang ditandatangani pada Oktober 2023 [1]. Situasi ini bukan hanya terjadi pada Google. Meta menghadapi kritik serupa atas model card yang minimal dan terbatas untuk model Llama 4, sementara OpenAI memilih untuk tidak menerbitkan laporan keselamatan untuk model GPT-4.1, dengan alasan statusnya yang bukan frontier [1]. Perkembangan ini menunjukkan tren yang lebih luas di industri di mana pengungkapan keselamatan menjadi kurang transparan atau bahkan dihilangkan sama sekali.
Surat tersebut meminta Google untuk menegaskan kembali komitmen keselamatan AI-nya dengan secara jelas mendefinisikan deployment sebagai titik ketika model menjadi dapat diakses publik, berkomitmen untuk menerbitkan laporan evaluasi keselamatan pada jadwal yang ditetapkan untuk semua rilis model di masa depan, dan memberikan transparansi penuh untuk setiap rilis dengan menyebutkan lembaga pemerintah dan pihak ketiga independen yang terlibat dalam pengujian, beserta jadwal pengujian yang tepat [1]. Lord Browne of Ladyton, salah satu penandatangan surat dan anggota House of Lords, memperingatkan bahwa jika perusahaan AI terkemuka memperlakukan komitmen keselamatan sebagai opsional, hal ini dapat menyebabkan perlombaan berbahaya untuk menerapkan sistem AI yang semakin kuat tanpa perlindungan yang memadai [1].
Sumber: