Anggota Parlemen Inggris Peringatkan: Janji Keamanan AI Semakin Menjadi Hiasan Saja
- 60 anggota parlemen Inggris menuduh Google DeepMind melanggar komitmen keselamatan AI dengan menunda laporan keselamatan terperinci untuk Gemini 2.5 Pro. - Perusahaan tersebut merilis model card yang disederhanakan tiga minggu setelah peluncuran, yang kurang transparansi tentang pengujian pihak ketiga dan keterlibatan lembaga pemerintah. - Google mengklaim telah memenuhi komitmennya dengan menerbitkan laporan teknis beberapa bulan kemudian, tetapi para kritikus berpendapat bahwa hal ini merusak kepercayaan terhadap protokol keselamatan. - Masalah serupa di Meta dan OpenAI menyoroti kekhawatiran industri secara luas tentang transparansi.
Sekelompok 60 anggota parlemen Inggris telah menandatangani surat terbuka yang menuduh Google DeepMind gagal memenuhi komitmen keselamatan AI-nya, khususnya terkait penundaan rilis informasi keselamatan terperinci untuk model Gemini 2.5 Pro [1]. Surat tersebut, yang diterbitkan oleh kelompok aktivis politik PauseAI, mengkritik perusahaan karena tidak menyediakan model card yang komprehensif pada saat peluncuran model, yang merupakan dokumen kunci yang menguraikan bagaimana model diuji dan dibangun [1]. Mereka berpendapat bahwa kegagalan ini merupakan pelanggaran terhadap Frontier AI Safety Commitments yang dibuat pada sebuah konferensi internasional pada Februari 2024, di mana para penandatangan—termasuk Google—berjanji untuk secara terbuka melaporkan kemampuan model, penilaian risiko, dan keterlibatan pengujian pihak ketiga [1].
Google merilis Gemini 2.5 Pro pada Maret 2025 namun tidak menerbitkan model card penuh pada saat itu, meskipun mengklaim bahwa model tersebut mengungguli pesaing pada tolok ukur utama [1]. Sebagai gantinya, model card sederhana setebal enam halaman dirilis tiga minggu kemudian, yang oleh beberapa ahli tata kelola AI dianggap tidak memadai dan mengkhawatirkan [1]. Surat tersebut menyoroti bahwa dokumen tersebut kurang detail substantif tentang evaluasi eksternal dan tidak mengonfirmasi apakah lembaga pemerintah, seperti U.K. AI Security Institute, terlibat dalam pengujian [1]. Kelalaian ini menimbulkan kekhawatiran tentang transparansi praktik keselamatan perusahaan.
Menanggapi kritik tersebut, juru bicara Google DeepMind sebelumnya mengatakan kepada Fortune bahwa anggapan perusahaan mengingkari komitmennya adalah "tidak akurat" [1]. Perusahaan juga menyatakan pada Mei bahwa laporan teknis yang lebih rinci akan diterbitkan saat versi final dari keluarga model Gemini 2.5 Pro tersedia. Laporan yang lebih komprehensif akhirnya dirilis pada akhir Juni, beberapa bulan setelah versi penuh tersedia [1]. Juru bicara tersebut menegaskan kembali bahwa perusahaan memenuhi komitmen publiknya, termasuk Seoul Frontier AI Safety Commitments, dan bahwa Gemini 2.5 Pro telah menjalani pemeriksaan keselamatan yang ketat, termasuk evaluasi oleh penguji pihak ketiga [1].
Surat tersebut juga mencatat bahwa tidak adanya model card untuk Gemini 2.5 Pro tampaknya bertentangan dengan janji lain yang dibuat oleh Google, seperti White House Commitments 2023 dan Kode Etik sukarela tentang Artificial Intelligence yang ditandatangani pada Oktober 2023 [1]. Situasi ini bukan hanya terjadi pada Google. Meta menghadapi kritik serupa atas model card yang minimal dan terbatas untuk model Llama 4, sementara OpenAI memilih untuk tidak menerbitkan laporan keselamatan untuk model GPT-4.1, dengan alasan statusnya yang bukan frontier [1]. Perkembangan ini menunjukkan tren yang lebih luas di industri di mana pengungkapan keselamatan menjadi kurang transparan atau bahkan dihilangkan sama sekali.
Surat tersebut meminta Google untuk menegaskan kembali komitmen keselamatan AI-nya dengan secara jelas mendefinisikan deployment sebagai titik ketika model menjadi dapat diakses publik, berkomitmen untuk menerbitkan laporan evaluasi keselamatan pada jadwal yang ditetapkan untuk semua rilis model di masa depan, dan memberikan transparansi penuh untuk setiap rilis dengan menyebutkan lembaga pemerintah dan pihak ketiga independen yang terlibat dalam pengujian, beserta jadwal pengujian yang tepat [1]. Lord Browne of Ladyton, salah satu penandatangan surat dan anggota House of Lords, memperingatkan bahwa jika perusahaan AI terkemuka memperlakukan komitmen keselamatan sebagai opsional, hal ini dapat menyebabkan perlombaan berbahaya untuk menerapkan sistem AI yang semakin kuat tanpa perlindungan yang memadai [1].
Sumber:

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai
Forward Industries akan melakukan tokenisasi saham perusahaan dan beroperasi sepenuhnya di blockchain Solana

Dapatkan Bitcoin dan Ethereum Anda melalui PayPal: Pembayaran P2P baru saja memasuki dunia kripto
PayPal telah meluncurkan pembayaran peer-to-peer untuk Bitcoin dan Ethereum, memungkinkan pengguna untuk mengirim dan menerima cryptocurrency secara langsung melalui platform mereka dengan lebih mudah daripada sebelumnya.

Harga Avantis (AVNT) Turun 15% karena Bentrokan Pembeli-Penjual, tapi Satu Metrik Memberi Harapan
Avantis (AVNT) diduga menghadapi tekanan jual besar-besaran akibat airdrop, namun perlindungan dari whale dan sinyal RSI mengisyaratkan momentum mungkin akan segera berubah.

Momentum Bullish Somnia Meningkat: Apakah Kenaikan 40% Menuju All-Time High Akan Terjadi?
Somnia (SOMI) sedang mendapatkan traksi bullish, didukung oleh arus modal masuk dan keterkaitan yang lebih kuat dengan Bitcoin. Dengan resistance di $1,44, breakout dapat membuka jalan untuk menguji kembali all-time high di $1,90.

Berita trending
LainnyaHarga kripto
Lainnya








