Isang grupo ng 60 mambabatas mula sa U.K. ang lumagda sa isang bukas na liham na inaakusahan ang Google DeepMind ng hindi pagtupad sa kanilang mga pangako ukol sa AI safety, partikular na kaugnay ng naantalang paglalabas ng detalyadong impormasyon sa kaligtasan para sa Gemini 2.5 Pro model [1]. Ang liham, na inilathala ng political activist group na PauseAI, ay pumupuna sa kumpanya dahil sa hindi pagbibigay ng komprehensibong model card sa oras ng paglabas ng modelo, na isang mahalagang dokumento na naglalahad kung paano nasubok at nabuo ang modelo [1]. Ayon sa kanila, ang pagkukulang na ito ay paglabag sa Frontier AI Safety Commitments na ginawa sa isang internasyonal na summit noong Pebrero 2024, kung saan ang mga lumagda—kabilang ang Google—ay nangakong mag-ulat sa publiko tungkol sa kakayahan ng modelo, mga risk assessment, at partisipasyon ng mga third-party tester [1].
Inilabas ng Google ang Gemini 2.5 Pro noong Marso 2025 ngunit hindi naglabas ng buong model card sa panahong iyon, kahit na iginiit ng kumpanya na nalampasan ng modelo ang mga kakumpitensya sa mahahalagang benchmark [1]. Sa halip, isang pinaikling anim na pahinang model card ang inilabas makalipas ang tatlong linggo, na inilarawan ng ilang AI governance experts bilang hindi sapat at nakakabahala [1]. Binibigyang-diin ng liham na kulang sa mahahalagang detalye ang dokumento tungkol sa mga panlabas na pagsusuri at hindi rin nito kinumpirma kung ang mga ahensya ng gobyerno, tulad ng U.K. AI Security Institute, ay kasali sa pagsusuri [1]. Ang mga pagkukulang na ito ay nagdudulot ng pangamba tungkol sa transparency ng mga safety practices ng kumpanya.
Bilang tugon sa mga puna, sinabi ng isang tagapagsalita ng Google DeepMind sa Fortune na anumang pahiwatig na hindi tinutupad ng kumpanya ang kanilang mga pangako ay "hindi tama" [1]. Sinabi rin ng kumpanya noong Mayo na maglalathala sila ng mas detalyadong technical report kapag naging available na ang final version ng Gemini 2.5 Pro model family. Sa huli, isang mas komprehensibong ulat ang inilabas noong huling bahagi ng Hunyo, ilang buwan matapos maging available ang buong bersyon [1]. Muling iginiit ng tagapagsalita na tinutupad ng kumpanya ang kanilang mga pampublikong pangako, kabilang ang Seoul Frontier AI Safety Commitments, at ang Gemini 2.5 Pro ay sumailalim sa masusing safety checks, kabilang ang mga pagsusuri ng mga third-party tester [1].
Binanggit din sa liham na ang kakulangan ng model card para sa Gemini 2.5 Pro ay tila sumasalungat sa iba pang mga pangako ng Google, gaya ng 2023 White House Commitments at isang boluntaryong Code of Conduct on Artificial Intelligence na nilagdaan noong Oktubre 2023 [1]. Hindi natatangi ang sitwasyon sa Google. Nakaranas din ang Meta ng katulad na batikos dahil sa minimal at limitadong model card para sa Llama 4 model, habang ang OpenAI ay nagpasya na huwag maglabas ng safety report para sa GPT-4.1 model, na binanggit ang non-frontier status nito [1]. Ipinapahiwatig ng mga pangyayaring ito ang mas malawak na trend sa industriya kung saan ang mga safety disclosure ay nagiging hindi na transparent o tuluyang hindi na inilalathala.
Nanawagan ang liham sa Google na muling pagtibayin ang kanilang mga pangako sa AI safety sa pamamagitan ng malinaw na pagdedeklara na ang deployment ay ang punto kung kailan nagiging accessible sa publiko ang isang modelo, pangakong maglalathala ng mga ulat ng safety evaluation ayon sa itinakdang iskedyul para sa lahat ng susunod na model releases, at pagbibigay ng ganap na transparency sa bawat release sa pamamagitan ng pagbibigay ng pangalan ng mga ahensya ng gobyerno at independent third parties na kasali sa pagsusuri, pati na rin ang eksaktong iskedyul ng pagsusuri [1]. Binalaan ni Lord Browne ng Ladyton, isa sa mga lumagda sa liham at Miyembro ng House of Lords, na kung ituturing ng mga nangungunang AI companies na opsyonal lamang ang mga safety commitment, maaari itong magdulot ng mapanganib na karera sa pag-deploy ng mas makapangyarihang AI systems nang walang sapat na mga pananggalang [1].
Source: