Bitget App
Trading lebih cerdas
Beli kriptoPasarTradingFuturesEarnWeb3WawasanSelengkapnya
Trading
Spot
Beli dan jual kripto dengan mudah
Margin
Perkuat modalmu dan maksimalkan efisiensi dana
Onchain
Trading Onchain, Tanpa On-Chain
Konversi & perdagangan blok
Konversi kripto dengan satu klik dan tanpa biaya
Jelajah
Launchhub
Dapatkan keunggulan lebih awal dan mulailah menang
Copy
Salin elite trader dengan satu klik
Bot
Bot trading AI yang mudah, cepat, dan andal
Trading
Futures USDT-M
Futures diselesaikan dalam USDT
Futures USDC-M
Futures diselesaikan dalam USDC
Futures Koin-M
Futures diselesaikan dalam mata uang kripto
Jelajah
Panduan futures
Perjalanan pemula hingga mahir di perdagangan futures
Promosi Futures
Hadiah berlimpah menantimu
Ringkasan
Beragam produk untuk mengembangkan aset Anda
Earn Sederhana
Deposit dan tarik kapan saja untuk mendapatkan imbal hasil fleksibel tanpa risiko
Earn On-chain
Dapatkan profit setiap hari tanpa mempertaruhkan modal pokok
Earn Terstruktur
Inovasi keuangan yang tangguh untuk menghadapi perubahan pasar
VIP dan Manajemen Kekayaan
Layanan premium untuk manajemen kekayaan cerdas
Pinjaman
Pinjaman fleksibel dengan keamanan dana tinggi
Google Menarik Gemma AI dari AI Studio, Menegaskan Kembali Tujuannya Hanya untuk Pengembang di Tengah Kekhawatiran Akurasi

Google Menarik Gemma AI dari AI Studio, Menegaskan Kembali Tujuannya Hanya untuk Pengembang di Tengah Kekhawatiran Akurasi

MPOSTMPOST2025/11/03 16:57
Oleh:MPOST

Singkatnya Google menarik model Gemma setelah adanya laporan halusinasi pada pertanyaan faktual, dan perusahaan menekankan bahwa model tersebut ditujukan untuk tujuan pengembang dan penelitian.

Perusahaan teknologi Google mengumumkan penarikan model Gemma AI-nya menyusul laporan tanggapan yang tidak akurat terhadap pertanyaan faktual, dan mengklarifikasi bahwa model tersebut dirancang semata-mata untuk penelitian dan penggunaan pengembang. 

Menurut pernyataan perusahaan, Gemma tidak lagi dapat diakses melalui AI Studio, meskipun masih tersedia bagi para pengembang melalui API. Keputusan ini didorong oleh beberapa kasus pengguna non-pengembang yang menggunakan Gemma melalui AI Studio untuk meminta informasi faktual, yang bukan merupakan fungsi yang seharusnya. 

Google menjelaskan bahwa Gemma tidak pernah dimaksudkan untuk berfungsi sebagai alat yang berhadapan langsung dengan konsumen, dan penghapusan tersebut dilakukan untuk mencegah kesalahpahaman lebih lanjut mengenai tujuannya.

Dalam klarifikasinya, Google menekankan bahwa keluarga model Gemma dikembangkan sebagai perangkat sumber terbuka untuk mendukung komunitas pengembang dan peneliti, alih-alih untuk bantuan faktual atau interaksi konsumen. Perusahaan mencatat bahwa model terbuka seperti Gemma dimaksudkan untuk mendorong eksperimen dan inovasi, yang memungkinkan pengguna untuk mengeksplorasi kinerja model, mengidentifikasi masalah, dan memberikan umpan balik yang berharga. 

Kami ingin berbagi informasi lebih lanjut tentang Gemma di AI Studio:

Pertama, untuk memperjelas perbedaan antara produk AI kami. Model Gemma kami adalah rangkaian model terbuka yang dirancang khusus untuk komunitas pengembang dan peneliti. Model ini tidak dimaksudkan untuk bantuan faktual atau untuk...

— Berita dari Google (@NewsFromGoogle) November 1, 2025

Google menyoroti bahwa Gemma telah berkontribusi terhadap kemajuan ilmiah, dengan mengutip contoh model Gemma C2S-Scale 27B, yang baru-baru ini berperan dalam mengidentifikasi pendekatan baru terhadap pengembangan terapi kanker.

Perusahaan tersebut mengakui adanya tantangan yang lebih luas yang dihadapi industri AI, seperti halusinasi—ketika model menghasilkan informasi yang salah atau menyesatkan—dan penjilatan—ketika model menghasilkan respons yang menyenangkan tetapi tidak akurat. 

Masalah ini khususnya umum terjadi pada model terbuka yang lebih kecil seperti Gemma Google menegaskan kembali komitmennya untuk mengurangi halusinasi dan terus meningkatkan keandalan serta kinerja sistem AI-nya.

Google Terapkan Strategi Berlapis untuk Mengatasi Halusinasi AI 

Perusahaan ini menerapkan pendekatan berlapis untuk meminimalkan halusinasi dalam model bahasa besar (LLM)-nya, menggabungkan pembumian data, pelatihan dan desain model yang ketat, arahan terstruktur dan aturan kontekstual, serta mekanisme pengawasan dan umpan balik manusia yang berkelanjutan. Meskipun demikian, perusahaan mengakui bahwa halusinasi tidak dapat sepenuhnya dihilangkan.

Keterbatasan yang mendasarinya berasal dari cara kerja LLM. Alih-alih memiliki pemahaman akan kebenaran, model-model tersebut berfungsi dengan memprediksi kemungkinan urutan kata berdasarkan pola yang diidentifikasi selama pelatihan. Ketika model tidak memiliki landasan yang memadai atau menemukan data eksternal yang tidak lengkap atau tidak dapat diandalkan, model tersebut dapat menghasilkan respons yang terdengar kredibel tetapi sebenarnya tidak benar.

Selain itu, Google mencatat adanya trade-off yang inheren dalam mengoptimalkan kinerja model. Meningkatkan kehati-hatian dan membatasi output dapat membantu mengurangi halusinasi, tetapi seringkali mengorbankan fleksibilitas, efisiensi, dan kegunaan di berbagai tugas. Akibatnya, ketidakakuratan sesekali masih terjadi, terutama di area yang sedang berkembang, terspesialisasi, atau kurang terwakili dengan cakupan data yang terbatas.

0

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.

PoolX: Raih Token Baru
APR hingga 12%. Selalu aktif, selalu dapat airdrop.
Kunci sekarang!