OpenAI dan Anthropic saling menguji model terkait masalah halusinasi dan keamanan
Jinse Finance melaporkan bahwa OpenAI dan Anthropic baru-baru ini saling mengevaluasi model masing-masing untuk menemukan masalah yang mungkin terlewatkan dalam pengujian internal mereka. Kedua perusahaan tersebut menyatakan di blog mereka masing-masing pada hari Rabu bahwa pada musim panas tahun ini, mereka melakukan pengujian keamanan terhadap model AI yang tersedia secara publik milik satu sama lain, dan memeriksa apakah model tersebut memiliki kecenderungan untuk menghasilkan halusinasi, serta masalah yang disebut "misalignment", yaitu ketika model tidak berjalan sesuai dengan harapan pengembang. Evaluasi ini dilakukan sebelum OpenAI meluncurkan GPT-5 dan sebelum Anthropic merilis Opus 4.1 pada awal Agustus. Anthropic didirikan oleh mantan karyawan OpenAI.
Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai
CI Global Asset Management melakukan staking ETH senilai 130 juta dolar AS
Merlin Chain: Pendapatan BTCFi tumbuh stabil, 50% pendapatan akan terus digunakan untuk pembelian kembali MERL
Filipina berencana meluncurkan sistem anggaran berbasis blockchain, pakar hukum memperingatkan risiko
Saham AS dibuka lebih tinggi dan terus naik, Indeks Komposit Nasdaq naik 0,75%.
Berita trending
LainnyaHarga kripto
Lainnya








