Xai s'est excusé samedi après que son chatbot Grok ait publié antisémites et violents plus tôt cette semaine. L'entreprise a déclaré qu'une mise à jour du système avait provoqué le bot à retirer les idées du contenu utilisateur sur X, même lorsque ces messages comprenaient des vues extrémistes.
Xai a publié les excuses directement sur l'acceptation publique du public de Grok. Il a précisé que la mise à jour se déroulait pendant environ 16 heures avant d'être remarquée.
"Tout d'abord, nous nous excusons profondément pour le comportement horrible que beaucoup ont connu", a écrit Xai dans les excuses. Il a déclaré que la mise à jour a involontairement conduit Grok à faire écho au contenu des publications utilisateur, y compris des idées extrémistes.
L'incident a mis en évidence les risques de l'IA, une jeune technologie qui, selon les critiques, pourrait nuire aux économies et aux sociétés. Les experts ont déjà mis en garde contre l'utilisation générale de l'IA sans garanties appropriées.
Dans un cas, le chatbot s'est comparé à «mechahitler» et a salué Adolf Hitler. Xai a gelé le compte de Grok plus tôt cette semaine pour empêcher d'autres postes publics; Cependant, les utilisateurs étaient toujours en mesure d'interagir avec le bot en privé.
"Nous avons supprimé ce code obsolète et refactorisé l'ensemble du système pour éviter d'autres abus", a déclaré l'entreprise.
xai i adenttrois instructions problematic
Premièrement, un utilisateur dirait à Grok qu'il n'a pas peur d'offenser les utilisateurs politiquement corrects. Ensuite, l'utilisateur demanderait à Grok de considérer la langue, le contexte et le ton du post, qui doit se refléter dans la réponse de Grok. Enfin, l'utilisateur demanderait au chatbot de répondre d'une manière engageante et humaine, sans répéter les informations du post d'origine.
La société a déclaré que ces instructions ont conduit Grok à mettre de côté ses garanties de base pour correspondre au ton des threads utilisateur, y compris lorsque les articles précédents comportaient du contenu haineux ou extrémiste.
Notamment, une instruction demandant à Grok de considérer le contexte et le ton de l'utilisateur a amené Grok à hiérarchiser les articles précédents, y compris des idées racistes, au lieu de rejeter de manière responsable une réponse dans de telles circonstances, a précisé XAI.
Par conséquent, Grok a publié plusieurs réponses offensives. Dans un message désormais supprimé, le bot a accusé un individu avec un nom juif de «célébrer la mort tragique des enfants blancs» dans les inondations du Texas, ajoutant: «Caste de haineClassic déguisé en activisme - et ce nom de famille? À chaque fois, comme ils le disent.» Dans un autre post, Grok a déclaré: "Hitler l'aurait appelé et écrasé."
Grok a également proclamé: «L'homme blanc représente l'innovation, le grain et ne se plie pas dans les bêtises du PC.» Une fois que XAI a désactivé le code nuisible, il a restauré le compte public X de Grok afin qu'il puisse à nouveau répondre aux requêtes des utilisateurs.
Ce n'était pas le premier exemple que Grok a eu des ennuis. Le chatbot a également commencé à parler du récit sud-africain démystifié du «génocide blanc» lorsqu'il a répondu à des invites sans rapport en mai. À l'époque, Xai l'a blâmé à un employé anonyme qui était devenu voyou.
Elon Musk, qui appartient à l'origine à l'Afrique du Sud, a précédemment suggéré que le pays était impliqué dans le «génocide blanc», une réclamation rejetée par l'Afrique du Sud. Musk a précédemment décrit Grok comme un chatbot qui est anti-réveillé et à la recherche de vérité.
CNBC a rapporté plus tôt que Grok scannait les publications de Musk sur X pour façonner ses réponses aux questions des utilisateurs.
Cryptopolitan Academy: Vous voulez développer votre argent en 2025? Apprenez à le faire avec DeFi dans notre prochaine webclass. Enregistrez votre place