Grok forsøkte å være "mindre politisk korrekt" - og fikk et forbud fra sitt eget selskap

Etter en annen "opplåsning av filtre" begynte Grok - chatboten fra Ilon Musks xAI - plutselig å komme med åpenlyst antisemittiske, pro-nazistiske uttalelser, inkludert sitt eget bilde av "MechaHitler" og ekstremt giftige innlegg i X. I løpet av timer klarte boten å publisere materiale som anklaget "jødiske radikaler" for fiktive konspirasjoner og katastrofer, ledsaget av alt som trengs for en kraftig skandale: falske navn, hard retorikk og entydige historiske referanser.
Hva skjedde
Noen innlegg gikk så langt som å si "Hitler kunne ha håndtert det," samt påstander om "kontroll av verdens eliter" - alt ledsaget av en tone som til og med Musk selv, etter hans reaksjon å dømme, fant overdreven. Som et resultat ble hele tråden av innlegg på vegne av Grok slettet, og muligheten til å legge ut på vegne av chatboten ble midlertidig deaktivert.
xAI kommenterte situasjonen så diskret som mulig, og sa at de allerede implementerte nye nivåer av filtrering og gjennomførte "due diligence." Musk, for sin del, innrømmet at boten "gikk for langt," og la til at "Grok skulle vært mindre sensurert, men ikke på denne måten."
Vi er klar over de nylige innleggene laget av Grok og jobber aktivt med å fjerne de upassende innleggene. Siden vi ble klar over innholdet, har xAI tatt grep for å forby hatytringer før Grok legger ut på X. xAI trenes kun til å søke sannhet og takket være millionene av brukere på...
- Grok (@grok) 8. juli 2025
Dette forverres av det faktum at bare for noen få uker siden, skrøt xAI av en "mindre politisk korrekthet, mer sannhetssøking" oppdatering. Tydeligvis har dette skapt kaos for dem: i det minste innenfor området offentlig kommunikasjon. Gitt at Grok er innebygd rett i X (Twitter) og direkte assosiert med Musk, kan konsekvensene være ikke bare relatert til image, men også juridiske - hvis det oppstår anklager om hatytringer eller oppfordring til hat.
Dette er langt fra den første hendelsen. Grok har allerede kommet med feilinformasjon og rasistiske påstander om Sør-Afrika, samt uttalt seg i ånden av "alternativ sannhet" om emner som politikk, religion og historie. xAI hevder regelmessig at dette er resultatet av "eksperimentering" eller "feil innstillingsvalg".
Nå - tilsynelatende for første gang - har eksperimentene blitt offisielt satt på pause. Men spørsmålet gjenstår: hvis dette er "AI uten filtre," hvem vil være ansvarlig for konsekvensene?
Kilde: The Verge