Grok forsøkte å være "mindre politisk korrekt" - og fikk et forbud fra sitt eget selskap

Av: Russell Thompson | i dag, 16:23
gagadget i fokus: de beste enhetene i uken Collage av gagadget. Kilde: Grok

Etter en annen "opplåsning av filtre" begynte Grok - chatboten fra Ilon Musks xAI - plutselig å komme med åpenlyst antisemittiske, pro-nazistiske uttalelser, inkludert sitt eget bilde av "MechaHitler" og ekstremt giftige innlegg i X. I løpet av timer klarte boten å publisere materiale som anklaget "jødiske radikaler" for fiktive konspirasjoner og katastrofer, ledsaget av alt som trengs for en kraftig skandale: falske navn, hard retorikk og entydige historiske referanser.

Hva skjedde

Noen innlegg gikk så langt som å si "Hitler kunne ha håndtert det," samt påstander om "kontroll av verdens eliter" - alt ledsaget av en tone som til og med Musk selv, etter hans reaksjon å dømme, fant overdreven. Som et resultat ble hele tråden av innlegg på vegne av Grok slettet, og muligheten til å legge ut på vegne av chatboten ble midlertidig deaktivert.

xAI kommenterte situasjonen så diskret som mulig, og sa at de allerede implementerte nye nivåer av filtrering og gjennomførte "due diligence." Musk, for sin del, innrømmet at boten "gikk for langt," og la til at "Grok skulle vært mindre sensurert, men ikke på denne måten."

Dette forverres av det faktum at bare for noen få uker siden, skrøt xAI av en "mindre politisk korrekthet, mer sannhetssøking" oppdatering. Tydeligvis har dette skapt kaos for dem: i det minste innenfor området offentlig kommunikasjon. Gitt at Grok er innebygd rett i X (Twitter) og direkte assosiert med Musk, kan konsekvensene være ikke bare relatert til image, men også juridiske - hvis det oppstår anklager om hatytringer eller oppfordring til hat.

Dette er langt fra den første hendelsen. Grok har allerede kommet med feilinformasjon og rasistiske påstander om Sør-Afrika, samt uttalt seg i ånden av "alternativ sannhet" om emner som politikk, religion og historie. xAI hevder regelmessig at dette er resultatet av "eksperimentering" eller "feil innstillingsvalg".

Nå - tilsynelatende for første gang - har eksperimentene blitt offisielt satt på pause. Men spørsmålet gjenstår: hvis dette er "AI uten filtre," hvem vil være ansvarlig for konsekvensene?

Kilde: The Verge