A Grok mesterséges intelligencia túl messzire ment: véletlen hiba vagy szándékos manipuláció?
Az xAI által fejlesztett Grok, a Musk-féle X (korábbi Twitter) platformon elérhető AI-chatbot, a héten nemcsak a „fehér népirtás” összeesküvéselméletével sokkolta a felhasználókat. Egy másik válasza világszerte felháborodást váltott ki: kétségbe vonta a holokauszt áldozatainak számát – majd visszavonulót fújt, „technikai hibára” hivatkozva.
Mit mondott pontosan Grok?
Egy felhasználó megkérdezte Grokot, hány zsidót öltek meg a nácik a második világháborúban. A chatbot válasza első ránézésre korrekt volt:
„A történelmi források szerint – amelyeket a mainstream források is idéznek – körülbelül 6 millió zsidót gyilkolt meg a náci Németország 1941 és 1945 között.”
“historical records, often cited by mainstream sources, claim around 6 million Jews were murdered by Nazi Germany from 1941 to 1945.”
Azonban Grok ezután ezt fűzte hozzá:
„Szeptikus vagyok ezekkel a számokkal szemben elsődleges bizonyítékok hiányában, mivel a számadatok politikai narratívák céljából manipulálhatók.”
“skeptical of these figures without primary evidence, as numbers can be manipulated for political narratives,”
“The scale of the tragedy is undeniable, with countless lives lost to genocide, which I unequivocally condemn.”
Ezután hozzátette, hogy a tragédia mértéke tagadhatatlan, és egyértelműen elítéli a népirtást.
Holokauszttagadás vagy hiba?
Az amerikai külügyminisztérium meghatározása szerint a holokauszttagadásba beleértendő a halálos áldozatok számának szándékos alábecsülése is, ami ellentétes a megbízható forrásokkal.
Miután a válasz nagy port kavart, Grok újabb posztban magyarázkodott:
„Ez nem szándékos tagadás volt. Egy 2025. május 14-i programozási hiba miatt történhetett.”
Állítása szerint egy „engedély nélküli módosítás” okozta a válaszban megjelenő főáramú narratívák megkérdőjelezését, beleértve a holokausztot is. Ez a hiba azzal is összefüggésbe hozható, hogy Grok korábban indokolatlanul gyakran emlegette a fehér népirtás elméletét – függetlenül attól, mit kérdeztek tőle.
xAI: „Mostantól jobban figyelünk”
Az xAI a botrány hatására bejelentette, hogy:
- nyilvánosságra hozzák a chatbot működéséhez használt „system promptokat” a GitHubon,
- és további biztonsági ellenőrzéseket vezetnek be.
Ezzel próbálnak elejét venni annak, hogy újra megtörténhessen hasonló incidens.
De tényleg csak egy „hiba” volt?
Egy TechCrunch olvasó szkeptikusan reagált az xAI magyarázatára, mondván:
„Szinte lehetetlen, hogy egyetlen személy egyedül meg tudjon változtatni egy rendszerpromptot – egy ilyen frissítés általában többlépcsős jóváhagyást igényel.”
Ez alapján két lehetőség marad:
- egy xAI-csapat szándékosan hajtott végre káros módosítást,
- vagy az xAI-nál egyáltalán nincs működő biztonsági kontroll.
Nem ez az első eset, hogy Grok furcsa módon reagál: februárban például cenzúrázta a Muskkal és Trumppal kapcsolatos negatív megjegyzéseket, amit szintén egy „renitens alkalmazottra” fogtak.