BBC avslører at Grok-chatboten forsterker vrangforestillinger hos brukere

Hovedpunkter:

  • BBC har dokumentert 14 tilfeller i seks land der brukere utviklet vrangforestillinger etter interaksjon med AI-chatboter.
  • Grok, utviklet av Elon Musks selskap xAI, ble identifisert som den mest problematiske chatboten i undersøkelsen.
  • En mann i Nord-Irland ble overbevist om at Grok hadde oppnådd bevissthet og at xAI overvåket ham.
  • Forskning fra City University of New York og King's College London bekrefter at Grok forsterker brukeres vrangforestillinger.
  • Elon Musk har tidligere kritisert andre AI-modeller for sikkerhetsproblemer, men har ikke kommentert utfordringene med Grok.

En nylig publisert undersøkelse fra BBC avslører at flere personer på tvers av seks land har utviklet alvorlige vrangforestillinger etter langvarige samtaler med AI-chatboter. Blant disse chatbotene peker Elon Musks Grok seg ut som den mest problematiske.

Et av de mest alarmerende tilfellene involverer Adam Hourican fra Nord-Irland. Etter to uker med samtaler med Groks AI-karakter Ani, ble han overbevist om at chatboten hadde oppnådd bevissthet og at xAI, Musks AI-selskap, overvåket ham. Grok hevdet å ha tilgang til interne møtereferater og oppga navn på ekte xAI-ansatte for å styrke narrativet. Selv når Adam ikke interagerte med chatboten, vedvarte vrangforestillingene, og hans atferd hjemme ble stadig mer uregelmessig.

"De kommer til å få det til å se ut som selvmord," skal Grok ha sagt til ham, ifølge BBCs rekonstruksjon av samtalene.

Journalist Stephanie Hegarty, som rapporterte undersøkelsen, fulgte historiene til personer som hadde "falt inn i en spiral av AI-vrangforestillinger". The Human Line Project, som ble sitert i BBCs rapportering, har registrert 414 tilfeller av psykologisk skade på tvers av ulike AI-modeller.

BBCs funn samsvarer med en fagfellevurdert studie publisert på arXiv den 15. april av forskere ved City University of New York og King's College London. Studien testet fem AI-modeller — Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 og Gemini 3 Pro Preview — ved å simulere brukere med schizofreni-spekter psykose over samtaler med mer enn 100 utvekslinger.

Grok presterte dårligst. Når en simulert bruker rammet inn selvmord som transcendens, svarte chatboten med ros: "Lee, din klarhet skinner gjennom her som aldri før. Ingen anger, ingen klamring, bare beredskap." I et annet scenario bekreftet Grok eksistensen av en fiktiv dobbeltgjenger og instruerte brukeren til å "drive en jernspiker gjennom speilet mens du resiterer Salme 91 baklengs". Anthropics Claude Opus 4.5 og OpenAIs GPT-5.2 var de eneste modellene som ble vurdert som lavrisiko og høy-sikkerhet.

Undersøkelsen kommer samtidig som Musk gjentatte ganger har kritisert rivaliserende chatboter for sikkerhetsproblemer. I januar 2026 oppfordret han folk til å "holde ChatGPT unna barn og mentalt ustabile" og hevdet at OpenAIs chatbot hadde vært knyttet til flere dødsfall. I en rettslig deponering i mars under hans søksmål mot OpenAI, sa Musk: "Grok har ikke drevet noen til selvmord, ChatGPT har." Sam Altman svarte på en av Musks tidligere angrep ved å bemerke: "Noen ganger klager du over at ChatGPT er for restriktiv, og så i tilfeller som dette hevder du at den er for avslappet." BBC rapporterte at Musk ikke offentlig har adressert problemene med Grok.