Veien til generell intelligens: Hvorfor dagens KI-modeller ikke vil ta oss dit

Hovedpunkter:

  • Dagens KI-modeller er spesialiserte verktøy, ikke generelle tenkere.
  • Hallusinasjoner i KI er symptomer på manglende forståelse av virkeligheten.
  • Prompt injection utgjør en uløselig sårbarhet i nåværende modeller.
  • KI-modeller kan ikke tenke utenfor boksen eller generalisere utover treningsdataene.
  • Fremtidens KI krever integrasjon av abstrakte resonneringsnettverk og verdensmodeller.

Kunstig intelligens (KI) har de siste årene gjort betydelige fremskritt, med modeller som ChatGPT og Midjourney som eksempler på teknologiens potensial. Mange antar at ved å skalere opp disse modellene med mer data og regnekraft, vil vi til slutt oppnå kunstig generell intelligens (AGI) – en form for intelligens som kan utføre enhver intellektuell oppgave et menneske kan. Imidlertid er det flere grunnleggende begrensninger ved dagens KI-modeller som gjør denne antagelsen tvilsom.

**Spesialiserte verktøy, ikke generelle tenkere**

Dagens KI-modeller er designet for spesifikke oppgaver. Språkmodeller er trent på tekstdata, mens bildemodeller fokuserer på visuelle data. Denne spesialiseringen begrenser deres evne til å utføre oppgaver utenfor sitt treningsområde. Ekte AGI krever evnen til abstrakt tenkning og anvendelse av kunnskap på tvers av ulike domener, noe dagens modeller ikke er i stand til.

**Hallusinasjoner: Et symptom på manglende forståelse**

KI-modellers tendens til å generere overbevisende, men feilaktige svar – kjent som "hallusinasjoner" – skyldes deres manglende forståelse av virkeligheten. Disse modellene genererer svar basert på sannsynlighetsfordelinger fra treningsdataene, uten en faktisk forståelse av innholdet. Selv om tiltak som å belønne modeller for å uttrykke usikkerhet kan redusere forekomsten av hallusinasjoner, løser det ikke det underliggende problemet med manglende forståelse.

**Prompt injection: En uløselig sårbarhet**

"Prompt injection" refererer til muligheten for å manipulere KI-modeller gjennom spesifikke input, noe som kan føre til uønsket eller skadelig oppførsel. Dette skyldes modellens manglende evne til å skille mellom instruksjoner og data den skal behandle. Selv med sikkerhetstiltak for å filtrere slike angrep, forblir kjernemodellen sårbar, noe som gjør dem uegnet for kritiske applikasjoner hvor sikkerhet er essensielt.

**Begrenset evne til å tenke utenfor boksen**

Dagens KI-modeller er dyktige til å gjenkjenne og gjenskape mønstre fra treningsdataene, men de sliter med å generere genuint nye ideer eller løsninger. Dette begrenser deres anvendelighet i situasjoner som krever innovasjon eller kreativ problemløsning.

**Veien videre mot AGI**

For å overvinne disse begrensningene og bevege oss mot AGI, må fremtidens KI integrere:

- **Abstrakte resonneringsnettverk**: Systemer som kan operere på et logisk plan, uavhengig av spesifikke datatyper.

- **Verdensmodeller**: Modeller som bygger en intern, kausal forståelse av hvordan verden fungerer, slik at de kan forutsi konsekvenser av handlinger og tilpasse seg nye situasjoner.

Ved å adressere disse utfordringene kan vi ta skritt mot å utvikle KI-systemer som ikke bare etterligner menneskelig atferd, men som også forstår og resonnerer på en måte som ligner menneskelig intelligens.