kunstig intelligens – filosofisk diskusjon

Den filosofiske diskusjonen rundt kunstig intelligens handler om hvorvidt det i det hele tatt er mulig å lage maskiner som har tilsvarende egenskaper som menneskelig intelligens. Dette står i kontrast til diskusjoner av kunstig intelligens innenfor IT, der spørsmålene som reises ofte er av mer praktisk karakter og knyttet til ulike former for maskinlæring.

Spørsmålet om hvorvidt maskiner kan tenke har fulgt den teknologiske utviklingen og bemerkninger om dette finnes allerede hos filosofer som Rene Descartes og Julien La Mettrie. Motivert av utviklingen av moderne datamaskiner på 1960-tallet og maskinfunksjonalismen (se funksjonalisme) ble kunstig intelligens et sentralt tema i filosofien.

Maskinfunksjonalisme hevder at det mentale hos mennesker kan forstås som tilstander en Turingmaskin, som igjen er en abstrakt modell for alt som kan beregnes på en datamaskin. Dersom maskinfunksjonalismen er sann vil det mentale i prinsippet kunne simuleres på en slik.

Den filosofiske diskusjonen som fulgte har i stor grad dreid seg om å vise at dette ikke er mulig, ved å rette oppmerksomheten mot følgende relaterte spørsmål:

  1. Er mulig å lage maskiner eller andre innretninger som har en intelligens som tilsvarer den vi finner hos mennesker? 
  2. Vil maskiner eller andre innretninger kunne ha en form for bevissthet slik vi finner hos mennesker?

Det første spørsmålet inkluderer alt fra begrenset simulering av intelligente menneskelige handlinger, slik som roboter på et samlebånd, via mer sofistikerte eksempler som sjakkcomputere og selvkjørende biler, til systemer som skal simulere hele menneskets intelligens.

Felles for disse er at de forutsetter en forståelse for hva det er som skal simuleres, altså hva som skal regnes som intelligens. Det mest kjente kriteriet her er Turingtesten, som sier at en maskin må regnes som like intelligent som et menneske dersom vi ikke klarer å skille dem fra hverandre når vi fører en samtale med dem uten å vite hvem som er hvem.

Det virker åpenbart at maskiner kan utføre en rekke oppgaver like godt og til dels også bedre enn mennesker. De kan utføre beregninger som overgår det vi kan og computere har vunnet over flere av verdens beste sjakkspillere. Men de gjør dette innenfor et avgrenset område og det såkalte rammeproblemet viser til at kunstig intelligens ikke kan generaliseres.

Fordi den ikke klarer å avgrense hvor mye som må tas med i beslutningsgrunnlaget vil den aldri ha den samme fleksibilitet som mennesker. Filosofen Hubert Dreyfus (1929-2017) har også presentert en rekke argumenter som baserer seg på at maskiner aldri vil kunne oppvise den samme fleksibilitet som mennesker når handlingene som skal utføres blir tilstrekkelig komplekse.

Eksemplene over tar alle utgangspunkt i at intelligent atferd kan simuleres, men de tar ikke hensyn til at menneskelig intelligens også har et aspekt av bevissthet knyttet til seg. Det er noe spesielt for deg å gjøre handlinger, enten det er å stå ved et samlebånd, spille sjakk eller kjøre bil, og dette vil maskinen aldri kunne ha. Den vil bare utføre handlingene uten noen videre bevissthet om dette.

Argumentene for denne kontrasten kan spores tilbake til Gottfried Leibniz, som allerede i 1714 formulerte en innvending der han sammenlignet hjernen med en stor mølle. Hvis vi gikk inn i den ville vi finne tannhjul og deler i bevegelse, men ingen steder ville vi finne bevisstheten.

En tilsvarende ide finnes hos Ned Block (f. 1942), som ber oss forestille oss den menneskelige hjernen i kontrast til et system der hele Kinas befolkning er koblet sammen i et nettverk slik at hver person simulerer et nevron i hjernen. Også her er intuisjonen at bevissthet bare finnes i det første men aldri i det andre tilfellet. Det mest kjente argumentet er likevel er John Searles kinesiske rom, som argumenterer for at en computer kun manipulerer symboler og aldri har noen forståelse om hva disse betyr.

Et felles motsvar mot innvendingene over er at de alle retter seg mot en for enkel form for kunstig intelligens, basert på klassisk datamaskinarkitektur. Ved å bruke mer sofistikerte datamaskiner og nevrale nett som gjør det mulig for maskiner å lære, såkalt konneksjonisme, hevdes det at kunstig intelligens kan møte de praktiske utfordringene.

Utviklingen av stadig kraftigere datamaskiner reiser også spørsmålet om såkalt singularitet, som er en teknologisk hendelse der datamaskiner oppnår intelligens som på et tidspunkt overgår den menneskelige og deretter utvikler seg selv videre til en form for superintelligens. Denne diskusjonen har i dag blitt en viktig del av diskusjonen om kunstig intelligens, i det den både aktualiserer argumenter om hvorvidt kunstig intelligens er mulig og reiser etiske spørsmål om hvorvidt vi bør forsøke å utvikle slik intelligens og i så fall hvordan vi skal håndtere den.

  • Block, N. (1978). “Troubles with Functionalism”, i C. W. Savage (red.), Perception and Cognition: Issues in the Foundations of Psychology, Minneapolis: University of Minnesota Press.
  • Chalmers, D. (2010) “The Singularity – A Philosophical Analysis”. Journal of Consciousness Studies. 17: 7-65
  • Dreyfus, H. (1992) What Computers Still Can’t Do. MIT Press.
  • Searle, J. (1980 ), “Minds, Brains and Programs”. Journal of Behavioral and Brain Sciences. 3: 417–57

Foreslå endringer i tekst

Foreslå bilder til artikkelen

Kommentarer

Har du spørsmål om eller kommentarer til artikkelen?

Kommentaren din vil bli publisert under artikkelen, og fagansvarlig eller redaktør vil svare når de har mulighet.

Du må være logget inn for å kommentere.