Eksemplene over tar alle utgangspunkt i at intelligent atferd kan simuleres, men de tar ikke hensyn til at menneskelig intelligens også har et aspekt av bevissthet knyttet til seg. Det er noe spesielt for deg å gjøre handlinger, enten det er å stå ved et samlebånd, spille sjakk eller kjøre bil, og dette vil maskinen aldri kunne ha. Den vil bare utføre handlingene uten noen videre bevissthet om dette.
Argumentene for denne kontrasten kan spores tilbake til Gottfried Leibniz, som allerede i 1714 formulerte en innvending der han sammenlignet hjernen med en stor mølle. Hvis vi gikk inn i den ville vi finne tannhjul og deler i bevegelse, men ingen steder ville vi finne bevisstheten.
En tilsvarende ide finnes hos Ned Block (f. 1942), som ber oss forestille oss den menneskelige hjernen i kontrast til et system der hele Kinas befolkning er koblet sammen i et nettverk slik at hver person simulerer et nevron i hjernen. Også her er intuisjonen at bevissthet bare finnes i det første men aldri i det andre tilfellet. Det mest kjente argumentet er likevel er John Searles kinesiske rom, som argumenterer for at en computer kun manipulerer symboler og aldri har noen forståelse om hva disse betyr.
Et felles motsvar mot innvendingene over er at de alle retter seg mot en for enkel form for kunstig intelligens, basert på klassisk datamaskinarkitektur. Ved å bruke mer sofistikerte datamaskiner og nevrale nett som gjør det mulig for maskiner å lære, såkalt konneksjonisme, hevdes det at kunstig intelligens kan møte de praktiske utfordringene.
Kommentarer
Kommentarer til artikkelen blir synlig for alle. Ikke skriv inn sensitive opplysninger, for eksempel helseopplysninger. Fagansvarlig eller redaktør svarer når de kan. Det kan ta tid før du får svar.
Du må være logget inn for å kommentere.