Kunstig intelligens, forsknings- og utviklingsfelt innenfor datateknologien som benytter teoretiske og eksperimentelle dataverktøy til å studere intelligent atferd, og som bruker resultatene til å konstruere datasystemer som er «intelligente» i den forstand at de er i stand til å løse problemer og lære av egne erfaringer.

Kunstig intelligens er et felt i sterk vekst, og med en raskt økende markedsverdi. Større bedrifter og offentlige myndigheter i mange land satser store summer på grunnforskning og produktutvikling. Militære anvendelser står sentralt, men også næringslivet og utdanningssektoren ser store muligheter for å oppnå rasjonell drift og konkurransefortrinn gjennom anvendelse av kunstig intelligens-teknologi. Stadig kraftigere utviklingsverktøy kommer på markedet, og utvikling av enkle ekspertsystemer skal nå være mulig også for ikke-eksperter. Med unntak av de store, beregningsintensive systemene stiller verktøyene og de ferdige produktene ikke lenger krav om spesialutviklet maskinvare.

Et sentralt element i all intelligent atferd er kunnskap; følgelig er innsamling og formalisering av kunnskap et nødvendig ledd i utviklingen av ethvert system som tar sikte på å være intelligent. Slike systemer går derfor gjerne under fellesbetegnelsen kunnskapsbaserte systemer. Forskning omkring effektiv kunnskapsakkvisisjon og -representasjon er derfor et grunnleggende felt innenfor arbeidet med kunstig intelligens.

Det klassiske kunnskapsbaserte systemet er ekspertsystemet, som har to hovedbestanddeler. Kunnskapsbasen består av alle relevante fakta om det aktuelle fagområdet samt et utvalg av fagfolks erfaringer og skjønn. I motsetning til en vanlig database inneholder en kunnskapsbase derfor også grunnlaget for å vurdere dataene. Slutningsmekanismen er et sett av regler som kan anvendes på kombinasjonen av kunnskapsbase og problemdata. Slutningsmekanismen bygger på logiske prinsipper, organisert i en modell som avspeiler fagområdet.

De første ekspertsystemene ble tatt i praktisk bruk i 1980-årene, i form av rådgivningssystemer innen medisinsk diagnose, til vurdering av lånesøknader i bankvesenet, feilsøking på jetmotorer, konfigurering av datamaskiner osv. Enkle ekspertsystemer ble også tidlig benyttet til overvåking og styring. Ved hjelp av kameraer, sensorer og forskjellige typer måleinstrumenter («maskinsanser») mates slike systemer løpende med data, som blir tolket og vurdert i forhold til kunnskapsbasen med sikte på å oppdage avvik og tilrå iverksettelse av bestemte tiltak, evt. å iverksette tiltak selv, direkte.

De første ekspertsystemene var imidlertid relativt enkle og pålitelige kun på områder med klart avgrenset kunnskapstilfang og relativt enkelt strukturerbare regler. Jo mer «sunn fornuft» som måtte til for å løse et problem, jo vanskeligere var det å formulere de nødvendige reglene.

Nyere forskning har imidlertid frembrakt logiske strukturer som gir ekspertsystemene større fleksibilitet og evne til å håndtere usikkerhet. Sentralt her står anvendelsen av såkalt ikke-lineær logikk, også kalt fuzzy logics, som har gjort det mulig å uttrykke også omtrentlige verdier matematisk og gjøre dem til gjenstand for datamaskinell behandling. Systemene kunne dermed benyttes på mer komplekse og dermed også realistiske problemsituasjoner, som inneholdt betydelig grad av usikkerhet og ikke bare enkle ja/nei-svar.

Nye verktøy for kunnskapsrepresentasjon har også bidratt til store fremskritt. Blant disse er kasusbasert resonnering, som ikke benytter en kunnskapsbase bygd på tradisjonelt vis, men i stedet anvender spesifikk kunnskap om tidligere erfarte, konkrete problemsituasjoner. Nye problemer løses ved å finne et tilsvarende tidligere tilfelle og så gjenbruke erfaringene fra dette. I tillegg til problemløsningen innebærer bruk av denne teknologien gradvis tilegnelse av ny kunnskap (læring), i det erfaringene fra alle problemløsninger umiddelbart gjøres tilgjengelig for løsning av nye.

En beslektet teknologi er såkalte nevrale nettverk, som brukes til å trekke erfaringer ut av historiske databaser. Denne læremetoden, som kan minne om tradisjonell statistisk analyse, søker etter mønstre i de historiske dataene og bygger opp et internt nettverk av «vekter» som representerer forhold mellom de sentrale variablene innenfor et gitt problem.

En betydelig forskningsinnsats er også gjort på problemer omkring gjenbruk og utveksling av kunnskap mellom intelligente systemer, med sikte på kommunikasjon og samarbeid dem i mellom.

Parallelt med arbeidet for å utvikle effektive metoder for kunnskapsakkvisisjon og -representasjon og stadig sikrere resonneringsteknikker gikk arbeidet med å gi systemene evne til å samhandle med miljøet omkring – utstyre dem med «sanser», først og fremst syn og hørsel.

Forskningsaktiviteten på det feltet (som med et fellesnavn kalles naturlig språk) har vært å sette datasystemer i stand til å forstå dagligtale, både i form av tastaturdata og muntlig tale matet inn via mikrofon, såkalt talegjenkjennelse. Målet har vært å fri brukerne fra kravet om å beherske sterkt strukturerte og ofte vanskelig tilgjengelige spørrespråk for å kunne utnytte de data de har lagret i sin datamaskin, og sette dem i stand til å benytte en språkform, både skriftlig og muntlig, som ligger så nært som mulig opp til dagligtalen.

Språk og språkbruk er på ingen måte logisk, og tolking av utsagn krever ofte et vell av bakgrunnskunnskap som mennesker tar for gitt. Dette har gjort det svært vanskelig å definere naturlig språk ved hjelp av et sett presise, logiske regler. De første systemene hadde derfor et meget begrenset ordforråd. Effektiv talegjenkjennelse forutsatte til å begynne med at brukeren begrenset seg til ett eller noen ganske få ord, som måtte uttales tydelig og med klare mellomrom. Sammenhengende tale mestret disse systemene ikke, så det var langt frem til å beherske naturlig språk i egentlig forstand. Betydelige fremskritt er oppnådd på dette området, ikke minst ved hjelp av statistiske teknikker.

Systemer for talegjenkjennelse ble tidlig tilgjengelig for personlige datamaskiner. Disse tillot styring av en del av maskinens funksjoner ved hjelp av talte kommandoer. Enkelte avanserte våpensystemer, bl.a. i jagerfly, gjorde også bruk av slike teknikker.

For å muliggjøre toveiskommunikasjon mellom datasystem og bruker ble det også tidlig gjort forsøk på talegenerering, dvs. at datasystemet kunne gi tilbakemelding (utdata) til brukeren i form av menneskelignende tale.

Kunstig syn, også omtalt som digital bildebehandling, baserer seg på at bilder fra fjernsynskameraer og andre mer spesialiserte kameraer overføres til komprimert, digital form som muliggjør rask sammenligning med bilder som allerede er lagret i datamaskinen. Denne synsteknologien ble allerede i slutten av 1980-årene tatt i bruk i systemer for kvalitetskontroll i industrien: Innkommende bildedata sammenlignes med bilder av korrekt utseende produkter og ved avvik sorteres det aktuelle produktet ut. Den samme teknologien, ofte kalt maskinsyn, ble også tatt i bruk i industrielle roboter, for å gjøre disse bedre i stand til å velge riktig arbeidsstykke eller komponent og sette dem på plass på rett sted.

Et av hovedproblemene med kunstig syn har vært de enorme mengder data som er involvert. Stadig kraftigere datamaskiner og forbedrede komprimeringsteknikker har i løpet av 1990-årene gitt store fremskritt på dette og andre beregningsintensive områder innen kunstig intelligens.

Forskning og utvikling på de forskjellige delområdene innen kunstig intelligens foregikk lenge nokså atskilt fra hverandre. Fra midten av 1990-årene har det imidlertid vært en klar tendens til å integrere resultater fra de enkelte områdene i mer komplekse systemer med varierte innslag av intelligent atferd.

For eksempel har kunstig intelligensteknologi, satt inn i en virtuell virkelighet med stor grad av realisme, åpnet for simuleringer som kan revolusjonere opplæring på en rekke områder hvor realisme ellers kan være umulig på grunn av fare (f.eks. kamptrening for jagerflygere).

Andre systemer er resultat av en generell utvikling innenfor datateknologien i retning av mer komplekse, distribuerte løsninger og økt tilgang for stadig flere brukere til et vell av forskjellige typer data, ikke minst anskueliggjort ved at Internett ble åpnet for allmenn bruk. Behovet for brukerbistand når det gjelder informasjonssøk, utvelgelse, sortering og presentasjon er blitt åpenbart og har motivert til utvikling av brukerstøttesystemer med betydelige innslag av kunstig intelligens. Mye av innsatsen er blitt konsentrert om utvikling av såkalte selvstendige agenter, også kalt intelligente agenter: programvare som kan fungere som brukernes personlige dataassistenter på forskjellige områder. Blant de egenskapene som søkes bygd inn i disse nye programagentene er selvstendighet (agenter skal selv kunne ta initiativ og utøve en betydelig grad av kontroll over sin virksomhet); samarbeidsvilje (agenter skal ikke blindt akseptere en kommando, men kunne vurdere, modifisere, be om klargjøring og evt. nekte å utføre ordre); tilpasningsdyktighet (agenter skal, basert på tidligere erfaringer, kunne tilpasse seg brukerens preferanser, samtidig som de forholder seg til endringer i miljøet omkring); mobilitet (en agent skal kunne forflytte seg fra en maskin til en annen, uansett systemplattform, og kunne kjøres sikkert på alle); personlighet (en agent skal ha en veldefinert, troverdig personlighet og emosjonell tilstand).

Disse ambisiøse målene vil åpenbart kreve integrering av de fleste av de tradisjonelle teknologiene innenfor kunstig intelligens. Det pågår et omfattende arbeid med å utvikle kontrollstrukturer for intelligente agenter, ikke minst når det gjelder mobilitet samt kommunikasjon og samarbeid mellom agenter. Det finnes en rekke prototyper på slike agenter, laget for å demonstrere en eller noen få av disse egenskapene. Likevel ligger praktiske anvendelser i stor skala ennå et stykke frem i tiden.

Foreslå endringer i tekst

Foreslå bilder til artikkelen

Kommentarer

Har du spørsmål til artikkelen? Skriv her, så får du svar fra fagansvarlig eller redaktør.

Du må være logget inn for å kommentere.