Knut Wiggen, 20. juli 1966
Den norsk-svenske komponisten Knut Wiggen var en pioner innen algoritmisk komponering i Skandinavia.
Av /SVD/Scanpix.

Algoritmisk komposisjon brukes om komposisjonsmetoder der datamaskiner brukes til å generere musikalske forløp ut fra formaliserte prosesser. En algoritme er en beregningsmetode som gjør bruk av et entydig sett med instruksjoner, og brukes til å automatisere komposisjonsprosessen.

Historisk bakgrunn

Bruken av regler i komposisjon til å styre musikalsk formutvikling og harmonikk har vært i bruk i hundrevis av år, og det finnes mange eksempler på regelsett som bestemmer hvordan musikken skal utvikle seg. Et enkelt eksempel er en kanon, der den samme melodien spilles som en annenstemme over seg selv. Mer kompliserte regler for stemmeføring er kjent fra utviklingen av kontrapunktet i den vestlige polyfone musikken, og musikken til for eksempel Giovanni Pierluigi da Palestrina (1525–1594) og Johann Sebastian Bach (1685–1750) er tydelige eksempler på dette. Serialismen som oppsto etter andre verdenskrig, var en bevegelse bort fra tradisjonell harmonilære slik at alle tonene skulle kunne kombineres fritt uten hensyn til tonalt senter, og den var også bygget på bruk av strenge regler for formutviklingen.

Musikalske terningspill og bruk av tilfeldighet har eksistert i Europa fra sent 1700-tall og fremover, og Wolfgang Amadeus Mozart (1756–1791) skrev for eksempel et stykke i 1787 som besto av 176 uavhengige takter som skulle kombineres fritt ved hjelp av terningkast. Joseph Haydn (1732–1809) har også skrevet stykker som skulle fremføres på samme måte. Gjennom slik regelstyrt bruk av tilfeldigheter fjernet komponistene seg noe fra den helt konkrete formingen av musikken. Bruken av tilfeldigheter har hatt sin kanskje sterkeste talsmann i John Cage (1912–1992), som gjorde dette til mye av sitt varemerke i musikken. I Norge skrev Finn Mortensen (1922–1983) Sonate for 2 klaverer, (Lykkehjulsonaten) i 1964, der musikerne skulle velge delenes rekkefølge ved hjelp av tilfeldighet.

Innføringen av datamaskinen

Da datamaskinen begynte å finne sin vei inn i musikk sent på 1950-tallet, ble den først og fremst brukt til å generere notelister med tonehøyder og varigheter som så ble skrevet ut i partiturform for musikerne. Et tidlig eksempel på dette er Illiac Suite (1957) av de amerikanske komponistene Lejaren Hiller (1924–1994) og Leonard Isaacson (født 1925). Etter hvert, og tydeligst etter midten av 1980-tallet, har utviklingen av datateknologien gjort det mulig for datamaskinene å også lage og bearbeide lyd i sanntid, slik at de automatiske prosessene kan høres uten omveien om et partitur. Dette har økt mulighetene til å arbeide med artikulasjon og klangfarge gjennom å kunne forandre hvordan lydenes spektra er sammensatt, og uttrykksmulighetene har blitt vesentlig større.

Fra et historisk ståsted er Iannis Xenakis (1922–2001) en pioner, og i skandinavisk sammenheng Knut Wiggen (1927–2016) en annen, begge på grunn av sin utvikling av programvare som genererte musikk ut fra rene matematiske beregninger som ikke gikk omveien om notasjonssystemet som begrenser antall «lovlige» noter til 12/oktav. Det tradisjonelle partituret var ikke relevant i komposisjonsprosessene deres.

Digitalteknologien gjør det mulig å arbeide med stor nøyaktighet og kompleksitet, og nye typer matematikk som for eksempel fraktaler har kommet i bruk i komposisjonsøyemed. I Norge har spesielt Rolf Wallin (født 1957) brukt fraktal matematikk for å skape strukturer i musikken. I en viss forstand kan man også si at den franske spektralskolen (også fra 1980- og 1990-tallet) representerer en form for algoritmisk komposisjon, all den tid datamessig analyse av lyd anvendes som verktøy for å strukturere både tidsforløp og klangflater i musikk for akustiske instrumenter.

Kunstig intelligens eller maskinlæring er et relativt nytt felt som også begynner å finne anvendelse i musikken, i første rekke til gjenskaping av musikalske stilkopier. Et godt eksempel er Daddy’s Car – en stilkopi av 1960-tallets The Beatles, der akkordutviklingen ble komponert av SONYs CSL-lab i Paris i 2016 etter omfattende maskinlytting til The Beatles sine låter.

Raske datamaskiner har også åpnet for musikk som genereres i sanntid fra programmering, gjerne fremført slik at publikum ser selve programmeringen projisert på en skjerm og kan følge med på hvilke instruksjoner datamaskinene får. Dette betraktes ofte som en «rehumanisering» av den teknologibaserte musikken, siden det menneskelige elementet igjen blir synlig og ikke forblir skjult bak høyttalere, som i mye av den eldre teknologibaserte musikken.

Les mer i Store norske leksikon

Kommentarer

Kommentarer til artikkelen blir synlig for alle. Ikke skriv inn sensitive opplysninger, for eksempel helseopplysninger. Fagansvarlig eller redaktør svarer når de kan. Det kan ta tid før du får svar.

Du må være logget inn for å kommentere.

eller registrer deg