Konsertvideoen OIOI benytter en teknikk som jeg har kalt slepende utlegging (eng.: lagged embedding) for å overføre amplitudeverdier fra suksessive punktprøver fra en lydbølge til koordinater på et plan. Det mest interessante har vært å finne igjen musikkens frase-nivå i det grafiske forløpet, og samtidig visulisere data på et sample pr. sample-nivå av lyden.

Prinsippet er veldig enkelt. For å tegne et punkt på et plan med en (x,y)-koordinat ved et bestemt tidspunkt, overfører man verdien til x-koordinaten fra amplituden til lydbølgen ved dette tidspunktet, og verdien for y-koordinaten fra lydbølgen ved et tidspunkt f.eks. 1000 samples tidligere i lyden.

Man kan uten videre utvide teknikken, og styre andre grafiske parametre enn X og Y koordinatene utfra samme prinsippet. Farge, en z-koordinat i et 3-dimensjonalt grafisk forløp, type objekter som blir plassert i bildet osv. Det er interessant å merke seg at alle teknikker man kan tenke seg å anvende på et musikalsk signal uten videre kan overføres til projiseringen av punkter på det grafiske planet.

Denne koblingen mellom lydbølge og koordinater i planet vil følge lydbølgen hele tiden, og avhengig av lydens beskaffenhet vil den kunne gi form til sirkler, stjerner, firkanter osv. Det man oppfatter som frasen i et elektroakustisk musikkstykke vil være umiddelbart tilgjengelig i bildet og, i og med at både amplitude på lydbølgen og lydens spektrale egenskaper påvirker den dynamiske formen som blir tegnet.

Muligens er dette en god pedagogisk måte å presentere Musique Concrète på? OIOI er laget vha. Common Lisp Music (CLM) og Common Music (CM) programvare.

Bildene (zillioner av dem!) som ligger til grunn for filmen er direkte graveringer fra 10 kanaler i musikken, gjort på måten som er beskrevet ovenfor.

anders.vinjar@notam02.no
Pictures © Anders Vinjar 1997. Not to be used in production or commerce.