Rapport fra cyberspace

Af
| DMT Årgang 68 (1993-1994) nr. 05 - side 146-153

Artiklen er indscannet fra det trykte magasin; der tages forbehold for fejl

  • Annonce

    Man skal høre meget

Her i 1994, hvor Danmark for første gang skal være vært for den verdensomspændende festival og konference for computermusik, ICMC, er der nok grund til at tage skærmbrillerne af et øjeblik og forsøge et kig horisonten rundt. Hvordan vil Danmark se ud for de mange komponister og forskere, der besøger DIEM i Århus i september '94 for at deltage med deres værker, videnskabelige indslag, debatindlæg osv? Hvad sker der ude i 'den store verden', som vi som danskere får mulighed for at opleve der? Nærværende skribleri er et forsøg på at beskrive udvalgte dele af status quo op til ICMC-1994 ud fra den forudgående udvikling. Med andre ord en guided tour rundt i nogle interessante dele af livet i computermusikmiljøet, foranstillet nogle betragtninger og historiske beskrivelser.

Digital musik

Dagens computere er digitale, og derfor er ordet computer og ordet digital blevet identiske i hverdagens sprog. Der var engang, hvor der også blev produceret analoge computere, og det kan tænkes, at vi ser bio-regnemaskiner på et tidspunkt i en lidt fjernere fremtid. Lige nu er vi imidlertid henvist til den temmeligt forsimplede repræsentation af virkeligheden, hvor alting skal omsættes til talværdier for at blive viderebearbejdet i vores computere. Det kan bruges på nyttige måder, men bygger dybest set på, at alting i en eller anden forstand er afgørligt eller kan beskrives præcist. Det skal være muligt at svare 'ja' eller 'nej' på et eller andet tidspunkt. Variationsmængden er stor, men begrænset i antal. For at vi som mennesker skal kunne leve med denne begrænsede nuance-rigdom, skal maskinerne gerne have mulighed for lige så mange nuancer, som vores perception selv rummer. Vi skal f.eks.ved hjælp af psykoakustiske forsøg kunne beskrive, hvor mange forskellige anslags-varianter pianister er i stand til at frembringe - og lytteren er i stand til at opfatte. Når vi kender dem, kan vi ganske enkelt opstille dem i en eller anden fornuftsstyret rækkefølge og give dem et nummer, hvorefter vi kan bruge maskiner til at holde rede på dem.

Dette kunne ligne en noget uentusiastisk beskrivelse af digitalisering af musik, idet kompositionsprocessen på denne måde ender med at være en form for bogholderi, og computeren helt mister sin magi - den er blot en forvokset lommeregner. På den anden side ændrede også lommeregneren vores hverdag. Det var grumme arbejdskrævende for fyrre år siden at udregne nye skalaer. Før dengang betød ordet 'computer' i øvrigt en stillingsbetegnelse for en person, der var beskæftiget med beregninger af f.eks. tabeller over primtal eller logaritmer. Samtidig indeholder vel al komposition et betydeligt element af bogholderi, hvad enten det sker eksplicit eller intuitivt - komponisten afgør, hvad der passer til hvad, ud fra de foreliggende muligheder og det formål han eller hun har med musikken.

Her bør jeg dog nævne, at megen computerforskning og -udvikling i disse år går ud på at sætte sig ud over dette krav om 'afgørlighed'. En afart af den formelle logik, kaldet 'fuzzy logic' (nej, ikke den Fuzzy) beskæftiger sig med spørgsmål, hvor man ikke kan afgøre, om noget er sandt eller falsk. I stedet tildeler man sandsynligheder for udfaldene. Man kan afgøre, at der er 80% sandsynlighed for sandt og 20% sandsynlighed for falsk. Så kan man blot regne videre derfra, sammensætte flere usikre udsagn og alligevel beregne et resultat. Det har vist sig nyttigt i styring af komplicerede, automatiske fabriksanlæg.

Tålmodighedens teknologi

Computermusikkens barndom krævede stor tålmodighed af sine udøvere. Vi behøver ikke ofre mange linier på de tusindvis af timer, som er blevet tilbragt med indkodning af hulkort, lån af de store, uhåndterlige universitetscomputere om natten, skuffelsen ved at skulle programmere om, når den resulterende lyd ikke var som forventet. Hulkortene blev som bekendt afløst af terminaler, hvor man kunne indtaste sine kommandoer og efter nogle timers beregningstid høre resultatet heraf. Dette nævner jeg kun, fordi vi må huske, at pionerarbejdet inden for denne gren af musikken blev gjort af folk, der ikke helmede, og for hvem lang ventetid mellem intention og resultat nok var uønsket, men en overvindelig hindring.

Ønsket om mindsket afstand mellem kompositorisk handling og den hørte lyd faldt sammen med alle mulige andre computerbrugeres krav om stærkt øget hastighed. I denne periode udvikledes de mange forskellige computer-synteseprogrammer som Music V, Csound, cmusic, cmix. De består af en tvedeling af kompositionsprocessen i at fremstille 'instruments', der kan være en hvilken som helst lyd og 'scores', som spiller på disse instrumenter ved at sende besked til instrumentet om at spille den-og-den tone på den-og-den måde. Efter en vis beregningstid producerer computeren den ønskede lyd, og man kan høre sit resultat. Sådanne omgivelser gør ikke improvisation ligefrem nærliggende.

Mange af de klassiske computermusikværker er fremstillet ved hjælp af sådanne værktøjer, og det er traditionelt denne arbejdsform, der identificeres som 'computer musik'. Den er overspillet til bånd og kan enten opføres som rent båndværk, eller der kan indgå en eller flere musikere som spiller sammen med båndet. Under begge forhold er alt tilrettelagt med fuld præcision, og musikeren må slavisk følge det tempo, som komponisten har fastlagt. Instrumentalisten kan på den måde komme til at føle sig som 'tilbehør' til fremførelsen, og det har generet mange, at teknikken ikke tillod en mere fleksibel opførelsespraksis.

Umiddelbarhedens musikinstrumenter

I samme periode foregik udviklingen af synthesizeren, en specialiseret og sammenbygget version af et elektronmusik-studie. Tonegeneratorer, filtre og forstærkere, der indbyrdes kunne styre hinanden blev bygget sammen i samme kasse. Efterhånden i et sådant antal, at en synthesizer kunne spille alle klaviaturets tangenter samtidig. Disse analoge synthesizere havde mange kvaliteter men besad ikke tilstrækkelig stabilitet til at kunne bruges til komplekse synteseformer.

Her var svaret på improvisationsmusikkens ønsker! Et rigtigt instrument, der spiller med det samme, når man rører ved det. Det kan indgå uden væsentlige problemer på linie med akustiske og alm. elektriske instrumenter. De stilarter, som interesserer sig mest for øjeblikkeligt svar på et musikalsk indfald, var også de første til at adoptere det nye instrument.

MIDI standardens fremkomst i 1983 blev måske startsignal til de analoge synthers dødskamp. En anden årsag kan have været fremkomsten af FM-syntesen (John Chowning og Yamaha's DX7-synthesizer), som er meget billig at lave i digital udgave, men næsten umulig at stabilisere i analog sammenhæng.

På dette tidspunkt var i forvejen dele af synthesizeren digital: MIDI-delen og hukommelses-delen, så der var ikke langt til at tage det sidste skridt. Teknikken var kendt i forvejen fra de langsomt arbejdende kompositionssystemer. Tonegeneratoren blev en tabel. Filtret, modulationen og forstærkeren blev et regnestykke. Det drejede sig kun om at kunne bearbejde tal-tabeller tilstrækkelig hurtigt, og mikroprocessorerne var efterhånden tilstrækkelig hurtige til at kunne gøre det, især hvis de var monteret i specialiseret hardware. Den digitale synthesizer var en realitet. Hvis maskinen bare kan læse i en tabel og styre, hvor i tabellen man læser, har man allerede kontrol over en del parametre; nok til at lave et musikinstrument. De fleste af vores dagligdags synthesizere er da også dybest set computere, specialiserede i at løse opgaven som musikinstrument med øjeblikkelig respons.

Nye performance interfaces

Det er på denne baggrund jeg bedømmer anvendelsen af computere i levende musikfremførelser. Hvis du spiller på en synthesizer, har du nogle parametre, som kan styres samtidig: du kan styre et (mindre) antal stemmer og deres indbyrdes styrke med dit anslag, du kan evt. vride tonehøjden med pitch bend hjulet, og du har mulighed for at bruge en pedal. Men så er der også udsolgt, i hvert fald hvis du vil stå op og spille. Hvis du vil styre andre parametre, må du have nogle knapper at trykke på, og du er i hvert fald bundet til at stå ved/med dit instrument.

Derfor har en del af forskningen og udviklingen taget emnet 'performance interfaces' op. De prøver at udvikle alternativer til klaver-tangenterne. Der er set et væld af forslag, som til en vis grad afspejler frustrationen ved at skulle være pianist for at kunne spille med de nye klangmuligheder. Relativt tidligt fremkom en kommerciel guitar-synthesizer, men den er der efter sigende stadig lidt problemer med, især m.h.t. svartiden. Andre ønskede at være med. Percussion-folket fik tidligt instrumenter med små kontakt-puder, der kunne anslås og styre en synth, men denne udvikling går nu i en lidt anden retning. Udvalget af udstyr til styring af performances er efterhånden blevet temmelig stort. Måske kender læseren nogle af de eksisterende alternativer. Der er foregået et stort udviklingsarbejde i Holland, hvoraf 'The Web' måske især er kendt; men også legetøjsindustrien har forsøgt sig med 'Power Glove' - en handske med infrarøde sendere. Don Buchlas 'Thunder' er en videreudvikling af de tidlige percussion interfaces med mulighed for mange nuancer.

Matthews/Boie's 'Radio Drum' er et udmærket eksempel på et sådant, alternativt performance interface. De to 'trommestikker' er små radiosendere, som modtages af 4 små modtagere nede i 'trommen', der så kan aflæse stikkernes position, retning og hastighed. Via computer kan det så lade sig gøre at inddele og kortlægge trommens overflade til mange forskellige formål. Max Matthews demonstrerer ofte instrumentets muligheder ved at 'dirigere' en opførelse af f.eks. J.S. Bach's Air (fra en af orkestersuiterne), hvor han har fuldstændig kontrol over tempo og styrke, og kan give fremførelsen de nuancer, han ønsker. Dette kan mere interessant overføres til et hvilket som helst stykke, der på forhånd kan partiturlægges. Partituret ligger i computeren, og Radio Drum bruges så til at musikalisere fremførelsen.

Der kan også lægges specialkoder ned på bestemte steder på trommens overflade, som f.eks. betyder 'gå videre til næste afsnits indstillinger', 'begynd forfra' eller 'spil baglæns' etc., hvorved musikeren får langt bedre kontrol med afviklingen af hele stykket.

Voice-tracking

Men hvorfor begrænse sig til klaver og slagtøj? Enhver, der spiller eller synger, bør kunne styre synthesizer-forløb. Til den ende er der i løbet af de sidste 10 år kommet flere apparater på markedet, som skal løse det problem. Den kobles til en mikrofon, analyserer tonehøjden (idet den fjerner uvedkommende overtoner) og spytter den tilsvarende MIDI-kode ud. Den kan så kobles til en synthesizer eller en computer og spille direkte eller indirekte sammen med stemmen eller instrumentet. De kaldes 'voice-tracker' eller 'pitch-rider', og har især vundet indpas hos fløjtenister, saxofonister og klarinettister. Spørg dem; det er ikke problemløst at få sådan en tingest til at fungere fejlfrit. Opstillingen er ikke særlig robust, fordi maskinen ikke 'ved', hvilket instrument den skal lytte efter. Den er så at sige for generel, og den vil opfatte uvedkommende lyde som opgaver, der også skal løses. Hvis man kan indbygge lidt mere intelligens i en sådan maskine, så den kun kan lytte efter en fløjte, en klarinet eller en saxofon, ville opgaven lettere kunne løses stabilt.

Der er derfor lavet specialiserede udgaver af instrumenter, hvor man mere direkte kan aflæse f.eks. fingrenes position og dermed - uden beregningskrævende analyser - fastslå, hvilken tone der spilles. Det ses også på den specialbyggede violin 'Zeta', som er særligt indrettet til at udspy MIDI-data. Den gør et meget overbevisende stykke arbejde, og kan endog med den rette programmering følge med i blandinger af stemninger og glissandi. I forskellige IRCAM-komponisters værker kan man også se, at problemet med at genkende bestemte instrumenters tonehøjder kan løses via programmering af den lyttende computer. Musikeren kan i stykker af Manoury, Zettel eller Lippe i meget høj grad styre musikkens afvikling uden at skulle indrette sig på forud fastlagte tempi eller styrkegrader, i kraft af maskinens genkendelse af tonehøjder og følgen med i den musikalske struktur.

ISPW

Mange af de ovennævnte funktioner kan også generaliseres, hvis man konstruerer en tilstrækkelig ydedygtig computer. Den vil så i kraft af sin programmering optræde som et eller flere af de kendte apparater. På IRCAM har man siden 1988 arbejdet med en afløser for den navnkundige 4x box, som netop skulle være frit programmerbar. Den skulle kunne løse et meget bredt spektrum af de opgaver, som blev stillet i IRCAMs repertoire, men også være en platform for frembringelse af nye værker. Resultatet blev et design, kaldet Ircam Signal Processing Workstation, eller i daglig tale ISPW. Det blev besluttet at satse på den dengang helt nye computer fra Ne XT og at udvikle særlige indstikskort, som kunne foretage selve signalbehandlingen. Oven i hatten har Miller Puckette fra IRCAM konstrueret et grafisk programmeringssprog - Max - som gør livet noget lettere og mere intuitivt for programmøren af ISPW.

Projektet er delvis blevet en succes - det er faktisk lykkedes at frembringe værker, som ellers ikke kunne være blevet til. Regnekraften er så stor, at man først nu i 1994 med sikkerhed kan sige, at en anden teknologi vil være bedre egnet til at løse de samme problemer bedre og billigere. En alvorlig ulempe ved ISPW var nemlig prisen. En Ne XT computer kunne erhverves for US$ ca. 15.000, og prisen for et ISPW-indstikskort blev også US$ 15.000. En fuldt udrustet Ne XT computer med 3 stk. ISPW kom dermed op i den nette sum af US$ 60.000.

Det blev derfor kun institutioner med betydelige midler, der havde råd til at investere i denne nye teknologi. Selv en institution som DIEM har ikke haft råd til at anskaffe en ISPW endnu.

Med til historien hører også, at Ne XT Computer Inc. sidste år hørte op med at producere den tilsvarende computer, og at IRCAM dermed har fået et problem. Der lægges i øjeblikket planer om at lave noget tilsvarende til PC'ere, lige så snart der kommer et passende PC-indstikskort på markedet.

Digital signalbehandling

Ordet 'Digital Signal Processing', forkortet DSP, bliver helt dagligdags i den overskuelige fremtid. Det betegner et vildtvoksende forskningsområde, hvoraf kun en forsvindende lille del af kræfterne bruges til musikformål. Der er masser af andre områder, som presser sig på inden for teleteknik, geofysik, navigation, datakompression m.m. Faktisk er det sjældent, at man i lærebøger om dette emne støder direkte på eksempler taget fra musikkens verden.

Der er dog sket en kraftig udvikling også her. Som nævnt i tekstboxen om sampling, er det efterhånden muligt at foretage de kendte behandlinger af signaler, som tidligere blev foretaget med specialudstyr, ved hjælp af beregninger på den digitale lyd eller de andre emner, man har digitaliseret.

Selv under denne begrænsning er det dog tydeligt, at DSP udgør et stort antal af de mest aktive forskningsområder for øjeblikket. Dels arbejdes der stadig på at overføre de teknikker vi kendte fra den analoge arbejdsform, dels prøver forskerne at udvikle nye teknikker, som i deres natur er digitale. Der overføres også viden fra signalbehandlingen inden for andre fagområder. Jeg vil her omtale to af disse områder.

Syntese på analyse

Der har gennem tiderne været arbejdet på mange måder med det formål at kortlægge overtone-indholdet i musikalsk lyd. Læseren har måske oplevet specialiserede apparater (spektrum analysatorer), som kunne vise energien i de forskellige hørbare områder, og vi har så lært at fastslå, at en trompet har et bestemt spektrum; (det viser sig at være en sandhed med modifikationer, lige som alle de andre 'sandheder' vi går rundt og bilder os ind at kende).

I en tid efter 'Klangfarbenmelodie' og det klanglige i det hele taget har været et fokus-område, er det naturligt, at mange komponister har ønsket at arbejde med klangbearbejdninger, gerne kontrollerbare i opførelsesøjeblikket. Det er her, at IRCAM-komponisterne bruger de muligheder, som ISPW-workstation tilbyder. Det er muligt at sample instrumentlyd på stedet, at omforme og behandle den, og sende den ud i højttalerne uden at nogen bemærker nogen forsinkelse. Hele processen foregår i såkaldt sand tid - eller Real-Time, som det hedder på nudansk. Sådan et stykke kunne høres på musiana 93 festivalen, Cort Lippe's værk for klarinet og ISPW. Kigger man imidlertid f.eks. Cort Lippe nærmere i kortene viser det sig, at de klarinet-lyde, som behandles og bearbejdes i hans stykke, ikke stammer fra den aktuelle opførelse af stykket. Dertil er teknikken slet ikke sikker nok. Klarinetlyden er optaget i et studie i Paris og ligger i digital form på ISPW's hard disk. Først da er komponisten sikker på, at den lyder som en klarinet og ikke er under indflydelse af tilfældige fejl eller andre omstændigheder ved opførelsen. En skuffelse? Vi mangler stadig en tilstrækkelig intelligent mikrofon, der kan hjælpe os i den slags situationer.

Phase Vocoder

En anden klangmulighed, som i løbet af 80'erne er blevet undersøgt og flittigt benyttet, er 'klangstrækning', som blev foretaget med det såkaldte 'phase vocoder' program. Det analyserer en lyd i meget smalle frekvensbånd, og er derefter i stand til at genskabe lyden med ret stor præcision. Det er ikke så særlig interessant, men teknikken giver mulighed for, at lyden nu kan genskabes med ændret hastighed - den kan strækkes eller trykkes sammen i tid. Hermed har vi fået mulighed for at lave en slags 'lydmikroskop', som kan trække subtile lydændringer så langt ud i tid, at vi pludselig oplever dem på en helt ny måde. Teknikken har været anvendt til adskillige elektroakustiske værker, og byder hele tiden på spændende opdagelser i kendt lyd. Det er ganske fascinerende at høre de klangskift, der sker i talt sprog ved overgangen mellem konsonanter, trukket ud 32 gange. Virkningen er en slags 'aha'-oplevelse i lydens klanglige mikrokosmos. Komponisten Paul Lansky har en gang udtalt, at brug af phase vocoder giver en slags 'instant music', hvilket jeg vælger at oversætte til 'pulver-musik' - bare tilsæt lidt kogende vand og så er musikken klar!

Akustik og fysiske modeller

Et andet interesseområde har været beskrivelse af akustiske instrumenters virkemåde, beskrevet med større detaljerigdom end tidligere. Vi ved vel alle noget om, hvordan en fløjte virker rent akustisk, men hvordan indvirker de forskellige små finurligheder på en fløjte egentlig på dens klang? Hvad sker der når den stående bølge inde i fløjten passerer forbi et hul? Hvilken virkning har fløjtens diameter på den resulterende klang? Der er masser af spørgsmål, som også kan stilles til virkemåden for andre instrumenter.

Dette arbejdsområde har nu også fået sin 'syntetiske tvilling'. Man prøver at beskrive lydbølgernes bevægelser og de kræfter, der skaber dem i et matematisk præget sprog. Sproget oversættes til programmer, som simulerer det fysiske system, og man kan nu spille på sin model og med ørerne konstatere, om lyden minder om originalen. Jeg har selv overværet en finsk fremlæggelse af forskningsresultater angående virkningen af fløjtens huller, hvor lydeksemplerne klart viste, at man nu er på vej til en ganske god beskrivelse. Der var meget klar forskel på lyden fra en model uden hul-turbulens og modellen med. Man kunne også fornemme på de tilstedeværende, at nu var der ved at 'gå hul på bylden'. Lydeksemplet varede vist halvandet sekund, men der gik et sus igennem forsamlingen.

Tilsvarende modeller bliver opstillet for messingblæsere, guitarer, violiner osv. Her i begyndelsen gælder det blot om at få erkendelse af instrumenternes virkemåde, men det bliver rigtig sjovt, når vi kan begynde at spille musik på disse modeller. Vi spiller på en violin, hvor vi udskifter parametrene, så de svarer til en magnesium-violin på 41 mm's længde med strenge af guld eller en tuba på 200 m med et mundstykke som en swimming-pool. Resultaterne heraf vil kunne blive egentlige virtuelle instrumenter, som ikke lader sig realisere fysisk. Vi vil kunne spille på dem alligevel - via vores computermodel.

Sonification

er et helt nyt forskningsområde, hvor lyd bruges til 'umusikalske' formål, idet det forsøges at bruge lyd til beskrivelse af ikke-musikalske data. Forestil dig f.eks. befolkningsdata, der beskriver forskellige befolkningsgruppers fordeling i en række storbyer i den industrialiserede verden. Vi er vant til at få præsenteret sådanne data som grafiske diagrammer, som kun kan vise ganske få variable ad gangen. Nu ønsker vi at bruge lyd i præsentationen af disse data. Tætheden af en bestemt befolkningsgruppe oversættes f.eks. til en tonestyrke, mens positionen af gruppen styrer tonehøjden.

En anden parameter kunne være klangfarven, som f.eks. kunne beskrive befolkningsgruppens etniske tilhørsforhold eller indkomsten pr. indbygger. Er det her for diffust? Så tænk på, at et rigmandskvarter måske ville lyde som en trompettone! Hvis vi så lader en computer indlæse store mængder af data og oversætte disse til de nævnte parametre, kunne man forestille sig, at den historiske udvikling i disse data afspejledes i skiftende klange og lydbilleder. Hvis der optræder en stærk koncentration af bestemte befolkningsgrupper på bestemte steder, hører vi pludselig disse regelmæssigheder som musikalske strukturer - melodiske forløb eller akkordudviklinger. Øret bruges som filter til at få os til at fokusere på sammenhænge i datamaterialet. Akkorder i tæt beliggenhed kunne tyde på ghettodannelser, der er under koncentration. Teknikken har haft flere navne, 'audification' eller 'sonification'.

Lignende teknikker bruges også med musikalsk formål, idet ikke-musikalske data overføres som styrende parametre med henblik på at få en slags 'environment music', der direkte relaterer sig til geografiske eller sociologiske forhold. Hvis man speeder jordskælvsbølger op, vil de nå op i det hørbare område og måske give os et indtryk af 'seismikkens musik' og virke udvidende på vores perception af naturlige processer.

Hvor bliver Cyberspace af?

I min overskrift har jeg refereret til Cyberspace, fordi det et blevet en slags moderne abracadabra, som giver anelser om en meget fremmedartet fremtid, hvor der eksisterer en slags imaginært rum, hvor menneskelig kommunikation kan finde sted. Den grå virkelighed er imidlertid, at jeg - og mange andre - allerede arbejder dagligt i Cyberspace og ikke finder det specielt mærkeligt. Det er dejligt at være tilknyttet Internettet, som er en virkelig verdensomspændende, demokratisk forbindelse mellem alle mulige mennesker over hele verden. Når jeg står over for et problem, som jeg regner med, at andre har undersøgt, sender jeg fra min lille Macintosh computer en besked via telefonnettet til en computer, der er tilknyttet Internettet, og håber på, at nogen forbarmer sig over mig og giver mig hjælp. Jeg abonnerer på nogle specialiserede 'tidsskrifter', som jævnligt sendes til min elektroniske postkasse, hvor jeg så kan hente dem hjem for at studere dem i ro og mag, for så senere at stille nye spørgsmål. Medlemsskaren på Internettet er enorm. Man regner med, at ca. en million nye brugere tilmelder sig hver måned (cf. Peter Hesseldahl, DR).

Ulempen ved brug af Internet er, at kommunikationen er forholdsvis langsom, at den foregår på et brugermæssigt primitivt niveau. Man skal lære sig mærkværdige koder for at begå sig, men da kommunikationen foregår efter laveste fællesnævner, betyder det også, at man virkelig har adgang til et meget stort antal brugere over hele verden. Den samlede mængde af tilgængelig information er kolossal, og det gælder om at koncentrere sig om det væsentlige.

Når jeg sender elektronisk post ud, kan jeg i løbet af samme arbejdsdag modtage svar fra Australien og Japan. Kort efter indløber et spørgsmål fra Østrig eller Italien, og senere på dagen møder folk på arbejde på den amerikanske østkyst, og svarene begynder at komme ind derfra. Sidst på dagen melder vestkysten sig, men den er ikke desto mindre en hovedkilde til besvarelse af de spørgsmål, som jeg støder på i mit daglige arbejde. Det er både spændende og nyttigt, at Marshall Mc Luhans gamle profeti om den globale landsby på en så simpel måde har fået liv og er blevet virkelighed, omend foreløbig på et ret primitivt niveau. Det er muligt at arbejde sammen med kolleger, som bor i en anden tidszone, som lever i en anden kultur. Blot man har samme interesser, kan man danne en verdensklub, som kan tale sammen, udveksle informationer og i visse tilfælde ligefrem være et internationalt samarbejdsteam.

To måneder før en debat om computermusikkens emne-områder (taxonomien) skal tages op til debat i Computer Music Journal, udsendtes en artikel i foreløbig form på nyhedsgruppen Music-reasearch-digest og tilgik automatisk de interesserede tilmeldte. De kan så give deres besyv med, og allerede før trykning kan der være en frugtbar debat i gang. Landegrænser og post-forsinkelser er underordnede begreber i dette miljø, men det er til gengæld stærkt domineret af amerikansk universitetskultur. Det kan man sagtens leve med, men det bør ikke glemmes, at integrationen kommer til at foregå på amerikanske præmisser, fordi de (dvs. USA's forsvarsministerium og de amerikanske universiteter) var de første til at integrere kommunikationen mellem computere og derfor talmæssigt er i klart overtal.

Med andre ord repræsenterer 'Cyberspace' for mig simpelthen et værktøj til at holde mig i forbindelse med mine mange kontakter i ind- og udland. Der er ikke noget særligt mystisk ved det, og andre må gerne fantasere over, hvad det filosofisk kan betyde for vores kultur. I mellemtiden bruger jeg det blot som et effektivt kommunikationsmiddel og som min nye version af specialiserede fag-tidsskrifter. Jeg kan godt se det som en udvidelse af døve-telefonen. Vi er ikke nødvendigvis filosofisk på spanden, bare fordi vi ringer til Australien, og kommer til at vække folk midt på næste nat.

Konklusion

Efter mange indledende omveje bliver min konklusion på mit indledende spørgsmål derfor, at de udenlandske gæster ved ICMC vil finde et musik-Danmark, som knap nok er vågnet til den nye tids muligheder, og at vi i Danmark bliver nødt til at anstrenge os lidt for overhovedet at opfatte, hvad de udenlandske gæster taler om. Der vil blive workshops forud for ICMC, hvor man kan forsøge at få opdateret sin viden. Der foregår rigtig nok forskning i Danmark inden for disse områder, men den er mest på et indledende stadium. Imidlertid gør den åbne kommunikation i 'Cyberspace' det muligt for os hurtigt at komme i kontakt med miljøet, og vi vil kunne kæmpe os op på internationalt niveau i løbet af en kortere årrække, da vi blot skal forsøge at komme på omgangshøjde. Senere kan vi så forsøge at gøre mere originale ting. Der er såmænd allerede ideer til, hvad der i en overskuelig fremtid kan blive Danmarks bidrag.

Foreløbig vil ICMC i Aarhus nok blive et af de hidtil mest vidtfavnende ICMCs, der er afholdt. Konferencens tema 'The Human Touch' er et centralt emne, der i høj grad trænger til bearbejdning og samtale.

Foot-Tapping

En af de planlagte sessions vil iøvrigt gå ud på at forsøge at sammenligne forskellige måder at få maskiner til noget så basalt som at opfatte tempo og tempo-ændringer. De to hollændere Peter Desain og Henkjan Honing har samlet en gruppe, der agter at indgå i en konkurrence: 'Hvem tramper mest musikalsk til musikken'. Der er blevet fremstillet en støvle med indbygget step-motor, som deltagerne kan lade styre af deres lytte-programmer. Vi foretager så en sammenligning af forskellige løsninger, der kan belyse, hvilken metode der er bedst egnet til denne form for udtrækning af musikalsk information. Vi håber, at mange sender bidrag til denne session.

Foto side 150: Robot skabt af saxofonisten og komponisten Morten Carlsen og billedkunstneren Peter Severin. Robotten indgik i en installation ved NEMO festivalen i Aarhus 1992.

Steffen Brandorff er konstitueret studieleder ved DIEM i Aarhus.

MIDI - musikkens koreografi

MIDI er siden starten i august 1983 efterhånden blevet en verdensdækkende standard, hvor et væld af fabrikanter er enedes om, hvilke koder det skal være muligt at udveksle mellem musik-apparater - og hvad de skal betyde. I begyndelsen dækkede standarden kun deciderede musikinstrumenter, såsom synthesizere og trommemaskiner. MIDI udvikles imidlertid til stadighed, selv om det går langsomt. Den udbreder sit virkefelt til stadig flere typer af apparater. MIDI-styrede lyspulte findes, og meget studie-udstyr kan også fjernkontrolleres via MIDI-forbindelser.

Man har med vilje valgt at satse på et billigt system. Udgifterne til stik og elektronik er minimale for fabrikanten, og det har medført, at man automatisk får MIDI med, blot man køber et keyboard til ca. 1500 kr. Næsten kun deciderede legetøjsinstrumenter leveres uden indbygget MIDI.

Indholdet i MIDI-koderne er uhyre enkelt. Der er aftalt koder for de handlinger, som en musiker kan tænkes at foretage med et musikinstrument: at anslå en tangent, at slippe den igen, at dreje på et hjul, at trykke på en knap eller træde på en pedal. Der er aftalt tal-koder for hver af disse handlinger, og dermed kan man fra ethvert MIDI-instrument få ethvert andet MIDI-instrument til at spille med. Med andre ord er MIDI en primitiv beskrivelse af musikerens bevægelser og dermed en slags musiker-koreografisk sprog. Der ligger ikke i MIDI nogen beskrivelse af, hvordan musikken lyder.

Det ses blandt andet af, at begrebet 'en tones varighed' overhovedet ikke er indbefattet i MIDI-beskrivelsen. Alle MIDI-koder meddeler om, hvad der sker lige nu. 'Tonen G3 begynder nu'; 'Tonen G3 holder op nu', 'Pedal 1 trædes ned nu' - sådan løber koderne i kablerne.

Sequencere

Men en computer kan selvfølgelig godt finde ud af, hvor længe en tone varer. Den skal blot kigge på sit indbyggede ur, hver gang der ankommer en ny MIDI-besked. Hvis det er en tone-slut-kode, finder computeren den tilsvarende tone-begynd-kode og beregner, hvor lang tid der gik mellem de to. Dermed har den fundet tonens varighed, og vi kan gemme den, ligesom vi kan gemme bogstavkoderne i et tekstbehandlingsprogram. Det er den slags programmer, man kalder 'sequencere'. De kan udføre de samme ting som tekstbehandlings-programmer: redigering, kopiering, rykning, ombytning osv. Det særlige er vel, at musik består af en række stemmer, eller parallelle forløb, hvorimod de fleste tekster er 'enstemmige'.

Sampling (for begyndere)

Når man hører forklaringer om sampling, er der mange versioner. »Computeren optager lyden«, »Indspiller lyden på en chip« eller lign. For at fremme en forståelse af, hvad der egentlig foregår under en sampling, har jeg over for børn og unge ofte beskrevet en imaginær dværg, kaldet 'Robort', som jeg anbringer med en lille tommestok på en kontrabas lige ud for enden af gribebrættet. Hans job er at holde øje med strengens øjeblikkelige position og hele tiden melde tilbage, hvor strengen nu befinder sig, målt ud fra ligevægtsstillingen. Strengens positioner måles derved, og jeg nedskriver værdierne.

Billedet kan let overføres til en endnu mindre, bette karl, der skal holde øje med membranen i en mikrofon. Han kigger på, at membranen svinger frem og tilbage, og så hyppigt som muligt melder han tilbage: »Nu er membranen i midterstilling!« (svarer til måleværdien 0,0) - »Nu er den 0,123 mm over!« - (måleværdi 0,123) - »Nu er den 2,317 mm under!« (måleværdi -2,317). Alle disse værdier noteres i en tabel, og systemet skal give så hyppige målinger, at selv den hurtigste bevægelse (= den højeste frekvens) skal give udslag i målingen. Der skal med andre ord måles meget hyppigt, og det er derfor, at målefrekvensen (samplingsfrekvensen) skal være så høj, hvis man ønsker en høj lydkvalitet. Lyden er blevet overført til en anden tilstand: den er blevet konverteret til tal-form.

Når først vi er overgået til at have lyden lagret digitalt, er der en del almindelige regneoperationer, som pludselig får betydning for lyden. Mest enkelt er det at forestille sig virkningen af addition af to tabeller, indeholdende hver sin lyd. Det svarer til simpel mixning. Subtraktion af to lyde giver differensen mellem de to signaler - det ene signal er trukket ud af det andet, så hvis de to signaler er ens, er resultatet stilhed.

Lidt sværere er det at forestille sig, hvad der sker, når man ganger (multiplicerer) to lyde, men det viser sig, at resultatet svarer til den gode gammelkendte ringmodulation. Det er muligt at bruge division af signaler, men det er svært at beskrive resultatet. Dog kan jeg nævne, at division kan bruges til at afsløre grundtonen i en lyd med harmoniske overtoner.

Og der findes mange andre regningsarter, som jeg slet ikke har nævnt her. Masser af de aktive forskningsområder inden for computer musik beskæftiger sig netop med at afsøge, hvordan beregningsteknikker, som kendes fra akustik, vibrationsanalyse, statistik, fraktal-matematik og mange flere, kan få betydning for bearbejdning af lyd på digital form.

Emneliste for elektroakustisk forskning

ICMA - den internationale organisation for computer musik, har vedtaget følgende liste over emner eller overskrifter, der nogenlunde udtømmende beskriver feltets forskningsområder. De skal bruges i organisationens kommende database over artikler mv., som har været fremlagt ved ICMC-konferencerne gennem årene. Disse kategorier kan passende også her tjene til at beskrive, hvor vidtspændende forskningsområder der faktisk er tale om inden for den elektroakustiske musik.

Jeg bringer dem på engelsk, da danske oversættelser endnu ikke er etablerede.

Artificial Intelligence in Music
Aesthetics, Philosophy and Criticism
Acoustics of Musical Instruments and Voice
Audio Analysis and Re-Synthesis
Audio Hardware Design
Audio Signal Processing Techniques
Composition Systems and Techniques
Diffusion Methods and Systems
History of Electroacoustic Music
Interactive Performance Systems
Machine Recognition of Audio
Machine Recognition of Music
MIDI Applications
Music Analysis
Music Data Structures and Representations
Music Education
Music Grammars
Music and Graphics
Music Languages
Music Notation and Printing
Music Workstations
Performance Interfaces
Psychoacoustics, Perception, Cognition
Real-Time Systems
Room Acoustics
Sound Synthesis Languages
Sound Synthesis Methods
Studio Report
Miscellaneous