Der Computer als intermedialer Synthesizer – Instrumente zwischen Text, Bild und Klang

with Keine Kommentare

von Deniz

Was alles kann „digi­ta­ler Syn­the­si­zer“ heut­zu­ta­ge bedeu­ten? Ein ana­lo­ger Syn­the­si­zer erzeugt und formt Klang – Oszil­la­to­ren schwin­gen, Fil­ter schnei­den Fre­quen­zen, Hüll­kur­ven steu­ern musi­ka­li­sche Ver­läu­fe. Im modu­la­ren Syn­the­si­zer wird dar­aus ein offe­nes Sys­tem: Modu­le wer­den per Patch-Kabel ver­bun­den, Signa­le zir­ku­lie­ren zwi­schen ihnen, wer­den umge­lei­tet, rück­ge­kop­pelt oder als Steue­rung ver­wen­det. Das Beson­de­re am modu­la­ren Syn­the­si­zer liegt dabei weni­ger in einem fer­ti­gen Klang als im Prin­zip der Verbindung.

Der Com­pu­ter folgt einer ähn­li­chen Logik – nur dass hier nicht nur Klang­si­gna­le, son­dern auch Text, Bild und ande­re Medi­en mit­ein­an­der ver­knüpft wer­den kön­nen. Was im ana­lo­gen Modu­lar­sys­tem das Patch­ka­bel ist, kann im Com­pu­ter eine Schnitt­stel­le, ein Pro­to­koll oder eine Über­set­zungs­funk­ti­on sein. Soft­ware wird so zur Patch­bay zwi­schen Medien.

Damit stellt sich die Fra­ge: Wie viel Syn­the­si­zer steckt im Com­pu­ter? Eine nahe­lie­gen­de Ant­wort wäre, ihn zunächst als Behäl­ter für Soft­syn­ths zu ver­ste­hen: man öff­net Plug­ins, spielt ihre Klän­ge, tweakt Para­me­ter, kom­bi­niert Sounds. Eine ande­re Per­spek­ti­ve: Der Com­pu­ter selbst ist ein inter­me­dia­ler Syn­the­si­zer – eine Black­box, in der sich Text, Bild und Klang gegen­sei­tig modu­lie­ren und inein­an­der über­set­zen lassen.


Patchen als Prinzip

Im ana­lo­gen Modu­lar-Syn­the­si­zer sind Klang und Steue­rung nicht getrennt. Con­trol Vol­ta­ge (CV), mit der Modu­le kom­mu­ni­zie­ren, kann hör­bar wer­den, sobald sie in den Audio­be­reich steigt. Die­se Mög­lich­keit, dass Steue­rung hör­bar und Klang­ma­te­ri­al steu­ernd wird, macht den modu­la­ren Syn­the­si­zer nicht nur zu einem Instru­ment, son­dern zu einer Struk­tur, die sich über Klang und Musik hin­aus den­ken lässt.

Vom Klang zum Metamedium

Schon in den 1970er Jah­ren beschrie­ben Alan Kay und Ade­le Gold­berg den Com­pu­ter als ein Meta­me­di­um, das ande­re Medi­en in sich auf­neh­men, nach­bil­den und neu zusam­men­set­zen kann. Lev Mano­vich hat dafür spä­ter den Begriff der deep remixa­bi­li­ty geprägt: In Soft­ware wer­den nicht nur Inhal­te gemischt, son­dern auch die Ver­fah­ren und For­men, durch die sie über­haupt entstehen.

Gera­de dar­in liegt für mich eine Nähe zum Syn­the­si­zer. Der Com­pu­ter ver­ar­bei­tet nicht nur Klang, son­dern bringt Text, Bild, Klang und Steue­rung in einer gemein­sa­men Umge­bung zusam­men. Sie las­sen sich inein­an­der über­set­zen, umfor­men und mit­ein­an­der ver­schal­ten. Max Mathews for­mu­lier­te schon 1963, der Com­pu­ter kön­ne prin­zi­pi­ell jede wahr­nehm­ba­re Klang­form erzeu­gen. Für mich steckt dar­in ein Gedan­ke, der über Klang hin­aus­weist: dass die medi­al wahr­nehm­ba­re Form bei der künst­le­ri­schen Arbeit mit einem Com­pu­ter nicht fest­steht, son­dern immer trans­for­mier­bar bleibt.

Die Inter­me­dia­li­tät zeigt sich für mich dabei auf zwei Ebe­nen. Zum einen kön­nen musi­ka­li­sche Prin­zi­pi­en wie Modu­la­ti­on, Sequen­zie­rung oder Sam­pling auf ande­re Medi­en über­tra­gen wer­den, ohne dass die­se klin­gend sein müs­sen. Zum ande­ren gibt es direk­te Über­set­zun­gen, bei denen ein Medi­um in ein ande­res über­führt wird: Bild wird zu Klang, Musik zu Text, Zeich­nung zur Klang-Partitur.

Modularer Synthesizer als Denkmodell

Beson­ders inter­es­sant wird es dort, wo musi­ka­li­sche Prin­zi­pi­en auf ein ande­res Medi­um über­tra­gen wer­den – ohne dass am Ende dabei über­haupt ein Klang ent­ste­hen soll.

Alli­son Par­rishs „The Non­sen­se Labo­ra­to­ry“ behan­delt Spra­che wie einen modu­la­ren Syn­th. Pho­ne­tik, Recht­schrei­bung und Wort­kör­per wer­den modu­liert, gedehnt und umge­ord­net – als wären sie Oszil­la­to­ren oder Fil­ter. Das Ergeb­nis bleibt aber Text, kei­ne Musik. Die ver­schie­de­nen Modu­le mischen Wort­klän­ge neu, schrei­ben Tex­te laut­lich um oder set­zen vir­tu­el­le Mund­be­we­gun­gen wie in einem pho­ne­ti­schen Sequen­cer zusam­men. Anschau­lich kann ich das anhand des fol­gen­den klei­nen Expe­ri­ments mit dem Mouth­feel Tuner machen: Hier ver­än­dert man einen Text so, „dass sich die Wör­ter beim Spre­chen anders im Mund anfühlen“.

Bild und Video-Synthesizer

Im Visu­el­len gibt es Ähn­li­ches. Der Paik/Abe Video Syn­the­si­zer über­trug bereits Ende der 1960er Jah­re das Syn­the­si­zer-Prin­zip auf Video. Nam June Paik woll­te das Bild so form­bar machen wie Klang. Heu­ti­ge Tools wie Vsyn­th für Max/MSP füh­ren das wei­ter: Video ist das patch­ba­re Signal – Gene­ra­to­ren und Modu­la­to­ren arbei­ten hier mit Bild­si­gna­len statt mit Audio. Im fol­gen­den Patch wird die­se Audio-Video-Ana­lo­gie beson­ders anschau­lich: Drei Instan­zen eines visu­el­len Wave­form-Gene­ra­tors spei­sen einen Mixer, in dem ihre Wel­len­for­men addiert wer­den – ähn­lich wie bei der addi­ti­ven Klangsynthese.



Wäh­rend im Non­sen­se Labo­ra­to­ry oder in Vsyn­th-Patches musi­ka­li­sche Prin­zi­pi­en auf ande­re Medi­en über­tra­gen wer­den, gibt es Soft­ware-Tools, die kon­kre­te Eigen­schaf­ten oder Struk­tu­ren eines Medi­ums — etwa Bild­wer­te, Bewe­gun­gen oder Klang­pa­ra­me­ter — in Struk­tu­ren eines ande­ren Medi­ums über­set­zen.
UPIC, ent­wi­ckelt von Ian­nis Xena­kis ab den 1970er Jah­ren, soll­te Zeich­nung zum direk­ten kom­po­si­to­ri­schen Werk­zeug machen. Zeit, Ton­hö­he und Klang­far­be lie­ßen sich dabei unmit­tel­bar gra­fisch gestal­ten. Die X-Ach­se war die Zeit, die Y-Ach­se die Ton­hö­he, die Form der Linie bestimm­te Klang­far­be und Laut­stär­ke.
UPI­Sketch greift die­se Ideen auf eige­ne Wei­se auf. Im fol­gen­den Video zeich­ne ich meh­re­re Lini­en gespickt mit ver­schie­de­nen Stim­men-Samples in das XY-Feld ein. 


Das Max-for-Live-Tool resyn­est­hiz scannt Bil­der spal­ten­wei­se und über­trägt ihre Pixel­hel­lig­kei­ten auf 1000 Sinus­os­zil­la­to­ren, deren Ver­tei­lung sich über das gesam­te Fre­quenz­spek­trum erstreckt. Ein Bild wird so zu einer spek­tra­len Par­ti­tur: Hel­lig­kei­ten, For­men und Dich­ten erschei­nen visu­ell und zugleich als addi­ti­ve Klangstrukturen.

Im Unter­schied zu resyn­est­hiz setzt PIXELSYNTH von Oli­via Jack auf eine deut­lich ein­fa­che­re und unmit­tel­bar zugäng­li­che Form der Bild-zu-Klang-Über­set­zung. Ein Cur­sor scannt von links nach rechts über ein Bild – hel­le Pixel lösen Töne aus, die ver­ti­ka­le Posi­ti­on bestimmt die Ton­hö­he, die Hel­lig­keit die Lautstärke. .

Eigenwillige Instrumente

Zwi­schen Denk­mo­dell und Über­set­zung von Eigen­schaf­ten kön­nen eigen­wil­li­ge Instru­men­te ent­ste­hen. Für mein Kon­zept­al­bum AOA habe ich ein Python-Tool ent­wi­ckelt, das Text und Audio­ma­te­ri­al in eine visu­el­le Buch­sta­ben­land­schaft setzt. Dabei steu­ert der Spec­tral Flux – also die Ver­än­de­rung im Klang­spek­trum – die Plat­zie­rung blau­er Buch­sta­ben, die Spec­tral Flat­ness – ob ein Klang eher rausch­haft oder eher ton­haft wirkt – die gel­ben Buch­sta­ben, und die Onset Strength – die Stär­ke klang­li­cher Ein­sät­ze und Impul­se – die schwar­zen Buch­sta­ben. So ent­steht ein Patch­feld zwi­schen Text, Klang­spek­trum und Bild.

Intermedial denken, modular patchen


Was wird für die Ver­mitt­lung von Kunst und Musik frucht­bar, wenn man von modu­la­ren und inter­me­dia­len Ideen aus­geht? Und was heißt es, über Pre­set-Brow­sing und fer­ti­ge Instru­men­te hin­aus eige­ne modu­la­re Werk­zeu­ge zu erfin­den? Die­sen Fra­gen gehe ich in einem fol­gen­den Blog­ar­ti­kel mit VCV Rack als prak­ti­schem Werk­zeug nach. Anhand kon­kre­ter Patches wird es unter ande­rem dar­um gehen, indi­vi­du­el­le gene­ra­ti­ve Sequen­cer zu ent­wi­ckeln, die Audio­ma­te­ri­al, MIDI-Instru­men­te und Video mit­ein­an­der ver­schal­ten und so prak­tisch an die Idee des Com­pu­ters als inter­me­dia­lem Syn­the­si­zer anschließen.

Zum Ausprobieren und Weiterlesen

Text-Syn­th/­Mo­du­lar-Syn­th:

Video-Syn­ths:

Bild-zu-Klang-Über­set­zung:

Tex­te zu Com­pu­ter und Medien: