Gedanken zum Projekttutorium von Piotr Niedzwiecki und Gisbert Schürig an der Humboldt-Universität zu Berlin
Im Sommersemester 2024 haben wir an der Humboldt-Universität zu Berlin ein Projekttutorium angeboten. Thema waren Möglichkeiten, mit elektronischen Mitteln Musik zu machen und wie sie sich gut pädagogisch vermitteln lassen. Dabei haben wir praktische Erkundungen in einen historischen Zusammenhang der Entwicklung von Musikinstrumenten gestellt, besonderes Augenmerk galt Formen automatischen Musikmachens. Abschließend haben die Studierenden Ergebnisse im Medientheater des Instituts für Musikwissenschaft und Medienwissenschaft der Humboldt-Universität zu Berlin präsentiert. Die anfallenden Arbeits- und Lernprozesse haben wir mit Videoaufnahmen dokumentiert und mit den Studierenden reflektiert. Vergleichend haben wir dabei Lehrpläne zur Arbeit an Musikschulen herangezogen, außerdem Erfahrungen mit verschiedenen Formen von Instrumentalpädagogik, eingebracht von den Studierenden und von uns.
Hier möchten wir gerne:
- von der Lehrveranstaltung berichten
- Schlüsse aus den Erfahrungen ziehen
- Ideen einbringen in die Diskussion zur Zukunft der Instrumentalpädagogik
Sind Musikautomaten Musikinstrumente? Ein kurzer Blick in die Geschichte
Um das praktische Arbeiten mit den Automatismen von Sequenzern in einen größeren historischen Kontext zu stellen, haben wir einleitend ein Referat zur technischen Entwicklung des Musikinstruments gehört. Die wesentliche Referenz dafür war Bernd Enders Text „Vom Idiophon zum Touchpad“. Enders beschreibt eine allmähliche technische Entwicklung von Musikinstrumenten hin zu größerer Komplexität und Abstraktheit. Einige wichtige Stationen seien hier kurz genannt:
In einem ersten Schritt, der Instrumentalisierung, wurden nicht mehr nur Körper und Stimme musikalisch genutzt, sondern erweitern – zunächst schlichte – Instrumente wie z. B. Flöten und Trommeln die Möglichkeiten menschlichen Musikmachens.
Es folgte die Mechanisierung, wie wir sie bei der komplexen Mechanik einer Klaviertastatur finden. Die Automatisierung zeigt sich an Beispielen wie der Drehorgel oder der Spieluhr. Die Details musikalischer Abläufe sind hier bereits als codierte Muster gespeichert, die nur noch gestartet werden müssen.
Von hier ist der Weg nicht weit, solche Speicherungen nicht nur mechanisch, sonder auch elektronisch und im weiteren digital vorzunehmen. Im Zuge der Elektronifizierung und Modularisierung haben wir es schließlich zu tun mit Sequenzern, die z. B. Synthesizer steuern.
Vom analogen Sequenzieren zum hybriden Musikmachen – Praxis im Projekttutorium
Wir haben im Tutorium nacheinander den Fokus auf verschiedene Formen des Sequenzieren gelegt. Zunächst haben wir Hardware-Sequenzer erkundet um letztlich ein hybrides Setup zu nutzen: Digitale Sequenzer und Controller steuern Musiksoftware, kombiniert mit handgespielten Instrumenten.
Dieses allmähliche Fortschreiten hatte zwei Gründe. Zum einen wurde so die technische Entwicklung der letzten 50 Jahre auf diesem Gebiet greifbar, zum anderen gehen die wachsenden Möglichkeiten digitaler Instrumente auch mit einer größeren Komplexität einher. Mit relativ einfacher aufgebauten Instrumenten einzusteigen machte die unvermeidliche Komplexität zugänglicher, da die musikalischen Möglichkeiten der verwendeten Geräte sich parallel mit den wachsenden Erfahrungen der Studierenden schrittweise erweiterten.
Arbeiten mit dem Sequenzer des Moog DFAM
Begonnen haben wir mit dem Sequenzer des Moog DFAM Synthesizers. Dieses Gerät ist zwar erst seit 2018 erhältlich, der integrierte Sequenzer entspricht aber eher Modellen der 1970-Jahre.
Das zeigt sich an einer Reihe von Eigenschaften:
- Sequenzen können nicht gespeichert werden, es gilt immer nur die jeweils aktuelle Einstellung der entsprechenden Regler.
- Die Regler sind nicht nach musikalischen Kriterien, z. B. Tonarten oder der temperierten Stimmung gerastert. Statt dessen bieten sie ein regelbares Tonhöhen-Kontinuum.
- Eine Sequenz besteht aus maximal 8 eingestellten Tonhöhenwerten.
Vergleicht man diese Eigenschaften mit den quasi endlosen Tonfolgen, die sich mit heutiger Musiksoftware speichern und ablaufen lassen, dann ist dieser Funktionsumfang sehr beschränkt. Aber auch im Vergleich mit den Möglichkeiten des Lochbandes bzw. der Notenrolle eines selbst-spielenden Klavieres erscheinen nur acht Töne ungeheuer begrenzt.
Dennoch hat so ein Gerät auch heute noch seine Relevanz: als Instrument, bei dem der Ablauf gespeicherter Werte mit stetigem Nachregeln Hand in Hand geht. Die spezifische Kombination eines übersichtlichen, weil eng begrenzten Speichers mit direktem Zugriff legen eine spezielle Form des Musikmachens nahe: anders als bei handgespielten Instrumenten wie Gitarre oder Klavier muss nicht jeder Ton in Echtzeit manuell hervorgebracht werden. Dennoch wird eben nicht jede Wendung eines längeren Verlaufs im Vorfeld fixiert, wie das auf einem Notenblatt oder der Stiftwalze einer Drehorgel in der Regel der Fall wäre. Automatismen und direkte Einwirkung gehen hier Hand in Hand, so wie das bei vielen Kulturtechniken des modernen Lebens z. B. beim Autofahren längst völlig selbstverständlich ist.
Genau so eine Kombination ist stilprägend für eine Reihe verschiedener Genres elektronischer Musik wie Acid, Techno oder Industrial.
Expertise durch Höhrerfahrung
Es ist nicht überraschend, das ein Tutorium zu elektronischer Musik von Studierenden besucht wird, die sich für elektronische Musik interessieren. Im Laufe des Tutoriums referenzierten sie diverse Musikstile und Kontexte, Musiken zum Hören, zum Tanzen, auch Filmmusik kam zur Sprache. In der ersten praktischen Annäherung an die von uns bereitgestellten Geräte wurde schnell deutlich, dass die Studierenden diesen keineswegs ahnungslos gegenüberstanden, auch wenn es in fast allen Fällen wohl die erste Nutzung dieser Geräte war. Ganz im Gegenteil: die Vertrautheit mit den kurzen, wiederholten Tonfolgen wie sie für oben genannte Genres grundlegend sind, ermöglichte in Kombination mit dem überschaubaren Sequenzer des Moog DFAM nahezu unmittelbar Erfahrungen musikalischen Gestaltens. Die Funktionen und komplexen Wechselwirkungen der vielen Regler waren zwar unvertraut. Typische klangliche Konstellationen, charakteristische Verläufe, die sich ergaben, waren aber sehr vertraut. Umfangreiche Hörerfahrungen mit elektronischer Musik lieferten offensichtlich einen orientierenden Kontext und das offene Experimentieren mit verschiedenen Einstellungen führte nicht selten zu Klangergebnissen, die bereits hörend vertraut waren.
Arbeiten mit dem Arturia Beatstep Pro
Nach diesen ersten Erfahrungen haben wir in einem zweiten Schritt musikalische Erkundungen mit einem komplexeren, digitalen Sequenzer begonnen: dem Beatstep Pro von Arturia. Der hat einen deutlich größeren Funktionsumfang, es lassen sich parallel drei Spuren sequenzieren.
Zwei dieser Spuren sind für melodische Sequenzen ausgelegt, eine dritte Spur ist für Schlagzeug-Muster optimiert. Die Länge und Laufrichtung der Spuren ist individuell einstellbar. Sequenzen lassen sich in vielen Presets abspeichern. Daraus ergeben sich viel mehr Möglichkeiten, aber eben auch höhere Anforderungen an die Orientierung am Gerät.
Der Arturia Beatstep Pro (links) sequenziert zwei Stimmen des Vermona Performer MkII. Einen Kickdrum-Sound sowie einen Snare-Sound. Die zwei Anschläge des Snare-Klangs sind gelb leuchtend auf dem Sequenzer zu sehen.
In einem nächsten Schritt wird hier eine Kickdrum-Sequenz mit einer melodischen Sequenz kombiniert:
Der erste von drei Tönen in der melodischen Sequenz wird im Video oben stets neu eingestellt, bis die erwünschte Tonfolge erreicht ist.
Hybrides Setup – Controller, Musiksoftware und Synthesizer
Vom Sequenzieren analoger Synthesizer sind wir schließlich übergegangen zum Arbeiten mit Musiksoftware. Bei Sitzungen im Medienstudio des Institut für Musikwissenschaft und Medienwissenschaft der Humboldt-Universität zu Berlin haben wir ein Setup zusammengestellt, das eine ganze Reihe von Geräten mit diversen Funktionen miteinander kombinierte:
- Zwei Controller und ein Audio-Interface sind verbunden mit der Klangerzeugung, die in der Software Ableton Live umgesetzt wird
- Beatstep Pro dient als Sequenzer für Bass und Drumsounds in Ableton Live
- Launchpad XL dient als Controller zur Einstellung der Lautstärken und Effekteinstellung verschiedener Kanäle in Ableton Live
- Das Zoom Livetrack 12 (Audio-Interface im Video hinten rechts) dient dazu, weitere Synthesizer einzubinden
Im Umgang mit diesem Setup haben die Studierenden je verschiedene Rollen in einem Gesamtgefüge eingenommen, haben also agiert wie Mitglieder eines Ensembles, deren einzelne Aktivitäten den Gesamtklang prägen. Die Rollen ergaben sich im wesentlichen daraus, wer welchen Controller bzw. welches Instrument bediente.
Folgende Rollen wurden dabei ausgefüllt:
- Sequenzieren: Abspielen verschiedener Sequenzen entsprechend einer abgesprochenen Dramaturgie
- Mixing & Sound-Design der am Computer ablaufenden Bass- und Drum-Sequenzen
- Drones und Sound-Design mit Hardware-Synthesizer
- Melodien mit Hardware-Synthesizer & elektrischer Geige
Diese praktischen Erkundungen haben wir kontextualisiert indem wir anhand von Videos zu Techniken hybriden Musikmachens recherchiert haben. Hier ein Beispiel zur Kombination von Software (Ableton Live) mit händischem Spiel von Instrumenten:
Außerdem haben wir die spezifische Kombination handgespielter Instrumente mit dem Steuern automatischer Abläufe anhand des Begriffes Liveness reflektiert. Relvant ist hier z. B. das Buch „Liveness in Modern Music“ von Paul Sanden, auch der Artikel „Kommunikative Strategien und Ideologien von Liveness bei Laptop-Performances“ von Mark J. Butler. Nicht zuletzt war auch der Artikel „Körperlichkeit in digitalen Musikpraktiken mit Apps“ von Matthias Krebs erkenntnisleitend.
Präsentation im Medientheater
An die oben beschriebene Recherche und Exploration schloss sich schließlich eine praktische Präsentation im Medientheater der Humboldt Universität, Fachgebiet Medienwissenschaften, an. Die praktische Präsentation fand statt im Rahmen einer gemeinsamen Abschlusspräsentation mit dem Seminar Klangarchäologische Studien am Synthesizer, geleitet von Christina Dörfling & Martin Meier, sowie mit der Veranstaltung Konzept Medientheater, geleitet von Florian Leitner.
Die Präsentation beinhaltete sowohl die Demonstration von Musik- und Performance-Praktiken, die Gegenstand der Exploration waren, als auch Erläuterungen zum Prozess der Aneignung und der Auswahl und Gestaltung der ausgewählten Praktiken. Neben die Darbietung von Musikmachen trat somit das Erklären eben dieses Machens.
Schnappschuss von der ersten Probe im Medientheater.
In Form von Sample-triggerndem Geigenspiel wurde aber auch das Erklären des Musikmachens wiederum zu Musik:
Insofern wurde nicht nur das präsentierte Musikmachen erklärt, sondern wurden diese Erklärungen ihrerseits wieder zum Material des Musikmachens.
Das Geigenspiel bildete im Rahmen der Präsentation einen besonderen Kontrast zur Steuerung automatischer Sequenzen und Effekte. Die traditionelle Praxis, Musik anhand eines Notentextes von vorne bis hinten zu reproduzieren fand eine deutlich modifizierte Anwendung: einzelne Phrasen in der Notation dienten als melodisches Material, welches die Geigerin in freiem Tempo mit den ablaufenden Sequenzen und Beats improvisatorisch kombinierte.
Musiknoten, hier verwendet als Repertoire von melodischen Phrasen, die improvisatorisch eingesetzt werden.
Hier ein kurzer Ausschnitt aus der Präsentation:
Zukunftsmusik – Für eine stärkere Integration automatisierten Musikmachens in die Instrumentalpädagogik
Im Zuge der Beschreibung des Seminarverlaufs sollten einige Punkte deutlich geworden sein:
- Automatisierte Musik hat eine lange Geschichte, die direkt aus der Entwicklung von Musikinstrumenten erwachsen ist
- im Zuge der weiten Verbreitung Elektronischer Musik sind Praktiken automatisierten Musikmachens inzwischen fester Bestandteil von Musikkultur
- musikalische Automatismen wie z. B. Beats und Sequenzen sind Teil des impliziten musikalischen Wissens; von den Studierenden wurden sie direkt verstanden und umgehend eigenständig gestaltet
Wir fragen uns: Wo sind Angebote zu solchen Formen automatisierten elektronischen Musikmachens an Musikschulen? Hier ein Blick auf die Schüleranteile nach Fächern an VdM-Musikschulen im Jahr 2022:
Quelle: https://miz.org/de/statistiken/version/2021-schuelerinnen-der-vdm-musikschulen-nach-faechern
Elektronische Musik ist in dieser Statistik nicht per se erwähnt, es ist aber mit Sicherheit anzunehmen, dass im Rahmen des Unterrichts von Tasteninstrumenten z. B. auch Orgeln, Keyboards und Synthesizer behandelt werden, sowie dass bei den Zupfinstrumenten auch der Unterricht von E-Gitarre und E-Bass subsumiert sind. Instrumente, deren Klangerzeugung elektronisch, deren Spiel aber händisch stattfindet, finden im Angebot dieser Musikschulen durchaus einen Platz. Automatisiertes Musikmachen aber, wie wir es im Seminar insbesondere in den Fokus genommen haben, erscheint hier marginalisiert.
Warum? Unsere These: Automatisierte Musik bedarf nicht des langwierigen motorischen Trainings sondern ist auch ohne ausgiebiges körperliches Üben praktizierbar. Genau dieses Trainieren aber, die Unterweisung in körperlichem Üben scheint unverzichtbares Merkmal zu sein, wenn es um die Auswahl geht, was an Musikschulen unterrichtet wird und was keine Berücksichtigung findet.
Musikpädagogisch gibt es dafür keine zwingenden Gründe. In Kombination mit dem ihnen bereits zur Verfügung stehenden intuitiven Wissen zu Elektronischer Musik war es den Studierenden im Projekttutorium rasch möglich, entscheidende Parameter zu identifizieren, Klangabläufe zu programmieren und damit Musik zu machen, die ihren Vorstellungen entsprach. Der Anschluss an ihre musikalische Lebenswelt, die Vertrautheit mit Automatismen aus vielen anderen Lebensbereichen – all das ermöglichte eine schnelle Aneignung von Kenntnissen und Fertigkeiten, die als musikalisch wertvoll und relevant erlebt wurden.
Zum Vergleich: In der Kunstpädagogik werden völlig selbstverständlich Produktions- und Reproduktionstechniken behandelt, die nicht auf händischen, körperlichen Fertigkeiten beruhen, sondern wo es um das Bedienen von Maschinen oder Software, das Steuern automatischer Abläufe geht. Der Wert eines Readymades von Marcel Duchamp oder eines Drucks von Andy Warhol wird eben nicht danach beurteilt, wieviel Disziplin oder technische Beherrschung für die Erstellung nötig waren, sondern nach seiner ästhetischen Relevanz.
Die Nutzung technischer Prozesse und Werkzeuge in künstlerischen Kontexten dient nicht zuletzt der Reflexion der tiefen Wechselwirkung, ja Durchdringung zwischen Mensch und Werkzeug. Warum solche Themen und Potentiale ausklammern, wie dies an Musikschulen zu geschehen scheint? Warum nicht technische Musikpraktiken thematisieren, die eine so offensichtliche lebensweltliche Relevanz haben?
Übeprozesse als Ausschlussmechanismen
Eine Fährte auf der Suche nach Antworten scheint uns zu sein: die Notwendigkeit, ausgiebig und lange körperlich zu üben, ist zu einem Selbstzweck geworden. Auch Musikmachen mit Sequenzern wird besser, wenn man es praktiziert, es bedarf aber eben nicht der gleichen Disziplin und des methodischen Trainings wie das z. B. beim Unterrichten des Geigenspiels üblich ist, um erste Ergebnisse zu erzielen. Diese Aspekte der Vermittlung scheinen so zentral zu sein, dass sie bei der Selektion des Musikschulangebotes den entscheidenden Ausschlag zu geben scheinen. Fragen von ästhetischem Wert oder lebensweltlicher Relevanz scheinen dagegen in den Hintergrund zu treten.
Wir sind der Ansicht: das sollte nicht so sein.
Derartige Prioritätensetzungen dienen unter anderem auch der Auslese: nur, wer sich die hohen Anforderungen des Instrumentalunterrichts finanziell und zeitlich jahrelang leisten kann, wird hier bedient. Das grenzt diejenigen aus, die sich das eben nicht leisten können, aber auch die, deren musikalische Interessen damit nicht abgedeckt werden. Mehr dazu z. B. bei Anna Bull: Class, Control and Classical Music.
Fit für die Zukunft?!
Aber auch Musikschulen zahlen einen Preis dafür, relevante, verbreitete Musikpraktiken zu marginalisieren – sie schmälern die eigene Relevanz. Dafür scheint es auch an Musikschulen und Musikhochschulen durchaus ein Bewusstsein zu geben.
Diesen Eindruck bestätigen zum Beispiel Stimmen vom Symposium „Fit für die Zukunft!?“ Entwicklung von Musik(hoch)schulen im 21. Jahrhundert aus künstlerischer und musikpädagogischer Perspektive. Stattgefunden hat es im Mai 2024 an der Universität der Künste Berlin (Dokumentation dazu).
Für ein Feature des Deutschlandfunk zu dem Symposium hat sich Barbara Metzger, ehemalige Professorin für elementare Musikpädagogik an der Hochschule für Musik Würzburg, so geäußert „…dass man durch die ganzen gesellschaftlichen und weltpolitischen Entwicklungen gezwungen ist, zu reagieren, eine gesellschaftliche Antwort (…) zu geben, wäre für uns in den letzten Jahren unvorstellbar gewesen.“ Das heißt im Umkehrschluss: jetzt ist dieser Zwang da, Änderungen in der Musikpädagogik stehen an. Um Fachkräftemangel entgegenzuwirken, um Antworten auf Herausforderungen einer heterogenen Gesellschaft zu liefern.
Eine positive Vision formuliert Prof. Dr. Ivo I. Berg, von der UdK Berlin im gleichen Feature: „Es wäre schön, wenn es uns in Zukunft gelingt, eben unterschiedlichere Stile ansprechen zu können und auch unseren musikkulturellen Horizont auch [sic] zu verändern.“
Wir würden uns freuen, wenn so eine Horizonterweiterung auch Elektronische Musik, insbesondere auch nicht-handgespielte, automatisierte Musik einbezieht. Aus den Nischen spezieller Genres ist solche Musik längst im allgemeinen Bewusstsein angekommen. Fast jeder hat eine Vorstellung, was ein „Beat“ ist. Das Wissen, wie er gemacht wird, sollte nicht nur in Rahmen vermittelt werden, die auf Elektronische Musik spezialisiert sind, wie z. B. lev. Es sollte heute zum allgemeinen Kanon musikalischen Wissens gehören, es sollte auffindbar sein im Angebot von städtischen und freien Musikschulen.
Es gibt viel versprechende Ansätze, wie zum Beispiel den Schwerpunkt Digitale Musikpraxis im Studium Lehramt Musik an der Hochschule für Musik und Theater Rostock. Darüber hinaus braucht es aus unserer Sicht eine grundsätzliche Neuausrichtung ästhetischer Werte in der Musikpädagogik.
Zu der dafür notwendigen Diskussion hoffen wir hier einen Beitrag zu leisten. Es ist uns bewusst, dass wir mit diesem Artikel keine zwingende, logische Argumentation vorlegen, die die Notwendigkeit einer ästhetischen Reevaluation automatisierten Musikmachens schlüssig beweist. Auch sind die Erkundungen im Rahmen des Projekttutoriums nicht darauf angelegt, stichhaltige empirische Ergebnisse zu produzieren.
Vielmehr geht es uns um eine Einladung, den ästhetischen Wert automatisierter elektronischer Musik aus der Praxis solcher Musik kennen zu lernen und tief sitzenden Vorbehalten gegenüber „Knopfchendrückerei“ eine differenziertere Betrachtung entgegenzustellen.