Das 10. Next Generation Festival im ZKM
Am 10. Next Generation Festival nahmen insgesamt 27 Hochschulstudios für elektronische Musik teil. Neben Vorträgen stand vor allem die Musik der Studierenden im Vordergrund. Die Bericht ist ein Rückblick auf die ungewöhnliche Konzepte, die dort gezeigt wurden, darunter ein Game-Controller zur Sound-Steuerung, eine Papierorgel und künstlich erzeugte Naturgeräusche.
Was ist das Next Generation Festival?
Das Next Generation Festival bezeichnet sich als „größte europäische Zusammenkunft von Hochschulstudios für elektronische Musik”. Es will damit aufstrebenden Komponierenden eine Plattform bieten, um ihre musikalischen Entwicklungen zu präsentieren. Das Festival am Zentrum für Kunst und Medien Karlsruhe (ZKM) wurde – abgesehen von einer kurzen Unterbrechung durch die Pandemie – alle zwei Jahre ausgetragen, aktuell in der zehnten Ausgabe.
In mehreren Sessions und Konzertreihen fanden Konzerte und Vorträge statt. Unter den 27 teilnehmenden Hochschulen mit Beiträgen von 187 Studierenden stammt der Großteil aus Deutschland, aber auch Studios aus Bern, Zürich, dem italienischen Cuneo, Den Haag, Straßburg, Salzburg und Graz sind vertreten. Der Eintritt ist beim Festival frei, insgesamt waren über die vier Tage laut ZKM rund 450 Besucherinnen und Besucher vor Ort.
Der Computer musste erst als Instrument wahrgenommen werden
„Als ich 2005 die Idee zu dem Festival entwickelt habe, hatten die Hochschulstudios einen schwierigen Stand“, erinnert sich Ludger Brümmer, der Initiator, Professor für Komposition mit digitalen Medien an der Musikhochschule Trossingen und ehemalige Leiter der Abteilung für künstlerische Forschung und Entwicklung „Hertzlabor“ am ZKM, auf Nachfrage an die Ursprünge. „Innerhalb der Musikhochschulen ging es um existenzielle Fragen, es musste das Verständnis für den Computer als Instrument entstehen. Bei einer Violine oder einem Flügel stellt sich die Frage nicht, aber bei einem Computer?“
Das Festival schaffe einen Ort der Vernetzung, insbesondere zwischen einzelnen Studios der Hochschulen. Das Denken, die Arbeitsmittel und die vorherrschende Ästhetik bei Instrumentalkompositionen unterschieden sich enorm von den Computermusik-Werken, so Brümmer. Jene Spannungen existierten mittlerweile weniger stark, die Bereiche seien eher zusammengewachsen. „Genau das war auch unser Ziel: Kompositionsstudierende zusammenzubringen und den Austausch zwischen den Hochschulen sowie den musikalischen Traditionen und Genres zu ermöglichen.“ Junge Komponierende integrierten inzwischen selbstverständlich Pop und experimentelle Musik sowie Elektronik und Instrumentalmusik. Weiterhin sei ihm wichtig, dass bei der Festivalreihe die Studierenden im Mittelpunkt stehen.
Zur Auswahl der Hochschulen meint Dominik Kautz, kuratierender Projekt- und Produktionsleiter für elektronische Musik und Klangkunst des „Hertzlabors“, dass im Vorfeld die Teilnahme von Hochschulstudios aus einem Pool abgefragt werde. „Die Lehrenden der Hochschulen reagieren auf aktuelle musikalische Entwicklungen und koordinieren die Studierenden und deren Werke, an denen manchmal bis zur letzten Sekunde vor der Aufführung gearbeitet wird.“ Auch hierbei stünden die Studierenden im Vordergrund und erlernten dadurch den Umgang mit technischen Grundlagen für ihre künstlerische Vision – das sei eine wichtige „Spielregel“ des Festivals, so Kautz. Sie wollen eine große Bandbreite aktueller Entwicklungen im Bereich elektronischer Musik abbilden. „Wir verstehen das Festival als eine Art ‚Familientreffen‘ ohne kompetitive Grundhaltung.“
Aus diesem Grund möchte Kautz ungern persönliche Highlights nennen, da das automatisch eine Priorisierung vornehme, was anderen Teilnehmenden nicht gerecht werde. Ungewöhnlich und spannend fand er darüber hinaus die elektroakustische Harfe, welche die Grundlage für das Konzertprogramm des METS (Musica Elettronica & Tecnici del Suono) des Konservatoriums in Cuneo war. „Das gleiche gilt auch für die Klanginstallation ‚Die Papierorgel‘ des Studios für Elektronische Musik und Akustik (selma) der HfMDK Frankfurt am Main.“ Beide Instrumente bestachen durch einen ausgefeilten Klang aufgrund der ausgeklügelten Kompositionen der Studierenden beider Studios, so Kautz. „Ein weiteres herausstechendes Projekt war die immersive und raumgreifende Klanginstallation ‚Ta maison m’a dévoré“ der in der Haute école des arts du Rhin (HEAR) Strasbourg studierenden Künstlerinnen Chloé Duplessis de Pouzilhac und Abla Alaoui.“
Aufführungen in 3D-Klangsphäre mit 47 Lautsprechern
Die Konzerte wurden teilweise im sogenannten Klangdom des ZKM aufgeführt, einem großen Saal, in dem 43 Lautsprecher fest installiert an einem ellipsenförmigen System dreidimensional im Raum hängen. Zusätzlich befinden sich vier Subwoofer am Boden, sowie bei Bedarf vier weitere Bodenlautsprecher. Klangbewegungen sollen damit realistisch dargestellt werden können.
Jene dauerhafte Installation sei zu Beginn des Festivals 2005 noch etwas Ungewöhnliches gewesen, so Brümmer im Vorwort zum Programmheft, mittlerweile hätten mehrere Hochschulen eigene Lautsprecher-Sphären. Bei den im Klangdom veranstalteten Konzerten wurde der Klang häufig live an den Notebooks der Studierenden bearbeitet, jeweils mit eigenen DAWs, darunter beispielsweise Ableton Live, Reaper oder Logic, erklärt Dominik Kautz. Zur Steuerung der Live-Elektronik würden auch gerne Patches auf Basis von Max/MSP, einer grafischen Entwicklungsumgebung für Musik und Multimedia genutzt. „Für die Verräumlichung des Klangs kann unter anderem unsere eigens für den Klangdom entwickelte und frei herunterladbarer Software ‚Zirkonium‘ verwendet werden.“
Verfremdung und Stilbrüche
Dazu ein konkreter Blick auf einzelne Beispiele vom Besuch des Festivals: Bei den Konzerten der HMTM Hannover/FMSBW bietet das Stück „Dawn“ von Zampia Betty Mavropoulou, für Tuba, Stimme und Live-Elektronik geschrieben, verfremdete Tuba-Geräusche zwischen Didgeridoo-Ästhetik und Filter-Modulation zu hören, praktisch im Dialog mit einer weiblichen Stimme, die Gedichte rezitiert und in Erzählungs- und Gesangsfetzen zerschnipselt wiedergegeben wird, in einem teils über verschiedene Lautsprecher im Raum ausgegeben „Störfreuer“ aus Silben. Mit rund 150 Zuschauern ist der Raum voll besetzt. Der Mischpultplatz im hinteren Drittel des Raums, an dem neben Live-Mischer auch die jeweiligen Komponierenden sitzen und mit ihren Notebooks die Stücke steuern, steht mit den leuchtenden Bildschirmen wahrgenommen ähnlich im Vordergrund wie das Geschehen auf der Bühne.
Andere Stücke spielen mit Gegensätzen, etwa der Abwechslung aus Kakophonie und plötzlicher Ruhe, sowie Bachgeräuschen. Teils wird der „Klangdom“ auch als reines Reproduktionsstudio fertiger Klangkollagen genutzt. Bei Tom Bañados‘ „Blooming Decay“ für Cello und Live-Electronik wird der Cellokorpus zunächst nur perkussiv bespielt, dann mit Drones untermalt, schließlich gestrichen in Obertöne kippend gespielt. Das erinnert an frühe Experimente von LaMonte Young und Ex-Velvet-Underground-Bratschist John Cale.
Eine interessante Kombination stellte Thanos Sakellaridis‘ „There was something purple … “ dar, für Akkordeon, Live-Elektronik und Video, das mit verfremdetem Akkordeon sowie allerlei 8-Bit-Gaming-Sounds samt Glitches und Fehlern gestaltet ist. Die Klänge werden zerstückelt, in seinem dystopischen Ende erinnert das Stück atmosphärisch an eine Episode der Netflix-Serie „Black Mirror“, schließlich endet es mit hohem Fiepen und gurgelnden Geräuschen, nahe der Schmerzgrenze, kurz heftig verzerrt – bis nur noch ein dezentes Tinnitus-artiges Geräusch im Raum übrigbleibt.
Interaktion mit drahtlosem MIDI-Keyboard
Musikdesign-Studierende der Hochschule für Musik Trossingen führten am selben Abend Konzerte auf, darunter Joel Schellhorn und Emre Nurbeyler, deren augenzwinkerndes „Mild Inconvenience“ für Disklavier komponiert wurde, einem MIDI-fizierten, selbst spielenden Yamaha-Klavier – im ZKM stand dazu ein entsprechend ausgestatteter Yamaha S6-Flügel zur Verfügung. „Das Stück thematisiert die kleinen Ärgernisse und Missgeschicke eines Konzerts. So wird ein Husten aus dem Publikum beispielsweise zu einem Teil des Stücks als ein sich entwickelndes thematisches Element“, erzählen die beiden auf Nachfrage. „Auf dem Gedanken basiert auch Publikumsinteraktion: Per MIDI-Keyboard werden Noten vom Publikum ausgewählt und dann im Disklavier sequenziert. Diese Noten können wir nicht planen, sodass das eigentliche Klavierspiel unterbrochen wird und die Performenden in eine Improvisation gezwungen werden, um das Stück wieder zurück in die ursprüngliche Bahn zu bringen.“ Das Piano ist mit Echo- und Chorus-Effekten zu hören, die erwähnten Huster setzen zunächst rhythmisiert ein, gehen dann in eine Kakophonie über. Unterbrochen wird das Ganze durch Einspieler – etwa herabgleitende Drones – der vom Publikum gedrückten MIDI-Tasten.
Das Stück bietet eine gute Gelegenheit, einen Blick auf die „Technik dahinter“ zu werfen: Das Signal des MIDI-Keyboards, mit dem Schellhorn durchs Publikum lief und zum Auswählen eines Tons aufrief, wurde drahtlos über einen Raspberry Pi übertragen, der MIDI via OSC an zwei Rechner verschickte, so die Musiker. „Wir haben uns für ein technisches Setup mit zwei Computern entschieden, um unser Stück möglichst verlässlich und flexibel zu halten. Einer ist vorne beim Disklavier, und der andere hinten beim Mischpult. Auf Emres Computer läuft ein Max/MSP-Patch für alle MIDI-spezifischen Aufgaben. Beispielsweise verarbeitet er den Input des Disklaviers, sequenziert die Publikumsinteraktion oder die Shepard-Tonleiter [eine von dem Psychologen Roger N. Shepard entwickelte Tonleiter, die die Illusion einer endlos ansteigenden/abfallenden Tonleiter erzeugt, d. Autor].
Um den Klang auf die Raumklanganlage zu bekommen, sendet Emres Computer über OSC-Befehle an meinen Computer, der sich am Mischpult über Plug-Data um den Sound und dessen Verräumlichung kümmert“, so Schellhorn. „Das bedeutet, dass tatsächlich keine Sounds live bearbeitet, sondern auf Basis der einkommenden OSC-Daten neue Sounds generiert werden. Alle Klänge, Effekte und Multikanal-Panner haben wir selbst in PlugData gebaut. Eine besondere Herausforderung war für uns, Raumklang auf innovative Weise zu verwenden. Unser selbstgebautes Mehrkanal-Reverb schalten wir beispielsweise plötzlich in der Mitte des Stücks ab, um die Raumwahrnehmung des Publikums zu ‚betrügen‘ – kurz gesagt ein ‚elektroakustischer Trugschluss‘.“
Rhythmische Gegensätze
Valentin Schimpfs „Patternstudie“ kombiniert rhythmische Pattern im Raum miteinander und verschiebt sie teilweise – was musikalisch reizvoll klingt. „Das ganze Stück wurde fast nur mit zwei Max4Life-Devices komponiert“, erklärt Schimpf. „Zum einen mit Opal – ein Pattern-Generator aus Sequenzer und Drum-Synthesizer, wobei letzterer aus vier klangerzeugenden Engines und zwei Effekten besteht. Der Sequenzer ist inspiriert von den Elektron Hardware-Sequenzern. Zum anderen habe ich einen Euclidean-Sequenzer verwendet. In der ersten Hälfte des Stücks kommt es noch nicht wirklich zu einer Verschiebung der Patterns. Durch die Variation der Patterns und dem Kontrast zwischen euklidisch- und Grid-basierten Rhythmen [euklidische Rhythmen kombinieren beispielsweise eine gerade und ungerade Anzahl von Schlägen, d. Autor] kommt es einem aber so vor.”
“Die erste Hälfte des Stücks und somit der gesamte Zyklus, den ich mit den Opal-Device, aufgebaut habe, wurde für die zweite Hälfte dann komplett raus gerendert und manuell verschoben – immer in regelmäßigem Abstand, derselben Taktzahl entsprechend. Zum anderen ändert sich in der zweiten Hälfte auch der ‚Hi-Hat‘-Sound, der immer von oben im 3D-Klangbild kommt und das Metrum angibt. Eigentlich soll der Sound als Referenz dienen und kommt deshalb immer mal wieder rein. In der zweiten Hälfte ändert sich der Rhythmus von durchgehenden Achteln zu Sechzehnteln. Hierbei wird immer jede vierte Sechzehntel betont. Nach einem Durchgang von vier Takten wird die Betonung um eine Sechzehntel verschoben. Somit entsteht auch ein neues Bild der anderen Rhythmen, da sie durch die Verschiebung in einen anderen Kontext gesetzt werden. Am Schluss gibt es ‚Pausen-Pattern‘, wo ich Teile der Audiospuren ebenfalls systematisch rausgeschnitten habe, sowohl bei den Grid-, als auch den euklidisch erzeugten Rhythmen.“
Spektral hat er die Sounds so verteilt, dass die Bass-Sounds vor allem unten zu hören waren, und der erwähnte HiHat-Sound oben. Ein Granular-Sound, der das Stück gelegentlich unterbricht, wurde einfach zunehmend chaotischer im Raum verteilt, erklärt Schimpf. „Hierbei handelt es sich um ein den Granular-Synth ‚Quanta2‘, in den vorher das gesamte Stück als Audio-File geladen wurde und der daraus ‚random Grains‘ mit hoher Rate generiert.“ Für ihn stand bereits beim Sounddesign fest, dass das Stück für die Mehrkanal-Anlage konzipiert sein sollte. „Ursprünglich Dolby-Atmos – deswegen habe ich von Anfang an darauf geachtet, dass sich jeder Sound vom anderen Unterscheidet und gut ortbar ist. Zum anderen sollte kein Sound zu extrem gestaltet sein, so dass er die anderen überlagert.
Ich habe nahezu keine externen Effekte verwendet und alles über das genaue Leveln der Lautstärken gelöst. Nur auf dem Hi-Hat Sound kamen noch Granular-Effekte zum Einsatz.“
Kino für die Ohren: Storytelling im Surround-Kontext und dreidimensionale Atmosphären
Einen „Hörbuch-Charakter“ mit Sog-Effekt entwickelte Mara Hebels „Körper“, ein 3D-Audio-Stück, für das die Studentin der HfK Bremen acht Frauen aufnahm, die Passagen ihrer privaten Tagebücher zum eigenen Körper und ihrer Wahrnehmung im Alltag vortrugen – was dichte, emotionale Geschichten erzählte, passend dramaturgisch im Raum verteilt gegeneinander geschnitten.
Li Lu, ebenfalls von der HfK Bremen, führt mit „Beim Warten horche ich“ ein fast meditatives Stück auf, dass Alltagsgeräusche einer Großstadt thematisiert, und in das man sich dank der Umsetzung „hineinfallen“ lassen kann. Das Stück basiert auf 3rd-Order-Ambisonics und dem Ambix-Format, so Lu auf Nachfrage, es soll verschiedene Momente des Alltags abzubilden. Durch die Mischung von synthetischen und aufgenommenen Klängen entstehe eine subjektiv imitierte Wirklichkeit.
Besonders eindrucksvoll erscheint ein einhüllendes Regenprasseln zu Beginn, bei dem der Hörer gefühlt dicht unter einem Blechdach sitzt – scheinbar so nah aufgenommen, dass es einen angreift und ergreift, später wieder weiter weg, atmosphärisch ist Stadtverkehr in der Ferne durch den Regen wahrnehmbar – ganz so, als hätte jemand das Fenster seiner Wohnung geöffnet und würde von drinnen dem Geschehen lauschen. „Das Regenprasseln ist synthetisch erzeugt worden“, erklärt Lu. Er baute ein eigenes Patch in Max/MSP, „dessen Struktur mit reiner Noise auf Granular-Techniken basiert. Im Vergleich zu einem aufgenommenen Klang ermöglicht mir der synthetische Klang eine freiere Kontrolle, um meine kompositorische Idee in dem Regenteil umzusetzen.“
Musik per Live Coding
Am Abend führten die mexikanischen Live Coder Iván Abreu und Malitzin Cortés (CNDSD) ein 2021 vom ZKM in Auftrag gegebenes audiovisuelles Stück auf. Das Werk „AUTOconstruccion“ für audiovisuelles Live Coding und Machine Learning entstand im Rahmen der vom „Creative Europe“-Programm der Europäischen Union kofinanzierten „on-the-fly Residenz“ zum Thema „Live Coding“ – was praktisch als das Schreiben von Algorithmen ihn Echtzeit „mit kreativen Absichten“ verstanden werden kann, wie es in der damaligen Ausschreibung vom ZKM hieß. Das Stück wurde 2023 mit dem „Golden Award“ beim „Lumen Prize“, der sich Technologie-getriebener Kreativität widmet, ausgezeichnet.
Auch traditionellere Synthesizer als Ausgangsmaterial vorhanden
Abseits der neuen Technologien waren auch eher traditionellere Synthesizer auf dem Festival vertreten: An einem der anderen Tage traten beispielsweise Studierende des ICEM Essen mit der portablem Synthesizer-Version des Synlab auf – einem großen analogen Synthesizer, der von Hofschneider um 1972 als Einzelstück gefertigt wurde und in der Folkwang-Universität im Studio A des ICEM steht. In anderen Performances kamen beispielsweise verschiedene DIY-Synthesizer zum Einsatz. Die Berliner Universität der Künste (UdK) fütterte beispielsweis ein E-Gitarren-Signal durch Max/MSP-Patch, um sie als Controller zu nutzen. Die Musikhochschule Lübeck setzte selbstgebaute Instrumente und Objekte ein, darunter Gitarrenpedale, Schaltkreise und einen Arduino-Controller.
Möglichkeiten generativer KI und bisherige kreative Techniken könnten parallel existieren
Wie könnte angesichts der Vielfalt die nahe Zukunft elektronischer Musik aussehen? KI-Systeme, die fertig gemischte Werke ermöglichten sowie auf Wunsch Text und Stimme auf Wunsch erzeugten, sind gerade erst am Markt verfügbar, und es sei noch kein Ende in Sicht, wie sich KI nutzen lasse, so Brümmer im Programmheft. „Wird sich die Art, wie wir mit ‚der Maschine‘ kommunizieren, komplett verändern?“ Vielleicht, so Brümmer, bestehe das Modell für die Veränderungen, die wir von generativer KI erwarten können, in neuen Möglichkeiten neben den bisherigen, die weiterhin immer noch berechtigt parallel existieren. Die nächste Auflage des „Next Generation“-Festivals findet dann voraussichtlich in zwei Jahren statt, künftig ohne Ludger Brümmer – der Festival-Gründer ging dieses Jahr zwischenzeitlich in Rente.
ZKM-Webseite zu Next Generation Festival