Mimesis als kompositorisches Material. Zu Jonathan Harveys »Speakings«
In Jonathan Harveys (1939–2012) Komposition Speakings für Orchester und Elektronik fungieren Sprachsamples – vornehmlich von Kleinkinderstimmen – als Quelle für die Konzeption des musikalischen Materials. Der Schwerpunkt dieses Beitrags liegt auf einer Analyse dieser Komposition, anhand derer einige allgemeine Aspekte des Verhältnisses zwischen der Konzeption des musikalischen Materials und gesprochener Sprache aufgezeigt werden. Darüber hinaus wird angedeutet, wie sich dieses Verhältnis aus der Perspektive neuerer technischer Möglichkeiten gegenwärtig weiterentwickelt. Dabei werden die dem Spektralismus zugrundeliegenden Techniken und ihr Potenzial zur kreativen Nutzung dieses Zusammenhangs berücksichtigt. Verdeutlicht wird dies unter anderem anhand eines konkreten Beispiels der automatisierten Orchestrierung mit der Software Orchidea.
Die wandelbare Wechselspannung zwischen Musik und Sprache
Die Überlagerung von vokal-instrumentaler Komposition und gesprochener Sprache weist eine weit in die Geschichte zurückreichende Tradition auf. Dabei zeichnet sich eine Linie ab, welche eine metaphorische Beziehung – ablesbar z.B. von der musikalischen Instruktion cantabile[1] – in eine Domäne der technischen Reproduzierbarkeit verschiebt. Die Geschichte der Reproduktion realer Sprache spannt sich vom Phonographen über analoge Pionier-Leistungen in Bell Labs und Voder-Technik bis zu der digitalen Synthese, die beispielsweise am IRCAM zur bekannten Realisation einer synthetischen Produktion der Rachearie der Königin der Nacht durch die FOF-Synthesis (Formant waveform) geführt hat, bei der die synthetische Stimme von einer realen kaum noch zu unterscheiden ist. Die tiefgreifende Gestaltbarkeit des Spektrums regte wiederum zu weiteren kreativen kompositorischen Ausformulierungen an. Hingegen lässt sich ebenfalls die Tendenz beobachten, dieselben neuen technischen Mittel zu verwenden, um die technisch perfekte Reproduktion durch künstlerische Transformation zu ergänzen und neu zu kontextualisieren.
Zur Spektralmusik
Diese Wechselspannung zwischen technischer Reproduktion und künstlerischer Transformation lässt sich anhand der Richtung des Spektralismus genauer untersuchen.
Der Begriff ‚musique spectrale‘ stammt von Hugues Dufourt (vgl. Dufourt: Musique spectrale, S. 30). In mehrfacher Hinsicht stellt der Spektralismus eine Synthese zwischen vokal-instrumentaler und elektroakustischer Musik dar. Während mithilfe von Elektronik durchgeführte spektrale Analysen innerhalb der kompositorischen Vorarbeiten als wichtige Quelle für die Konzeption des Materials dienen, werden die elektronischen Verfahren selbst durch die instrumentalen Texturen nachgebildet. Außerdem werden elektronische Mittel als Zuspielung oder Live-Elektronik nicht selten während der Realisation spektraler Stücke verwendet. Insbesondere die Technik der instrumentalen Resynthese ist in diesem Kontext anzuführen. Der Begriff ‚instrumentale Resynthese‘ bezeichnet das Verfahren, mit dem ein durch FFT[2] analysierter Klang durch eine gegebene vokal-instrumentale Besetzung sowie Fixed Media oder Live-Elektronik neu zusammengesetzt wird. Oft wird dieses Verfahren für einen Klang genutzt, der der Komposition insgesamt als Modell dienen soll, entsprechend wird er als Modellklang[3] einer Komposition bezeichnet. Ein berühmtes Beispiel für die instrumentale Resynthese ist Griseys Pionierstück Partiels für großes Ensemble aus dem Jahr 1975. Der von einer Posaune hervorgebrachte Ton Kontra-E wurde dabei als Modellklang verwendet – d.h. mit einem Sonogramm aufgenommen und das resultierende Obertonspektrum dann als Material für das ganze Stück genutzt (siehe Abbildungen 1 und 2). Die Frequenzen und dynamischen Verläufe von Partialtönen – welche durch spektrale Analyse extrahiert werden – werden den einzelnen Instrumenten und/oder Vokalstimmen zugeordnet.


Häufig setzte diese Übertragung im Vorhinein eine bestimmte zeitliche Ausdehnung[4] fest, wobei sich die Kompositionsprozesse aus der inneren Struktur des Modellklangs ergaben. Durch die spektrale Analyse des Timbres werden hier die Mikroeigenschaften des Klanges enthüllt, die in einem weiteren Schritt auf die strukturelle und formale Ebene der Komposition projiziert werden. Ableiten lässt sich von dem Verfahren zugleich auch die Interaktion zwischen einzelnen musikalischen Parametern. Da der ersten Generation der Spektralist*innen die Zerlegung des Obertonspektrums in Sinustöne als Pool für die Zusammenklänge bzw. für die Harmonik diente, entsteht eine Unentschiedenheit zwischen Harmonik und Klangfarbe; die Parameter überlagern sich. Während die Obertonstruktur das Timbre mitgestaltet, sorgt sie hier auch als Material für Harmonik.
Mimesis als ästhetische Aneignung
Die Ambiguitäten der einzelnen Parameter – wie z.B. zwischen Harmonik und Timbre[5] – und ihr Zusammenwirken erweisen sich dabei als effektives Gestaltungsmittel einer künstlerischen Mimesis des originalen Modellklanges. Der alte griechische Terminus Mimesis – ein Begriff, der eher im Kontext mit Bildender Kunst[6] auftritt, – bezeichnet bekanntlich generell das Konzept einer Nachahmung. Im 20. Jahrhundert wurde die Nachahmung durch die technische Reproduzierbarkeit neu definiert und ihr Potenzial für die künstlerische Arbeit noch erhöht. Die instrumentale Resynthese erscheint als eine Form der künstlerischen Transformation, die auf einer Reproduktion mittels der technischen Möglichkeiten der spektralen FFT-Analyse basiert.
Die Nachahmung eines akustischen Klangmodells, das in dem neuen Klangkörper reproduziert wird, spinnt ein neuartiges Beziehungsnetz innerhalb des kompositorischen Denkens. Denis Smalley (* 1946) vertritt die These, dass das Publikum eine natürliche Tendenz besitze, gehörte Klänge mit vermuteten Quellen und Ursachen in Verbindung zu bringen.[7] Die Assoziationen bieten einen Anhaltspunkt für das Publikum, das von dort aus die Klangbeschaffenheit auffasst. Die externe bzw. extrinsische Assoziation – d.h. die Herkunft und Bedeutung der Klänge – erzeugt damit einen Ausgangspunkt für die Auffassung der jeweiligen inneren bzw. intrinsischen Klangbeschaffenheit und somit auch für die spektromorphologische Wahrnehmung. Darüber hinaus ist es möglich, im Kompositionsprozess eine Abstufung von Klangquelle-Erkennung[8] bzw. (nach Smalley) ‚source bonding‘ zu analysieren und sie ebenfalls als ein strukturelles Mittel zu deuten.
Die spektralistischen Verfahren der Resynthese können als eine Form der Mimesis angesehen werden. Dabei besitzt die transformative Oszillation zwischen den einzelnen Identitäten der Klänge grundlegende Bedeutung. Aufgrund der modifizierten Transformationen, welche eng mit den verwendeten technischen Mitteln zusammenhängen, lässt sich derart die Entfaltung der mimetischen Konzeptionen beschreiben.
Das akustische Phänomen der Resynthese kann auf einer Achse zwischen zwei gegensätzlichen Polen positioniert werden, die sich in Wechselspannung zueinander befinden. Auf der einen Seite steht die kontextuelle bzw. mimetische Hörweise, auf der anderen Seite befindet sich der phänomenologische Hörmodus. Die gesprochene Sprache erweist sich als besonders flexible Klangquelle für die Resynthese, denn als Klangphänomen weist sie eine extreme dynamische und flexible spektrale Charakteristik auf, womit sie als reiche Palette von spektralen Zuständen dient. Außerdem animiert sie durch ihre Nähe zur Alltagserfahrung des Publikums eine Menge von mimetischen bzw. kontextuellen Hörweisen, und so wird sie von Komponist*innen wegen ihrer reichen Abstufungen gern als dramaturgisches sowie tektonisches Mittel verwendet. Solche Aspekte werden nun anhand folgender Analyse von Harveys Speakings veranschaulicht.
Speakings
Die Komposition Speakings entstand im Jahre 2007-08, sie gehört neben …towards a pure land (2005) und Body Mandala (2006) zu einer Trilogie von Orchesterstücken, die vom BBC Scottish Symphony Orchestra beauftragt wurden.[9] Wie bei vielen anderen Stücken nimmt Harvey in dieser Trilogie Bezug auf den Buddhismus, wobei er sich innerhalb der drei zu der Trilogie gehörenden Werke auf die unterschiedlichen Klangaspekte der körperlichen Aktionen wie z.B. des Atems, in Verknüpfung mit dem buddhistischen Glauben fokussiert. Der Titel des Stücks avisiert bereits Harveys kompositorischen Schwerpunkt, der in Speakings auf der Erforschung der gesprochenen Sprache[10] liegt.
Harvey erprobt mit Speakings die Neuzusammensetzung der Sprache durch das Orchester und hinterfragt damit zugleich das klangliche sowie auch semantische Assoziationspotenzial dieses akustischen Phänomens. Die mimetische Funktion der instrumentalen Resynthese spielt dabei eine zentrale Rolle. Auf der globalen Ebene können die Wirkungen dieser Mimesis als ein Leitfaden angesehen werden, an dem entlang die dreiteilige Form des Stücks entwickelt wird. Die Kleinkinderstimmen werden als eine Klangmetapher für die Sprachentstehung aufgegriffen, gleichzeitig wird mit ihnen die Entstehung des orchestralen Vokabulars verknüpft:
In Speakings I wanted to bring together orchestral music and human speech. It is as if the orchestra is learning to speak, like a baby with its mother, or like first man, or like listening to a highly expressive language we don’t understand.[11]
Der buddhistische Glaube ist in diesem Entwicklungsprozess eine symbolische gestalterische Kraft, welche das Sprechen allmählich in die pure Form des Mantra-Gesanges transformiert und dessen Verwirklichung die Klimax des Stückes bildet: „In Buddhist mythology from India there is a notion of original, pure speech, in the form of mantras — half song, half speech. The OM-AH-HUM is said to be the womb of all speech.“[12] Diese von Harvey beschriebene Doppelnatur des Mantras kann ebenfalls auf die mimetische Aufladung des musikalischen Materials übertragen werden, das zwischen ästhetischer und semiotischer Referenz oszilliert.
Die Funktion der Elektronik
Die Neuzusammensetzungen der Sprachpartikel wurden zum einem aus den computer-assistierten kompositorischen Vorarbeiten entwickelt, zum anderen durch die elektronischen Prozesse und Live-Elektronik[13] weiter ausgestaltet. In diesem Sinne fusioniert der Entstehungsprozess die elektronische Generierung bzw. Manipulation des symbolischen Notenmaterials mit den signal-orientierten Bearbeitungsprozessen der Elektronik, und diese beiden Bestandteile wirken jetzt durchgehend gemeinsam als Ordnungsprinzip.
Am Anfang des analytischen Vorgehens destillierte Harvey mit Hilfe der Software Melodyne[14] aus mehreren äußerst stark kontrastierenden Sprachsamples[15] deren melodische Umrisse. Dadurch wurden die Grundtöne der jeweiligen Sprachsamples transkribiert und in melodische Linien organisiert – eine besondere Rolle spielten dabei unterschiedliche Kleinkinderstimmen. Der nächste Schritt wurde in der Software OpenMusic[16] durchgeführt, wobei das Ziel angestrebt wurde, aus der spektralen Analyse der Samples ein rhythmisch quantisiertes Tonmaterial hervorgehen zu lassen. Diese Quantifizierung[17] wurde u.a. mit Hilfe des Transienten-Detektors[18] realisiert, sie besitzt eine wichtige Funktion für die Auflösung der resultierenden Analyse.
Neben den akustischen Charakteristika, die sich aus der spektralen Analyse ergaben, können außerdem die konstruktiven Möglichkeiten der Software in Betracht gezogen werden. Die auf Common Lisp basierte Software verzahnt dabei die Tonreihenfolgen und Zusammenklänge, denn sie kann bei der Verarbeitung von Listen zwischen horizontalen und vertikalen Strukturen flexibel wechseln (siehe Abb. 3).

Von dieser Logik ausgehend appliziert Harvey in dem Stück einen zwiespältigen Vorgang, da er zum einem die Sprache als polyphone Struktur darstellt, zum anderem die zusammengesetzten Timbres zu einer homophonen synthetisierten Sprache umdeutet. Die mimetischen Wirkungen des Klangmaterials lassen sich aus dieser Perspektive in individuelle und kollektive Sprachgesten aufteilen. Die erstgenannte Variante wird hautsächlich durch die elektronisch verstärkten Soloinstrumente verwirklich, deren melodischen Linien vorwiegend durch die destillierten Grundtöne aus Melodyne konzipiert sind (siehe z.B. Abbildung 4). Diese Linien werden in einem nächsten Schritt durch die addierten Spektren der instrumentalen Resynhese erweitert, welche durch die Orchester-Sektionen realisiert sind. Die solistische Linie wirkt dadurch als eine Art Fingerabdruck des Sprechens, womit ebenfalls Harveys Hauptanliegen gezeigt ist, das nicht auf der buchstäblichen Wiedergabe des Sprechens selbst liegt, sondern sich vielmehr an der Erforschung von Grenzbereichen zwischen abstrakten musikalischen Qualitäten und imitativen Wirkungen orientiert – eine Art Beobachtung der Realität durch Musik.
Die kollektive Variante besteht in der Emanzipation des addierten Spektrums der Orchestersektionen. Eine homophone instrumentale Resynthese wird dadurch in tendenziell abstrakte Texturen überführt (siehe z.B. Abbildung 17). Dadurch lässt sich eine mimetische Achse identifizieren, welche bei Harvey zwischen konkreten und eher abstrakten imitativen Qualitäten oszilliert.
Diese Zweiheit spiegelt sich auch in der Verwendung von zwei grundlegenden FFT-Analyseansätzen wider. Die Softwares Melodyne sowie OpenMusic (bzw. Audiosculpt) konzentrieren sich auf die dynamische Entwicklung der Sprache, die als fließendes Phänomen aufgefasst wird. Hingegen ergab Orchidée[19] über die Analyse ein statisches Bild, da jeder einzelne Modellklang nur als ein Akkord resynthetisiert werden konnte, womit sich diese Variante eher für kürzere Sprachsamples (wie z.B. OM-AH-UM Mantra) eignete, die sich nicht in Zeitverläufen entwickeln.[20] Solche statischen FFT-Analysen werden von Harvey allerdings in einem nächsten Schritt mit computer-assistierten Orchestrationsalgorithmen[21] ergänzt, die ein innovatives Potenzial beinhalten.
Während die morphologische Information im ersten Zugang über Melodyne und OpenMusic besser aufgefasst und die mimetische Nachahmung der Sprache hier in gewissem Maße plastischer realisiert wird, lassen die Orchestrierungen mit der Software Orchidée neuartige klanglich-timbrale Assoziationen entstehen. Ein Beispiel für diese Vorgehensweise findet sich auf den Seiten 54–55 der Partitur, wo eine solistische Linie[22] der Posaune zu sehen ist. Sie reproduziert Grundtöne der Sprachsamples, die aus der Melodyne-Analyse stammen (siehe Abbildung 4).

Diese dominante Linie wird mit der Streichersektion synchronisiert, deren Material wiederum auf der Analyse aus OpenMusic[23] beruht (siehe Abbildung 5).

Die Aufschichtung der Streichersektion auf die elektronisch bearbeitete und verstärkte Linie der Posaune könnte assoziativ mit einer Funktion der Cross-Synthese verknüpft werden, wo die spektrale Hüllkurve eines Klangs dem abgeflachten Spektrum eines anderen zugewiesen wird (siehe Abbildung 6).[24] Die melodische Linie wird auf diese Weise hybridisiert und erhält ein doppeltes Spektrum und damit auch eine doppelte Bedeutung, die sich der Eigenart der gesprochenen Sprache annähert.
Auf diese Weise lässt sich die mimetische Funktion der Elektronik gut einfangen. Einer melodischen Linie wird dadurch ein komplexes Spektrum hinzugefügt, womit Elektronik eine Verschmelzung mit dem originalen Modellklang unterstützt. Es liegt auf der Hand, dass die Präsenz von Samples und deren Spektren innerhalb der Synthese die Wahrscheinlichkeit, dass das Publikum einen Zusammenhang zwischen den Samples und ihren instrumentalen Synthesen herstellt, deutlich erhöht. Wenn diese Klänge nahe beieinander liegen, kann unsere Wahrnehmung zwischen Umweltklängen und Instrumentalklängen hin- und herschalten. Aufgrund dieser Nähe kann es sogar zu uneindeutigen und täuschenden Wahrnehmungen kommen, bei denen ein Instrumentalklang für ein echtes Sprachsample gehalten wird.

Klangfarbenraum in Orchidée
Die Software Orchidée, die am IRCAM in Verbindung mit Harveys Speakings entwickelt wurde, entfaltet solche spektralen Verschränkungen und damit auch die mimetischen Wirkungen maßgeblich weiter. Die timbrale Nähe zum Modellklang – erzeugt beispielsweise mit der spektralen Dichte sowie der Involvierung diverser aleatorischer Konzepte innerhalb der Resynthese – wird in dem Programm zu einem tektonischen Prinzip aufgehoben, mit dem sich formale Trajektorien gestalten lassen, die wiederum mit Smalleys ‚source bonding‘ verknüpft werden können. In der Software Orchidée werden die Sprachsamples durch die real-time Resynthese erforscht, deren klangliches Material aus der umfangreichen Sample-Library[25] stammt. Dabei wird ein Modellklang aufgrund seiner spektralen Eigenschaften analysiert und im nächsten Schritt aus einem Korpus (d.h. aus der Sample-Library von bereits segmentierten und deskriptoranalysierten Klängen) entsprechend der Nähe zu einer Zielposition – also zum Modellklang – im Deskriptorraum[26] abgespielt und transkribiert. Der Deskriptorraum reflektiert dabei die multidimensionale Beschaffenheit[27] des Timbres (siehe Abbildung 7) indem er eine Vielzahl von gewichteten Audio-Merkmalen parallel in die Analyse einbezieht.

Somit kann dieser Deskriptorraum als ein Instrument zur Navigation im mehrdimensionalen Klangfarbenraum angesehen werden. Ein Beispiel eines solchen Vorgangs findet sich beispielsweise in der Resynthesen-Verkettung[28] des früher zitierten Mantra OM-AH-HUM, die sich je nach eingegebenen Klangkriterien in unterschiedlichen Klangmixturen wiederholt. Basierend auf den Klangeigenschaften und perzeptiven Modi werden Zwischenklänge modelliert, um die unterschiedlichsten Aspekte des analysierten Spektrums hervorzuheben (siehe Abbildung 8). Die musikalischen Strukturen und ihre referentiellen Bezüge zur gesprochenen Sprache werden somit aus unterschiedlichen Blickwinkeln projiziert.

Die Resultate der Analyse wurden ohne große Veränderungen (mit Ausnahme der Stimmführung) in die Partitur exportiert, und während der Aufführung wurde die dynamische Präzision der Software besonders beachtet.[29] Es lässt sich damit eine typische spektralistische Vorgehensweise beobachten, bei der die Interpolation zwischen einzelnen Resynthesen eine tektonische Funktion besitzt. Harvey wechselt hier allmählich von den entfernten Varianten zu den akustisch nächstgelegenen Resynthesen, womit er die mimetisch repräsentativste Variante allmählich aus dem Klangfarbenraum von Orchidée herausdestilliert (siehe Abbildungen 9 und 10).[30]


Die Wechselwirkung zwischen den mimetischen und phänomenologischen Hörweisen der Resynthese lässt sich somit auch auf der Ebene der einzelnen Klangmixturen weiterverfolgen. Simon Emmerson unterscheidet in Hinsicht darauf zwischen zwei grundsätzlichen Arten der Nachahmung:
There are two types of mimesis: ‘timbral’ mimesis is a direct imitation of the timbre (‘color’) of the natural sound, while ‘syntactic’ mimesis may imitate the relationships between natural events; for example, the rhythms of speech may be ‘orchestrated’ in a variety of ways.[31]
Einerseits gibt es laut Emmerson die Nachahmung von Klangfarbe, bei der sich die Instrumente in Speakings untereinander imitieren. Durch die Eingangskriterien und Parameter der Neuzusammensetzungen werden in Speakings assoziative Verknüpfungen ausgelöst, womit die Konnotationen der einzelnen Instrumente in Frage gestellt werden. Im Zuge eines solchen Prozesses entstehen mannigfache Klanghybride. Eine derartige hybride Situation kommt zum Beispiel dann zustande, wenn ein akustischer Parameter eines Sprachsamples mit den Pizzicato-Impulsen sowie auch mit der Technik der Flatterzunge kongruiert. Da diese Technik auf einem Streichinstrument nicht ausführbar ist, wird der Algorithmus eine Kompromisslösung in Form einer hybriden Klangmischung finden.
Andererseits vollziehen Harveys Prozessen eine syntaktische Imitation des Sprechens, indem die Funktion der Sprachorgane durch die Anordnung innerhalb der instrumentalen Resynthese nachgeahmt wird.
Instrumentale Reartikulation
Die Imitation der Wirkungen von Sprachorganen mittels die Live-Filterung von Formanten[32] eröffnet in Verbindung mit der musikalischen Resynthese einen weiteren Assoziationsraum. Ein konkretes Beispiel dieses Kontextes kann u.a. auf Seite 50 der Partitur (1 Takt vor Buchstabe S) aufgezeigt werden (siehe Abbildung 11). Die durch Schlaginstrumente projizierten Konsonanten triggern die hohen Formanten in Streichern, die auf dem nächsten Achtel schnell in tiefe Formanten überführt werden. Dadurch lösen die hohen Formanten einen Übergang zwischen diesen zwei Elementen aus und können als eine Art Reartikulation[33] zwischen einem Konsonanten und einem Vokal interpretiert werden. Gleichzeitig werden die perkussiven Konsonanten ebenfalls mit dem MIDI-Keyboard-Cue verknüpft, welches den Filterungsprozess der Live-Elektronik ins Laufen bringt. Die Posaunen-Linie projiziert Grundtöne und wird mit dem Solocello kombiniert, welches die Linie um mikrotonale Umspielungen ergänzt. Dadurch wird eine disparate Energieverteilung erzielt, und so entsteht ein etwas breiteres Frequenzband, das von einem Schatten niedrigerer Amplitudenenergie umgeben ist. Diese Erscheinung charakterisiert u.a. den perzeptiven Geräusch-Anteil des Spektrums.

Die Prozesse der Live-Elektronik
In Harveys Arbeitsmodell wird in weiterer Folge die Plastizität der Reassemblierung durch das signal-basierende Verarbeitungsverfahren vertieft. Die Ergebnisse des Analyse-Resynthese-Verfahrens werden in dieser Phase von akustischen Instrumenten reproduziert und die aufgenommene gesamte Hüllkurve wird durch die akustischen Parameter des originalen Sprachsamples gefiltert,[34] bevor sie über Lautsprecher räumlich in den Saal spatialisiert werden.[35] Auf diese Weise erstellt Harvey ein Reservoir von weiteren Denkoptionen, wobei dieses Verfahren auch in umgekehrter Richtung abläuft und die originalen Sprachsamples mit den akustischen Eigenschaften der orchestralen Mixturen gefiltert und modifiziert abgespielt werden. Die Kinderstimmen werden assoziativ durch die Klangkörper der Instrumente wie Oboe oder Posaune gefiltert.
Durch diese Filterung lässt sich ein anderer mimetischer Aspekt von Harveys Prozessen illustrieren. Diese Filterung ist als eine Art Verfärbung der ursprünglichen auditiven Gestalt zu interpretieren. Der Komponist Clarence Barlow (1945–2023) setzt die verborgene Präsenz des Sprechens in den Kontext eines Residualtons. Dadurch kann auch eine gewisse Assoziation zur Akusmatik erzeugt werden. Die resynthetisierten Spektren projizieren abermals die Klangquelle, die aber physisch eigentlich nicht präsent ist.[36] Dies zeigt auch die eigentümliche Wechselspannung zwischen zwei Hörmodi im Rahmen der Resynthese. Auf einer Seite steht die referenzielle Hörweise, bei der man die Klangquellen rekonstruiert. Auf der anderen Seite steht die phänomenologische Hörweise. Oft wird die Resynthese durch eine extreme zeitliche Ausdehnung realisiert, womit das Publikum in das Klanginnere hineingeführt wird.
Um die latenten Strukturen möglichst organisch zu enthüllen, legt Harvey bei solchen synthetischen Vorgängen auf die exakte Synchronisation der einzelnen Elemente großen Wert. Die Prozesse müssen einerseits zum richtigen Zeitpunkt getriggert, andererseits müssen die Daten zusätzlich im genauen Tempo ohne Schwankungen analysiert werden. Die technisch präzise realisierte Rhythmik vertieft daher das mimetische Potenzial der instrumentalen Resynthese.[37] Aus diesem Grund bekommt der Part des MIDI-Keyboards die besondere Aufgabe, die Daten im exakten Tempo in das Programm Antescofo[38] einzuspielen. Der Keyboard-Part erhält damit eine beinahe solistische Funktion, die zwar neben dem Orchester parallel abläuft und rein auditiv nicht nachvollziehbar ist, jedoch besetzt der Keyboard-Part in der Partitur eine besondere Stelle, denn er ist für die innere Synchronisation des gesamten Orchesters mit der Elektronik zuständig (siehe Abbildung 12).

Fusion und Spaltung
Die daraus resultierenden ambiguen Klangcharakteristika spielen im Stück auf mehreren Ebenen eine wichtige Rolle. Dabei lässt sich Harveys Vorliebe für Hide-and-Seek-Prozesse beobachten,[40] in welchen die Kongruenzen der musikalischen Gesten mit den Sprachfiguren als ein wichtiger Strukturierungsimpuls des Stücks angesehen werden können. So wird die Mimesis der Sprache beim musikalischen Hören zu einer Art Phantomfigur, die in gewissem Maße die Aufmerksamkeit vom musikalischen Material ablenkt, denn sie erweckt eine natürliche Tendenz, die Mimesis – also ‚gespielte Sprache‘ – zu entschlüsseln.
Eine solche oszillierende Doppelnatur der Figuren ergibt wiederum die Assoziation an das akusmatische Hören, da die Klangquelle der gesprochenen Sprache physisch nicht präsent ist. Michel Chion kombiniert dieses Phänomen mit seinem Begriff ‚acousmêtre‘, welcher die unhörbare Sprache im Off eines Filmes bezeichnet – d.h. eine Art filmische Version von Akusmatik. Acousmêtre besitzt dabei eine spezifische Art von Ambiguität gegenüber der Leinwand sowie ein Oszillieren, denn es lässt sich weder als innerhalb noch als außerhalb des Bildes stehend definieren. Beispielsweise kann es als Stimme eines Erzählers in Erscheinung treten, der Allwissenheit verliehen wurde (vgl. Chion: Audio-Vision, S. 129).
Ein korrespondierender Vorgang des Versteckens und Wiederfindens zeigt sich ebenfalls in Hinsicht auf die melodischen Solo-Figuren und ihre Harmonisierungen. Harvey lässt die einzelnen melodischen Linien innerhalb der kommunikativen Prozesse zwischen Soli und harmonischen Klangmixturen allmählich verschmelzen, wobei er eine Oszillation zwischen homophonen und polyphonen Fakturen anwendet. Dies lässt sich mit Harveys erwähnter Intention in Verbindung bringen, die Sprache aus der symbolischen Perspektive des Buddhismus zu betrachten. Die einzelnen melodischen Linien der Sprachfiguren verlieren langsam ihre individuelle Charakteristik und werden in eine Art globale Sprache des Orchesters verwandelt. Zum einem wird dies durch die Orchestrierungs- und Fakturveränderungen realisiert, zum anderen durch die timbralen Annäherungsprozesse der Resynthese mit elektronischer Filterung, bei der individuelle Klangcharaktere in Richtung einer Art Kompromissklänge modifiziert werden.
Die mehrdeutigen Kompromissklänge hängen wiederum mit dem von Smalley als ‚source bonding‘ bezeichneten Phänomen zusammen, wohingegen hier die Identifizierung einzelner Klangquellen auf zwei unterschiedlichen Schichten abläuft. Die Technik der Cross-Synthese kann somit auch als Timbre-Hybridisierung beschrieben werden (vgl. Klingbeil: Spectral Analysis, Editing, and Resynthesis, S. 82), weil dabei zwei Spektren verschränkt werden, wodurch ein timbraler Zwischenzustand entsteht. Hiermit entsteht eine Verknüpfung zwischen Hybridisierungen auf einer Mikroebene von Partialtönen und einer höheren Ebene der instrumentalen Gesten. In Speakings werden diese häufig zusätzlich noch durch Shape-Vocoding prozessiert.
Einerseits besitzt die globale Wechselwirkung zwischen Sprachsamples und instrumentalen Resynthesen eine formprägende Wirkung, andererseits kommen innerhalb einzelner Phrasen lokale Zwischenwirkungen zustande, bei denen sich die einzelnen Instrumente durch erweiterte Spieltechniken selbst imitieren (siehe Abbildung 13). Damit entsteht ein Netz von interaktiven Beziehungen, welches die modulare Logik der sample-basierten Algorithmen der Software Orchidée widerspiegelt.

Eine analoge modulare Logik ist ebenfalls anhand von nachahmenden Bezügen zwischen musikalischen Strukturen und Sprache auszumachen. In gewissem Sinne steht die Transformation im Mittelpunkt der mimetischen instrumentalen Resynthese insgesamt; sie beinhaltet notgedrungen den Übergang von einer Klangidentität in eine andere – typischerweise von einem Umweltklang zu einem Instrumentalklang.
Formaler Ablauf
Der erste Satz (S. 1–23 der Partitur) präsentiert einen zielgerichteten Großverlauf, in welchem zuerst etappenweise die Sprachfunktion im Orchesters-Vokabular konstituiert und dessen Logik für das Publikum zusehends besser nachvollziehbar wird.[41] Verwirklicht wird dies hauptsächlich durch die Modellklänge des Kleinkindes, welche das Orchester immer wieder rekonstruiert.[42] Die Filterung der Solo-Instrumente durch die Sprachsample-Hüllkurven besitzt innerhalb dieser Gebilde eine tektonische Aufgabe, welche die innere Struktur der musikalischen Transformationen bestimmt. Die Oszillation zwischen den klanglichen und semantischen bzw. mimetischen Funktionen der Klangaggregate bewirkt einleitend eine dynamische Struktur, sodass die Rezeption des Publikums ständig zwischen Annahmen und tatsächlich hörbaren unerwarteten Klangzusammensetzungen navigiert. Dem Orchester wird nach und nach die Fähigkeit verliehen, die Sprache zu beherrschen. Gleichzeitig lernt das Publikum, solche synthetische Prozessualität als eine anthropomorphe Gestaltung zu verstehen. Die wirksame Funktion der Sprachsamples, korrespondierende resynthetische Vorgänge an sich binden zu können, wird immer markanter, und schließlich verschmelzen die Samples mit melodischen Figuren und harmonischen Sätzen zu einer vertikalen Einheit (siehe Abbildung 14).
Harveys Intention, den Hörer*innen die Fähigkeit zu verleihen, eine Sprachquelle bewusst rekonstruieren zu können, bringt mehrere dramaturgische Aspekte mit sich. Eine markante Rolle spielt die Wechselwirkung zwischen den Klangkomponenten von Konsonanten und Vokalen. Aufgrund der sprachlichen Modelle werden die winzigen natürlichen Glissandi der Vokale eng mit den Mixturen der eher perkussiven Konsonanten verbunden. Innerhalb der Gesten werden die Sprachfiguren explizit mit unterschiedlichen Arten von Glissando imitiert. Einerseits werden die Glissandi innerhalb der einzelnen melodischen Figuren prominent verwendet, andererseits bestimmen die Glissando-Bewegungen aber die Konturen der gesamten musikalischen Textur, womit eine Relation zwischen Mikro- und Makroglissandi entsteht (siehe Abb. 15 und 16).[43] Das Resultat ist eine instrumentale Klangfläche, welche als Projektion der vereinfachten Grundrisse einer spektralen Hüllkurve (Formanten) sowie ihrer Morphologie erscheint.
Dies zeigt wiederum, welch wichtige Funktion die instrumentale Resynthese für die mimetische Wirkung musikalischer Strukturen besitzt, da sowohl das Material der Mikroglissandi als auch das der Makroglissandi in die FFT-Analyse eingeschrieben sind. Einerseits weisen die Grundtöne der Sprachanalysen melodische Glissandi auf, andererseits zeigen die Analysen auch winzige mikrotonale Glissandi innerhalb der spektralen Beschaffenheit der Sprachgesten.



Im längsten zweiten Satz (S. 24–86 der Partitur) wird ein linearer Prozess aufgebaut, in dessen Verlauf das symbolische Purifizieren der Sprache aufgegriffen wird:
The second movement is concerned with the frenetic chatter of human life in all it’s expressions of domination, assertion, fear, love, etc. It expands the work Sprechgesang composed just before. It finally moves, exhausted, to mantra and a celebration of ritual language.[44]
Die tektonische Funktion der Samples wird am Anfang des Satzes von instrumentalen Figuren (vor allem der Oboe und der Posaune) übernommen, welche durch ein stets flexibles Auf- und Abwärtsgleiten die sprechende Funktion überzeugend simulieren.[45] Die Posaune ersetzt im Laufe des zweiten Satzes die Oboe. Dies lässt sich abermals aus der Perspektive der globalen Trajektorie des Stücks heraus betrachten, wo die Kleinkinderstimmen in Erwachsenenstimmen überführt werden.
Die Soloinstrumente (wie z.B. die Posaune) besitzen eine doppele Funktion. Einerseits wird dank der nahen Mikrophonierung möglich, die phänomenologischen Qualitäten der Mikroklänge zu enthüllen, andererseits sind besonders diese Instrumente für die mimetischen Wirkungen der musikalischen Phrasen zuständig. Verstärkt wird dies noch dadurch, dass die Instrumente vorne platziert sind und durch eine zusätzliche Mikrophonierung sowie vielerlei solistische Cues bei der Aufführung eine erhöhte Aufmerksamkeit erreichen. Dies korrespondiert in gewisser Weise mit der Mehrdeutigkeit von Helmut Lachenmanns ‚musique concrète instrumentale‘. Hier wird ebenfalls die Körperlichkeit und Materialität kompositorisch ausgearbeitet, welche die Aufmerksamkeit des Publikums auf die mechanischen bzw. konkreten Ursprünge der Klangerzeugung lenken sollen. Gleichzeitig ermutigen die neuartigen Spieltechniken dazu, sich auf die Klangquelle selbst zu konzentrieren. Dies illustriert z.B. Lachenmanns Hinweis zu Pression (1969) für Cello solo, dass die Partitur dem Publikum nicht die Sicht auf das Cello und den Bogen versperren sollte, womit eine akusmatische Hörsituation eigentlich negiert wird. Eine solche ambigue Theatralik findet sich auch in Harveys Werk, etwa bei der Behandlung der Soloinstrumente in Speakings. Harvey spricht in diesem Zusammenhang über ein Theater der Transformationen, womit er die Beziehung zwischen Instrumenten und ihren elektronischen Bearbeitungen beschreibt (vgl. Harvey: In Quest of Spirit, 1999, 2). Diese Tendenz zum Theatralischen innerhalb von Harveys Werk zeigt sich zusätzlich auch dadurch, dass er – im Unterschied zu anderen wichtigen Spektralisten wie Gérard Grisey oder Tristan Murail, deren Œuvre keine Oper enthält – zwei abendfüllende Opern komponiert hat.
Eine zentrale Geste des zweiten Satzes bildet die früher erwähnte Resynthese durch Posaune und Streicher (S. 54–55 der Partitur, siehe Abb. 17). Die innere rhythmische und dynamische Struktur der Samples wird parallel durch die zeitliche Lupe in Resynthesen erfahrbar gemacht, und das Material des ersten Satzes wird dabei aus verschiedenen zeitlichen Ebenen geschildert, welche nach Harveys Vorstellung die mannigfaltigen Lebenssituationen darstellen sollen.[46] Ein Beispiel dafür findet sich auf Seite 46 der Partitur, wo mit dem orchestralen Pedal die Resonanz der Klaviergeste auskomponiert ist. Dieser instrumentale Resonanzeffekt wird außerdem mit dem elektronischen Reverb und der Spatialisierung unterstrichen.

Die akustische Distanz zwischen den sprechenden Stimmen und den Instrumenten wird schließlich auf der Basis einer Polyphonie simultaner Prozesse minimalisiert. Harvey lässt nachfolgend die kulminierten einzelnen Sprachfiguren zu einer beweglichen heterogenen Textur verschmelzen – die Relation zwischen Ursprung und Ursache[47] im Sinne von Smalleys ‚source bonding‘ wird dabei nivelliert. Die derart fusionierte Textur mündet in der Klimax des Stücks in die Reassemblierung des Mantra-Gesangs. Das Phänomen der Sprache wird damit auf eine höhere Ebene gehoben, wodurch es eine beinahe rituale Funktion bekommt, die Harvey als Purifizierung der Sprache versteht.
Der letzte Satz (S. 87–103 der Partitur) verknüpft den Mantra-Gesang mit an Gregorianik[48] erinnernder Melodik, wobei durch die Spatialisierung mit acht Kanälen und mehrschichtiges Reverb[49] ein immersiver akustischer Raum erzeugt wird. Das Publikum soll bei einer solchen klanglichen Erscheinung in die innere Struktur der Sprachfiguren eindringen und darüber hinaus soll auf der Basis einer monodischen Faktur in der Wahrnehmung des Publikums die individuelle Resynthese symbolisch angeregt werden:
Here speech has a calmer purpose; it is married to a music of unity, a hymn which is close to Gregorian chant. There is often a single monodic line reverberated in a large acoustic space. There is little division of line against line, or music against listener, as the reverberation eliminates the sense of separation between listener and musical object.[50]
Vor diesem Hintergrund lassen sich die Verfahren des Stücks als ein globaler Zoom interpretieren. Von isolierten Vokalen und Konsonanten ausgehend, etabliert sich in den instrumentalen Prozessen nach und nach der sprechende Gestus. Diese mimetische Funktion wird für das Publikum dabei zusehends plausibler. Die Sprache wird schließlich in eine ritualartige Textur verwandelt, deren immersiver monodischer Nachklang[51] einen Raum für die imaginative Resynthese eröffnet. Darüber hinaus wird die äußere Resynthese in die innere Imagination des Publikums verschoben, sodass es sich mit der ursprünglichen Klangquelle auf symbolischer Ebene vereinigt – der Orchesterapparat fungiert als ein metaphorischer Mund-Resonanzraum, der sich vom Podium allmählich ins Bewusstsein des Publikums überträgt.
Schlusswort
In diesem Beitrag wurde die Verwendung der Sprache für die Entfaltung des kompositorischen Materials unter unterschiedlichen Aspekten betrachtet – besonders aus der Perspektive ihrer kreativen Interaktion mit technischen Mitteln. Es wurde ebenfalls gezeigt, dass es sich um einen wechselseitigen Prozess handelt. Harveys kompositorische Kreativität und die technischen Innovationen beeinflussten sich gegenseitig. Die Analyse von Speakings zeigt, welches innovative Potenzial die Entfaltung der instrumentalen Resynthese für spektralistische Prozesse hatte. Eine solche mimetische Wechselspannung zwischen Original und seiner Umformung ist auch ein Grund dafür, weshalb die Frage nach dem Charakter und der Ästhetik der Spektralmusik immer wieder neu gestellt werden sollte. Die Nachahmungsmodelle sowie die Nachahmungstechniken verändern sich zusammen mit den neuen maschinellen Möglichkeiten (z. B. den Speicher- und Verarbeitungsmöglichkeiten komplexer Daten), welche den mimetischen Aktionsradius von spektralistischen Konzepten erweitern und in der Lage versetzen, die Nachahmungsparadigmen zu verwandeln.
Technische Neuerungen erweitern einerseits die Palette möglicher Modellklänge für die Resynthese, indem sie es nun erlauben, auch komplexe Klangstrukturen zu analysieren und die gewonnenen Daten durch Resynthese originell zu interpretieren. Andererseits kann durch die Live-Prozesse während der Aufführung die Plastizität der Resynthese deutlich erhöht werden. Dies zeigt wiederum die prägende Rolle der Relation zwischen Modellklang und den kompositorischen Prozessen innerhalb des Spektralismus, bei der die technischen Entwicklungen die mimetische Funktion der instrumentalen Resynthese immer wieder neu befragen. Es ist zu erwarten, dass die interaktiven Spielfelder in den kommenden Jahren deutlich zunehmen werden, wie z. B. durch die Involvierung von Algorithmen neuronaler Netze in den Prozess der Resynthese sowie auch der Live-Elektronik.
Im weiteren Sinne wird durch diese Prozesse somit thematisiert, was das Zuhören im Zeitalter der neuen Medien bedeutet und wie sich unsere Wahrnehmung durch den technischen Fortschritt verändert – ob es sich hierbei um auditive Perzeptionsänderungen durch alltägliche technische Veränderungen, wie z.B. bei der Nutzung des Gehörs zur Kommunikation über Telefon oder Computer, oder ob es sich um künstlerische Phänomene wie Sampling, Resynthese oder elektroakustische Musik im Allgemeinen handelt.[52]
Literatur
Barlow, Clarence (1998): On the Spectral Analysis of Speech for Subsequent Resynthesis by Acoustic Instruments. in: Forum Phoneticum, Bd. 66, S. 183–90.
Chion, Michel: Audio-Vision. Sound on screen. New York 1990.
Dufourt, Hugues: Musique spectrale. In: Dokument der Société Nationale de Radiodiffusion, Radio France/Societé Internationale de Musique Contemporaine (SIMC), 1979, S. 30–32.
Emmerson, Simon: The language of electroacoustic music, London 1986.
Grey, John M.: An Exploration of musical timbre, Stanford 1975.
Harvey, Jonathan: In Quest of Spirit: Thoughts on Music. Berkeley 1999.
Ders.: Spectralism. In: Contemporary Music Review, Bd. 19/3, 2001, S.11–14.
Ders.: Speakings. London 2008.
Klingbeil, Michael K.: Spectral Analysis, Editing, and Resynthesis: Methods and Applications, New York 1999.
Smalley, Denis: Spectromorphology: explaining sound-shapes. In: Organised Sound, Bd. 2/2, 1997, S. 107–126.
Sundberg, Johan: The Science of the Singing Voice. Dekalb 1987.
Wessel, David: Timbre Space as a Musical Control Structure. In: Computer Music Journal, 3/2, 1979, S. 45–52.
Whittall, Arnold: Jonathan Harvey. London 1999.
Otto Wanke, geboren 1989 in Znaim (Tschechien), studierte in Wien an der Universität für Musik und darstellende Kunst (mdw) und am MUK instrumentale Komposition bei Wolfgang Liebhart sowie elektroakustische und multimediale Komposition bei Karlheinz Essl und Iris ter Schiphorst. Anschließendes Doktoratsstudium (Musikwissenschaft) ebenfalls an der mdw (bei Gesine Schröder). 2018–2022 Technischer Assistent am Institut für Volksmusikforschung und Ethnomusikologie der mdw und seit 2020 Universitätsassistent für elektroakustische und multimediale Komposition an der Janáček-Akademie für Musik und darstellende Kunst Brünn.
Wanke erhielt mehrere Kompositionspreise (Nikolaus-Fheodoroff-Preis, Theodor-Körner-Preis, Frederic-Mompou-Preis u.a.), seine Kompositionen wurden bei Festivals wie Wien Modern, Acht Brücken oder Carinthischer Sommer aufgeführt. Zusammenarbeit u.a. mit dem Ensemble PHACE, OENM, dem Tonkünstler-Orchester, dem Symphonieorchester Vorarlberg; Aufträge u.a. der Nationaloper in Warschau, des österreichischen Kulturministeriums, des ZKM Karlsruhe. Wanke ist auch als Performer in der elektroakustischen Musik tätig, meist in Kooperation mit Live-Musikern.
[1] Die technischen Fortschritte am Anfang des 20. Jahrhunderts haben das gesangliche Element im Bereich von instrumentaler Musik noch potenziert – wie beispielsweise das Potenzial einer präzisen Vibrato-Gestaltung beim Theremin oder bei den Ondes Martenot sowie die Arbeit mit Formantregionen über den Einsatz eines Formant-Filters bei Trautonium illustriert.
[2] Die FFT-Analyse (Fast Fourier Transformation) ist eine Messmethode, welche das Signal – unter Heranziehung der drei Dimensionen Frequenz, Amplitude und Zeit – in einzelne spektrale Komponenten zerlegt.
[3] Die möglichen Klangquellen bzw. Modellklänge reichen von harmonischen über inharmonische bis zu geräuschhaften Klängen. Die Klangquellen bestehen in Klängen, die aus vokal-instrumentalen sowie auch elektronischen Klängen und aus entsprechenden Verfahren (Amplituden-, Frequenz-, Ringmodulation etc.) hervorgegangen sind. Oft erzeugt die Interpolation zwischen den jeweiligen Spektren die Gliederung der Komposition.
[4] Diese zeitliche Ausdehnung betrifft die Tondauern und damit auch mannigfaltige Mikroeigenschaften des Tones. Die zeitliche bzw. horizontale Ausdehnung enthüllt den inneren Dynamismus des Klangs, dessen Oszillation an der Grenze zwischen Harmonik und Klangfarbe eng mit diesem Maßstabwechsel verknüpft ist. Subtile Klangfluktuationen wie variable Vibrato-Geschwindigkeiten, mikrotonale Glissandi, Triller oder Tremoli konstruieren ambigue Klanggesten, welche zugleich vom Parameter der Tonhöhe wie auch von den Parametern Rhythmus und Klangfarbe geprägt sind.
[5] Ein solches harmonisch-timbrales Spannungsverhältnis kann beispielsweise an Jean-Claude Rissets Mutations (1969) für Fixed Media beobachtet werden, wo dieselben Frequenzen oft sowohl für die Konstitution eines instrumentalen Timbres wie auch für eine harmonische Konstruktion Verwendung finden.
[6] Der Begriff ist indes auch für die gängige Musikpraxis von Bedeutung, sei es für die Imitation im Kontrapunkt (infra-musikalische Nachahmung), seien es das Programm von Programmmusik oder der Affekt in einer Komposition, die nach der barocken Affektenlehre funktioniert.
[7] Vgl. Smalley: Spectromorphology: explaining sound-shapes.
[8] So wird beispielsweise der Modellklang des Posaunen-Tons in Partiels im Laufe des Stückes ebenfalls durch spektrale Manipulationen wiederum verfremdet. Darüber hinaus ist durchaus typisch, dass mehrere Klangquellen im Laufe des Stückes resynthetisiert werden, wobei unter ihnen zur Gestaltung transformatorischer Klangtrajektorien kommt.
[9] Das Stück wurde zusätzlich auch vom IRCAM/Radio France mitbeauftragt, was ermöglichte, dass die Elektronik mit Hilfe der Assistenten Grégoire Carpentier, Arshia Cont und Gilbert Nouno an diesem Institut realisiert werden konnte.
[10] Die Auseinandersetzung mit dem Sprechen ist bereits in Harveys Mortuos Plango, Vivos Voco (1980) für Fixed Media (acht Kanäle) zu finden, wo der Komponist die Wechselspannungen zwischen künstlich-synthetisierter und gesampelter Sprache sowie ihren spektralen Modifikationen in Richtung des Glocken-Modellklangs (Morphing) erforscht hat.
[11] Harvey: Speakings, S. vi.
[12] Vgl. ebenda, S. vi. Harvey setzt die Erforschung der präverbalen Phase bei Kindern durch die Psycholinguistik (wie z.B. bei Jacques Lacan und Julia Kristeva) mit der theoretischen Perspektive der alten buddhistischen Texte (wie z.B. von Laṅkāvatāra Sūtra) in Verbindung. Nach Harvey stellt diese Phase einen wichtigen Faktor für die Subjektkonstitution dar (vgl. Harvey: In Quest of Spirit, S. 49). Gleichzeitig deutet er die spektralistische Technik in Anlehnung an die Psycholinguistik (konkret zu Kristeva), indem er sie mit der Semiotik vergleicht, die im Unterschied zur Linguistik auf einer niedrigeren Ebene von Zeichensystemen operiert. Dieses semiotische Funktionieren bezieht Harvey auf das Timbre, da es außerhalb der Zeit liege, damit auf einer Metaebene der Komposition wirksam werde und gleichzeitig die Harmonik subsummiere: „It is not a question for me of forsaking harmony and regarding everything as timbre, rather that harmony can be subsumed into timbre“ (Harvey: Spectralism, S. 13f.).
[13] Für die Prozesse der Live-Elektronik hat Harvey aus dem Orchester elf Solo-Instrumente ausgegliedert, deren Signale mit Clip-On-Mikrophonen bei der Performance aufgenommen werden (vgl. Smalley: Spectromorphology, S. v).
[14] Diese kommerzielle Software ist u.a. ein oft eingesetztes Mittel bei der Postproduktion populärer Musik. Sie wird beispielsweise für Intonationskorrekturen bei Aufnahmen von Gesang verwendet.
[15] Die Sprachfragmente beinhalten z.B. Harveys eigene Aufnahmen (wie z.B. Mantra OM-AH-HUM, Rezitation von Fragmenten aus T. S. Eliots The Waste Land), Aufnahmen von Babygeschrei, Baby-Gebrabbel und Fragmenten aus einem TV-Interview mit Matt Groening (dem Autor von Die Simpsons).
[16] Diese Software wurde am IRCAM entwickelt und gehört zu den wichtigsten Programmen im Rahmen der computer-assistierten Komposition. In der Software wurden zuerst die Partial-Tracking-Analysen (FFT-Analysen) verfertigt, die im nächsten Schritt als SDIF-Dateien in OpenMusic bearbeitet wurden. Aus den Dateien wurden anschließend der melodisch-harmonische sowie der rhythmische Notentext extrahiert, ohne aber timbrale Aspekte zu berücksichtigen.
[17] Die Quantifizierung beschreibt einen Prozess, bei dem die Frequenzen und ihre in Millisekunden angegebenen Zeitpositionen auf eine wählbare kleinste mikrotonale Unterteilung (z.B. in Vierteltöne) und auf das kleinste rhythmische Raster (wie z.B. auf 32-tel) approximiert werden.
[18] Die Transienten-Erkennung lässt sich ebenfalls als Mechanismus für die Generierung von rhythmischen Pulsen einsetzen. Durch Anwendung schrittweiser Schwellenwerte für die Transienten-Erkennung werden rhythmische Muster mit steigender oder abnehmender Dichte erzeugt. Gleichzeitig entsteht damit eine hieratische rhythmische Matrize, da die stärksten Transienten in den schwächsten Ebenen ebenfalls enthalten sind.
[19] Die Entstehung der Komposition Speakings wurde mit dem ersten Prototyp dieser computer-assistierten Software verknüpft, die am IRCAM in Zusammenarbeit mit Grégoire Carpentier, Arshia Cont, Gilbert Nouno, und Harvey entstand.
[20] Diese Funktionalität wurde seitdem in den nachfolgenden Versionen Orchids und vor allem Orchidea deutlich verbessert. Hier können ebenfalls längere komplexe Klangmorphologien durch die Transienten-Erkennung sowie eine intelligente konkatenative Zusammensetzung resynthetisiert werden.
[21] Die Entwicklung der Software Orchidée am IRCAM stellt den ersten Prototyp der computer-assistierten Orchestrierungssoftware dar, welche die Techniken der spektralen Resynthese mit der Logik von MIR (Music Information Retrieval) verknüpft. Bei MIR besteht der Ansatz in der Signalanalyse und Extraktion der spezifischen Merkmale solcher Signale, die sich als Vektoren bzw. Merkmalsvektoren in einer Matrize abspeichern lassen. Den akustischen sowie psychoakustischen Merkmalen entsprechend folgt dann eine Zuordnung zu den jeweiligen Samples, welche am besten zu den analysierten Eigenschaften passen. Die Samples wurden bezüglich ihrer Merkmale schon im Vorhinein analysiert und in einer Datenbank gespeichert.
[22] Die Posaune gehört in die Gruppe von elf Soloinstrumenten, deren Signale amplifiziert und elektronisch bearbeitet werden.
[23] Die spektrale Analyse und quantisierte Resynthese in OpenMusic behandeln dieselbe Stelle aus der Partitur wie Melodyne, wobei aber ein anderer technischer Ablauf vollzogen wird.
[24] Der instrumentale Effekt ist hier zusätzlich mit der elektronischen Technik Shape-Vocoding verknüpft, welche die Verschränkung beider Elemente unterstützt. Innerhalb der wirklichen Cross-Synthese modelliert typischerweise das modulierende Signal (wie z.B. die Stimme) ein reichhaltiges spektrales Trägersignal. Die jeweiligen Frequenzen des Spektrums werden miteinander multipliziert, womit sich die gemeinsamen Komponenten verstärken und die Differenzen wiederum abgeschwächt werden.
[25] Die Library SOL (Studio On Line) enthält mannigfaltige Samples erweiterter Spieltechniken, die normalerweise in den instrumentalen Libraries nicht enthalten sind. Sie dienen hier als klangliches Reservoir für eine sogenannte corpus-based-analysis. Der Zugriff auf größere Audiodatenbanken wurde später durch die Nutzung der 64-Bit-Architektur in Max noch potenziert. Alle Klänge in SOL wurden mit Hilfe von IRCAM-Deskriptoren analysiert und in Database abgespeichert.
[26] Es handelt es sich um eine Subkategorie von Music Information Retrieval (MIR), wobei hier aus einem Signal eine Reihe von Metadaten (bzw. Audio-Merkmale) – wie z.B. spectral centroid oder spectral spread – extrahiert wird. Diese Daten werden im nächsten Schritt in eine Datenbank (bzw. als Merkmalsvektor) abgespeichert. Aufgrund der Korrespondenzen dieser Audio-Merkmale werden dann die einzelnen Samples mit dem Modellklang verglichen. Die MIR-Entwicklungen sind ebenfalls mit der Entstehung des Formats MPEG-7 (Multimedia Content Description Interface) verknüpft – ein standardisiertes Format für die Anwendung von beschreibenden Informationen auf Audioinhalte, die z.B. akustische, psychoakustische etc. Deskriptoren umfasst. Später wurden dadurch wiederum Werkzeuge wie Timbre Toolbox in Matlab beeinflusst.
[27] Bereits in den frühen 1970er Jahren setzten Forscher wie John Grey, Reinier Plomp und David Wessel bei Hörtesten zur Klangfarbenwahrnehmung die Technik der multidimensionalen Skalierung (MDS) ein. In ihren statistischen Ansätzen wurde die Klangfarbe auf einen Kernsatz von Merkmalen reduziert, und dieser wurde verwendet, um 3D-Diagramme zu erstellen, die den wahrgenommenen Abstand zwischen verschiedenen Instrumenten aufzeichneten (vgl. z.B. Grey: An Exploration of musical timbre; Wessel: Timbre Space as a Musical Control Structure).
[28] Die Resynthese von OM-AH-HUM stellt ein typisches Beispiel für die statische Variante der computer-assistierten Orchestrierung dar. Jedes von drei Phonemen wird mit einem instrumentierten Akkord in Orchidée resynthetisiert. Diesen Prozess setzt Harvey zu einer Kette von Resynthesen fort, indem er die Parameter für jede neue Resynthese sukzessiv ändert.
[29] Harvey hat dieses Anliegen sogar durch eine Notiz für den Dirigenten oder die Dirigentin betont, wo er die detaillierte dynamische Arbeit während der Orchesterproben verlangt.
[30] Die zweite Version der Software ermöglicht die Verkettung der einzelnen Resynthesen im Modul Maquette, welches teilweise wiederum aus der Software OpenMusic übernommen wurde. Die Restriktionen des Eingangsklanges sowie auch die ausgewählten Parameter der Orchestrierung interagieren damit innerhalb einer timbralen Trajektorie, welche diverse Orchestermixturen hervorbringt.
[31] Emmerson: The language of electroacoustic music, S. 17f.
[32] Shape-Vocoding basiert auf der effizienten Technik der Linear Predictive Coding (LPC) in der Max-Bibliothek Gabor, welche die komprimierte spektrale Hüllkurve bzw. die Formanten-Struktur generiert.
[33] Die Reartikulation der Vokale und Konsonanten stellt oft eine schnelle Interaktion dar, sodass eine klare Unterscheidung zwischen den Komponenten nicht mehr möglich ist (vgl. Sundberg: The Science of the Singing Voice, S. 3).
[34] Diese Technik wird von Harvey als Shape-Vocoding beschrieben (vgl. Smalley: Spectromorphology, S. vi) und kann wiederum mit der Cross-Synthese verknüpft werden, da die dynamische Sprachhüllkurve als Modulator auf instrumentaler Ebene eingesetzt wird. Gute klangliche Ergebnisse wurden ebenfalls durch die Anwendung der am IRCAM entwickelten SuperVP (Super Phase Vocoder) erzielt, die eine technisch präzisere Variante des Phase-Vocoding darstellt.
[35] Harvey fordert für die Spatialisierung sechs bis acht Lautsprecher und ein Stereo-Paar von Subwoofern. Die Spatialisierung wird mit einem Multi-Touch-Controller und Max-Patch gesteuert. Die Presets in Max werden vom MIDI-Keyboard getriggert und zusätzlich von den Assistenten feinjustiert. Das Patch beinhaltet Voreinstellungen (Presets), welche die rhythmischen Muster und Tempi der Spatialisierungstrajektorien enthalten. So bedeutet z.B. der Befehl r3 t15 in der Partitur Rhythmus-Muster 3, Tempo 15 pro Viertelschlag (vgl. Smalley: Spectromorphology, S. 1).
[36] Barlow: On the Spectral Analysis of Speech for Subsequent Resynthesis by Acoustic Instruments, S. 184.
[37] Eine solche rhythmische Präzision lässt eine Assoziation zu Peter Ablingers Zyklus Qudraturen III (1998–2004) für Selbstspielklaviere entstehen, die u.a. die menschliche Stimme rekonstruieren. Die aufgenommene Sprache wird dort durch ein computergesteuertes Selbstspielklavier reproduziert. Dies wird realisiert durch eine Spielkonstruktion auf der Basis von 88 elektromagnetischen ‚Fingern‘ (Hubmagneten), die an jedem normalen Klavier oder Flügel angebracht werden kann. Die große Dichte der Aktionen und ihre rhythmische Präzision sind dabei die wichtigsten Parameter für die Plastizität der Resynthesen.
[38] Die Software Antescofo wurde im IRCAM entwickelt. Sie übernimmt die Rolle eines internen Dirigenten, wobei durch die Technik des Score Following die Partitur elektronisch gelesen wird und die Befehle der Live-Elektronik aufgrund des analysierten Notenmaterials gesteuert werden.
[39] Die Notation des Parts in der Abbildung stellt keine klingenden Tonhöhen dar, sondern zeigt die Befehle, die den jeweiligen Tasten (d.h. ‚Tonhöhen‘) zugeordnet sind und die durch Tasten gesteuert werden.
[40] Vgl. Harvey in: Whittall: Jonathan Harvey, S. 23)
[41] In der ersten Sektion erklingt mehrmals eine unterschwellige Frequenz von 17 Hz (S. 1, 3, 5 und 11), die durch ein Keyboard getriggert und zusätzlich mit dem Kontrabass verdoppelt wird. Diese eigenartige rhythmisch-schwebende Klanggeste lässt sich mit den Muskelkontraktionen im Kehlkopf assoziieren – im Grunde ein sägezahnartiger Oszillator, der seine Energie auf die Luftsäule im Vokaltrakt überträgt. Auf die beschriebene Weise lässt Harvey die Stimme assoziativ entstehen, indem er körperlichen Vorgänge simuliert.
[42] Die elektronisch prozessierte Oboe (ab S. 10 der Partitur) und die Altflöte (ab S. 13) als Fundamenttöne in Kombination mit der Streichersektion als Formanten-Struktur bilden in diesem Segment die häufigste Kombination.
[43] Es lässt sich hier z.B. die Beziehung zwischen Mikro- und Makroglissandi in Xenakis Metastaseis anführen, wo die individuellen Linien in einem Konglomerat von Glissandi resultieren und schließlich ein Makroglissando aufbauen. Gleichzeitig kommt es hier zu einer Wechselspannung zwischen den direktionalen Glissandi. Xenakis hat die kontinuierlichen Gesten darüber hinaus auch durch randomisierte Varianten der Glissandi erforscht (wie z.B. in Mikka von 1971 für Violine solo), die u.a. auf der brownschen Bewegung beruhen.
[44] Vgl. Smalley: Spectromorphology, S. vi.
[45] Diese Linien basieren vorrangig auf den dynamischen Analysen von Melodyne.
[46] Harvey lässt damit eine Wechselspannung zwischen den abstrakten und timbral-assoziativen Resynthesen aus Orchidée und der dynamischen Resynthese von Melodyne und OpenMusic entstehen, welche die morphologische Entwicklung der Sprache einfangen.
[47] Vgl. Smalley: Spectromorphology, S. 116.
[48] Die allmähliche Überleitung des Mantra-Gesangs in ein Modell der Gregorianik illustriert eine für Harvey charakteristische Tendenz, die Verbindungen zwischen Buddhismus und Christentum zu thematisieren und sie in musikalische Ambiguitäten zu projizieren.
[49] Das Convolution-Reverb kann aus technischer Perspektive mit dem Effekt der Cross-Synthese assoziiert werden, da die akustische Signatur bei diesem Effekt durch Konvolution auf die bearbeiteten Signale eingesetzt werden. Diese Wechselspannung stellt u.a. auch Mark Andres (* 1964) Echografie dar. Durch die Impulse-Response-Technik (in der Sine-Sweep-Variante) von Konvolution-Reverb zeichnet der Komponist eine akustische Signatur des Raumes auf. Diese wird anschließend durch FFT analysiert und als Tonmaterial benutzt. Das Verfahren wird von Andre z.B. in dem Stück hij 2 (2010/12) für 24 Stimmen und Elektronik verwendet, wo er den Klang der Grabeskirche in Jerusalem analysiert hat. Die Raum-Signatur wird dann im Laufe des Stückes wieder von Sänger*innen neu impulsiert und das Echo durch Konvolution auf die Stimmen übertragen.
[50] Smalley: Spectromorphology, S. vi.
[51] Ab Seite 89 der Partitur werden zusätzlich unter den Solostreichern kurze chromatische Gesten aufgeteilt, welche von ihnen individuell und aleatorisch wiederholt werden sollen. Damit fungieren sie als variable Hintergrundtextur zu dem homophonen orchestralen Satz. Dies stellt eine kontrastierende Wirkung zu den bisher vorrangig detailliert auskomponierten Trajektorien der Streicher her.