Skip to content
ZAeB
  • Blog
  • Aktuelle Ausgabe
  • Archiv
  • About
  • Impressum
Site Search
  • Inhaltsverzeichnis
    zaeb Redaktion
  • DRACH von Szczepan Twardoch und Aleksander Nowak. Ein schlesisches Dramma per musica vom Schweine- und von Menschenschlachten[1]
    Gesine Schröder
  • Mimesis als kompositorisches Material. Zu Jonathan Harveys »Speakings«
    Otto Wanke
  • „Rap ist Vielfalt, jegliche Richtung“ Gedanken zum Hörerlebnis Rap
    Daniel Hikaru Grote
  • Tänze für Klavier zwischen Virtuosität und Nostalgie. Zu den Beiträgen vier japanischer Komponisten zum Petrushka Project (2012)[1]
    Yuko Ueda
  • Die bildkünstlerische Gestaltung bei Philipp Otto Runge. Algorithmen der Bedeutungsgebung und innere Musikalität
    Elena Rovenko
  • Perspektiven ästhetischer Wahrnehmung in Unterricht und Forschung
    Jg. 14, Nr. 1 (2022)
  • Handkontakt
    Jg. 13, Nr. 1 (2021)
  • »körper bewusst«
    Jg. 12, Nr. 1 (2020)
  • »Modell«
    Jg. 11, Nr. 2 (2019)
  • «Versteck/t»
    Jg. 11, Nr. 1 (2019)
  • Kunst für Kinder
    Jg. 10, Nr. 1 (2018)
  • Das Reich der Vögel
    Jg. 8, Nr. 1 (2016)
  • Wanderwege. Musiktheorien und Kompositionslehren in und aus China
    Sonderedition 2017
  • Freie Beiträge
    Jg. 7, Nr. 1 (2015)
  • Schularchitektur und ästhetische Bildung
    Jg. 6, Nr. 1 (2014)
  • Das Potenzial künstlerischer Lehre. Zur Ästhetischen Bildung aus hochschuldidaktischer Perspektive
    Jg. 6, Nr. 2 (2014)
  • Literatur im Spektrum der Künste
    Jg. 5, Nr. 1 (2013)
  • Populärkultur und ästhetische Alltagspraxis
    Jg. 4, Nr. 2 (2012)
  • Vermittlung zwischen Werk und Rezipient
    Jg. 4, Nr. 1 (2012)
  • Bildung der Gefühle
    Jg. 3, Nr. 1 (2011)
  • Leibliches Lernen — Präsentative Symbolik
    Jg. 2, Nr. 1 (2010)
  • Die Stadt als ästhetischer Erfahrungsraum
    Jg. 1, Nr. 2 (2009)
  • SpielKünste
    Jg. 1, Nr. 1 (2009)

Mimesis als kompositorisches Material. Zu Jonathan Harveys »Speakings«

Otto Wanke

[Beitrag als pdf]

In Jonathan Har­veys (1939–2012) Kom­po­si­tion Speak­ings für Orch­ester und Elek­tron­ik fun­gieren Sprach­sam­ples – vornehm­lich von Kleinkinder­stim­men – als Quelle für die Konzep­tion des musikalis­chen Mate­ri­als. Der Schw­er­punkt dieses Beitrags liegt auf ein­er Analyse dieser Kom­po­si­tion, anhand der­er einige all­ge­meine Aspek­te des Ver­hält­niss­es zwis­chen der Kon­zeption des musikalis­chen Mate­ri­als und gesproch­en­er Sprache aufgezeigt wer­den. Darüber hin­aus wird angedeutet, wie sich dieses Ver­hält­nis aus der Per­spek­tive neuer­er tech­nis­ch­er Möglichkeit­en gegen­wär­tig weit­er­en­twick­elt. Dabei wer­den die dem Spek­tral­is­mus zugrunde­liegenden Tech­niken und ihr Poten­zial zur kreativ­en Nutzung dieses Zusam­men­hangs berück­sichtigt. Verdeut­licht wird dies unter anderem anhand eines konkreten Beispiels der automati­sierten Orchestrierung mit der Soft­ware Orchidea.

Die wan­del­bare Wech­selspan­nung zwis­chen Musik und Sprache

Die Über­lagerung von vokal-instru­men­taler Kom­po­si­tion und gesproch­en­er Sprache weist eine weit in die Geschichte zurück­re­ichende Tra­di­tion auf. Dabei zeich­net sich eine Lin­ie ab, welche eine metapho­rische Beziehung – ables­bar z.B. von der musikalis­chen Instruk­tion cantabile[1] – in eine Domäne der tech­nis­chen Repro­duzier­barkeit ver­schiebt. Die Geschichte der Repro­duk­tion real­er Sprache span­nt sich vom Phono­graphen über analoge Pio­nier-Leis­tun­gen in Bell Labs und Voder-Tech­nik bis zu der dig­i­tal­en Syn­these, die beispiel­sweise am IRCAM zur bekan­nten Real­i­sa­tion ein­er syn­thetis­chen Pro­duk­tion der Rac­hearie der Köni­gin der Nacht durch die FOF-Syn­the­sis (For­mant wave­form) geführt hat, bei der die syn­thetische Stimme von ein­er realen kaum noch zu unter­schei­den ist. Die tief­greifende Gestalt­barkeit des Spek­trums regte wiederum zu weit­eren kreativ­en kom­pos­i­torischen Ausformulie­rungen an. Hinge­gen lässt sich eben­falls die Ten­denz beobacht­en, diesel­ben neuen techni­schen Mit­tel zu ver­wen­den, um die tech­nisch per­fek­te Repro­duk­tion durch kün­st­lerische Trans­for­ma­tion zu ergänzen und neu zu kon­tex­tu­al­isieren.

Zur Spek­tral­musik

Diese Wech­selspan­nung zwis­chen tech­nis­ch­er Repro­duk­tion und kün­st­lerisch­er Transforma­tion lässt sich anhand der Rich­tung des Spek­tral­is­mus genauer unter­suchen.

Der Begriff ‚musique spec­trale‘ stammt von Hugues Dufourt (vgl. Dufourt: Musique spec­trale, S. 30). In mehrfach­er Hin­sicht stellt der Spek­tral­is­mus eine Syn­these zwis­chen vokal-instru­­men­taler und elek­troakustis­ch­er Musik dar. Während mith­il­fe von Elek­tron­ik durchge­führte spek­trale Analy­sen inner­halb der kom­pos­i­torischen Vorar­beit­en als wichtige Quelle für die Konzep­tion des Mate­ri­als dienen, wer­den die elek­tro­n­is­chen Ver­fahren selb­st durch die instru­men­tal­en Tex­turen nachge­bildet. Außer­dem wer­den elek­tro­n­is­che Mit­tel als Zus­pielung oder Live-Elek­tron­ik nicht sel­ten wäh­rend der Real­i­sa­tion spek­traler Stücke ver­wen­det. Ins­beson­dere die Tech­nik der instrumenta­len Resyn­these ist in diesem Kon­text anzuführen. Der Begriff ‚instru­men­tale Resyn­these‘ beze­ich­net das Ver­fahren, mit dem ein durch FFT[2] analysiert­er Klang durch eine gegebene vokal-instru­men­tale Beset­zung sowie Fixed Media oder Live-Elek­tron­ik neu zusam­menge­set­zt wird. Oft wird dieses Ver­fahren für einen Klang genutzt, der der Kom­po­si­tion ins­ge­samt als Mod­ell dienen soll, entsprechend wird er als Mod­el­lk­lang[3] ein­er Kom­po­si­tion beze­ich­net. Ein berühmtes Beispiel für die instru­men­tale Resyn­these ist Griseys Pionierstück Par­tiels für großes Ensem­ble aus dem Jahr 1975. Der von ein­er Posaune her­vorge­brachte Ton Kon­tra-E wurde dabei als Mod­el­lk­lang ver­wen­det – d.h. mit einem Sono­gramm aufgenom­men und das resul­tierende Ober­ton­spek­trum dann als Mate­r­i­al für das ganze Stück genutzt (siehe Abbil­dungen 1 und 2). Die Fre­quen­zen und dynamis­chen Ver­läufe von Par­tialtö­nen – welche durch spek­trale Analyse extrahiert wer­den – wer­den den einzel­nen Instru­menten und/oder Vokal­stimmen zuge­ord­net.

Abb. 1: FFT-Analyse und Tran­skrip­tion des Posaunen-Tones E1. Aus: Justy­na Humięc­ka-Jakubows­ka, The spec­tral­ism of Ger­ard Grisey: from the nature of the sound to the nature of lis­ten­ing (2010), S. 247. Repro­duziert nach der Aus­gabe Kraków: PWM Edi­tion © 2010.
Abb. 2: Instru­men­tale Resyn­these (Posaune, tiefes E). Aus: Justy­na Humięc­ka-Jakubows­ka, The spec­tral­ism of Ger­ard Grisey: from the nature of the sound to the nature of lis­ten­ing (2010), S. 248. Repro­duziert nach der Aus­gabe Kraków: PWM Edi­tion © 2010.

Häu­fig set­zte diese Über­tra­gung im Vorhinein eine bes­timmte zeitliche Aus­dehnung[4] fest, wobei sich die Kom­po­si­tion­sprozesse aus der inneren Struk­tur des Mod­el­lk­langs ergaben. Durch die spek­trale Analyse des Tim­bres wer­den hier die Mikroeigen­schaften des Klanges enthüllt, die in einem weit­eren Schritt auf die struk­turelle und for­male Ebene der Kom­po­si­tion pro­jiziert wer­den. Ableit­en lässt sich von dem Ver­fahren zugle­ich auch die Inter­ak­tion zwis­chen einzel­nen musikalis­chen Para­me­tern. Da der ersten Gen­er­a­tion der Spektralist*innen die Zer­legung des Ober­ton­spek­trums in Sinustöne als Pool für die Zusam­men­klänge bzw. für die Har­monik diente, entste­ht eine Unentsch­ieden­heit zwis­chen Har­monik und Klang­farbe; die Para­me­ter über­lagern sich. Während die Ober­ton­struk­tur das Tim­bre mit­gestal­tet, sorgt sie hier auch als Mate­r­i­al für Har­monik.

Mime­sis als ästhetis­che Aneig­nung

Die Ambiguitäten der einzel­nen Para­me­ter – wie z.B. zwis­chen Har­monik und Tim­bre[5] – und ihr Zusam­men­wirken erweisen sich dabei als effek­tives Gestal­tungsmit­tel ein­er kün­st­lerischen Mime­sis des orig­i­nalen Mod­el­lk­langes. Der alte griechis­che Ter­mi­nus Mime­sis – ein Begriff, der eher im Kon­text mit Bilden­der Kun­st[6] auftritt, – beze­ich­net bekan­ntlich generell das Kon­zept ein­er Nachah­mung. Im 20. Jahrhun­dert wurde die Nachah­mung durch die tech­nis­che Repro­duzier­barkeit neu definiert und ihr Poten­zial für die kün­st­lerische Arbeit noch erhöht. Die instru­men­tale Resyn­these erscheint als eine Form der kün­st­lerischen Trans­for­ma­tion, die auf ein­er Repro­duk­tion mit­tels der tech­nis­chen Möglichkeit­en der spek­tralen FFT-Analyse basiert.

Die Nachah­mung eines akustis­chen Klang­mod­ells, das in dem neuen Klangkör­p­er reprodu­ziert wird, spin­nt ein neuar­tiges Beziehungsnetz inner­halb des kom­pos­i­torischen Denkens. Denis Smal­l­ey (* 1946) ver­tritt die These, dass das Pub­likum eine natür­liche Ten­denz besitze, gehörte Klänge mit ver­muteten Quellen und Ursachen in Verbindung zu brin­gen.[7] Die Assozi­ationen bieten einen Anhalt­spunkt für das Pub­likum, das von dort aus die Klangbeschaf­fen­heit auf­fasst. Die externe bzw. extrin­sis­che Assozi­a­tion – d.h. die Herkun­ft und Bedeu­tung der Klänge – erzeugt damit einen Aus­gangspunkt für die Auf­fas­sung der jew­eili­gen inneren bzw. intrin­sis­chen Klangbeschaf­fen­heit und somit auch für die spek­tro­mor­phol­o­gis­che Wahrneh­mung. Darüber hin­aus ist es möglich, im Kom­po­si­tion­sprozess eine Abstu­fung von Klang­quelle-Erken­nung[8] bzw. (nach Smal­l­ey) ‚source bond­ing‘ zu analysieren und sie eben­falls als ein struk­turelles Mit­tel zu deuten.

Die spek­tral­is­tis­chen Ver­fahren der Resyn­these kön­nen als eine Form der Mime­sis ange­se­hen wer­den. Dabei besitzt die trans­for­ma­tive Oszil­la­tion zwis­chen den einzel­nen Iden­titäten der Klänge grundle­gende Bedeu­tung. Auf­grund der mod­i­fizierten Trans­for­ma­tio­nen, welche eng mit den ver­wen­de­ten tech­nis­chen Mit­teln zusam­men­hän­gen, lässt sich der­art die Ent­fal­tung der mimetis­chen Konzep­tio­nen beschreiben.

Das akustis­che Phänomen der Resyn­these kann auf ein­er Achse zwis­chen zwei gegensätz­lichen Polen posi­tion­iert wer­den, die sich in Wech­selspan­nung zueinan­der befind­en. Auf der einen Seite ste­ht die kon­textuelle bzw. mimetis­che Hör­weise, auf der anderen Seite befind­et sich der phänom­e­nol­o­gis­che Hör­modus. Die gesproch­ene Sprache erweist sich als beson­ders flex­i­ble Klangquelle für die Resyn­these, denn als Klang­phänomen weist sie eine extreme dynamis­che und flex­i­ble spek­trale Charak­ter­is­tik auf, wom­it sie als reiche Palette von spekt­ralen Zustän­den dient. Außer­dem ani­miert sie durch ihre Nähe zur All­t­agser­fahrung des Pub­likums eine Menge von mimetis­chen bzw. kon­textuellen Hör­weisen, und so wird sie von Kom­ponist*innen wegen ihrer reichen Abstu­fun­gen gern als dra­matur­gis­ches sowie tek­tonis­ches Mit­tel ver­wen­det. Solche Aspek­te wer­den nun anhand fol­gen­der Analyse von Har­veys Speak­ings ver­an­schaulicht.

Speak­ings

Die Kom­po­si­tion Speak­ings ent­stand im Jahre 2007-08, sie gehört neben …towards a pure land (2005) und Body Man­dala (2006) zu ein­er Trilo­gie von Orch­ester­stück­en, die vom BBC Scot­tish Sym­pho­ny Orches­tra beauf­tragt wur­den.[9] Wie bei vie­len anderen Stück­en nimmt Har­vey in dieser Trilo­gie Bezug auf den Bud­dhis­mus, wobei er sich inner­halb der drei zu der Trilo­gie gehören­den Werke auf die unter­schiedlichen Klan­gaspek­te der kör­per­lichen Aktio­nen wie z.B. des Atems, in Verknüp­fung mit dem bud­dhis­tis­chen Glauben fokussiert. Der Titel des Stücks avisiert bere­its Har­veys kom­pos­i­torischen Schw­er­punkt, der in Speak­ings auf der Erforschung der gesproch­enen Sprache[10] liegt.

Har­vey erprobt mit Speak­ings die Neuzusam­menset­zung der Sprache durch das Orch­ester und hin­ter­fragt damit zugle­ich das klan­gliche sowie auch seman­tis­che Assozi­a­tionspoten­zial dieses akustis­chen Phänomens. Die mimetis­che Funk­tion der instru­men­tal­en Resyn­these spielt dabei eine zen­trale Rolle. Auf der glob­alen Ebene kön­nen die Wirkun­gen dieser Mime­sis als ein Leit­faden ange­se­hen wer­den, an dem ent­lang die dre­it­eilige Form des Stücks ent­wickelt wird. Die Kleinkinder­stim­men wer­den als eine Klang­meta­pher für die Sprachentste­hung aufge­grif­f­en, gle­ichzeit­ig wird mit ihnen die Entste­hung des orches­tralen Vok­ab­u­lars ver­knüpft:

In Speak­ings I want­ed to bring togeth­er orches­tral music and human speech. It is as if the orches­tra is learn­ing to speak, like a baby with its moth­er, or like first man, or like lis­ten­ing to a high­ly expres­sive lan­guage we don’t under­stand.[11]

Der bud­dhis­tis­che Glaube ist in diesem Entwick­lung­sprozess eine sym­bol­is­che gestal­ter­ische Kraft, welche das Sprechen allmäh­lich in die pure Form des Mantra-Gesanges trans­formiert und dessen Ver­wirk­lichung die Kli­max des Stück­es bildet: „In Bud­dhist mythol­o­gy from India there is a notion of orig­i­nal, pure speech, in the form of mantras — half song, half speech. The OM-AH-HUM is said to be the womb of all speech.“[12] Diese von Har­vey beschriebene Doppel­natur des Mantras kann eben­falls auf die mimetis­che Aufladung des musikalis­chen Mate­ri­als über­tra­gen wer­den, das zwis­chen ästhetis­ch­er und semi­o­tis­ch­er Ref­erenz oszil­liert.

Die Funk­tion der Elek­tron­ik

Die Neuzusam­menset­zun­gen der Sprach­par­tikel wur­den zum einem aus den com­put­er-assis­tierten kom­pos­i­torischen Vorar­beit­en entwick­elt, zum anderen durch die elek­tro­n­is­chen Pro­zesse und Live-Elek­tron­ik[13] weit­er aus­gestal­tet. In diesem Sinne fusion­iert der Entstehungs­prozess die elek­tro­n­is­che Gener­ierung bzw. Manip­u­la­tion des sym­bol­is­chen Noten­ma­te­ri­als mit den sig­nal-ori­en­tierten Bear­beitung­sprozessen der Elek­tron­ik, und diese bei­den Bestand­teile wirken jet­zt durchge­hend gemein­sam als Ord­nung­sprinzip.

Am Anfang des ana­lytis­chen Vorge­hens des­til­lierte Har­vey mit Hil­fe der Soft­ware Melo­dyne[14] aus mehreren äußerst stark kon­trastieren­den Sprach­sam­ples[15] deren melodis­che Umrisse. Dadurch wur­den die Grundtöne der jew­eili­gen Sprach­sam­ples tran­skri­biert und in melodis­che Lin­ien organ­isiert – eine beson­dere Rolle spiel­ten dabei unter­schiedliche Kleinkinder­stim­men. Der näch­ste Schritt wurde in der Soft­ware Open­Mu­sic[16] durchge­führt, wobei das Ziel ange­strebt wurde, aus der spek­tralen Analyse der Sam­ples ein rhyth­misch quan­tisiertes Tonmate­rial her­vorge­hen zu lassen. Diese Quan­tifizierung[17] wurde u.a. mit Hil­fe des Tran­sien­ten-Detek­tors[18] real­isiert, sie besitzt eine wichtige Funk­tion für die Auflö­sung der resul­tieren­den Analyse.

Neben den akustis­chen Charak­ter­is­ti­ka, die sich aus der spek­tralen Analyse ergaben, kön­nen außer­dem die kon­struk­tiv­en Möglichkeit­en der Soft­ware in Betra­cht gezo­gen wer­den. Die auf Com­mon Lisp basierte Soft­ware verzah­nt dabei die Ton­rei­hen­fol­gen und Zusam­men­klänge, denn sie kann bei der Ver­ar­beitung von Lis­ten zwis­chen hor­i­zon­tal­en und ver­tikalen Struk­turen flex­i­bel wech­seln (siehe Abb. 3).

Abb. 3: Eine ein­fache Liste von Zahlen wird in Open­Mu­sic als Ton­rei­hen­folge und gle­ichzeit­ig als Zusam­men­klang inter­pretiert (Abb. erstellt vom Ver­fass­er dieses Beitrags).

Von dieser Logik aus­ge­hend appliziert Har­vey in dem Stück einen zwiespälti­gen Vor­gang, da er zum einem die Sprache als poly­phone Struk­tur darstellt, zum anderem die zusammen­gesetzten Tim­bres zu ein­er homo­pho­nen syn­thetisierten Sprache umdeutet. Die mimetis­chen Wirkun­gen des Klang­ma­te­ri­als lassen sich aus dieser Per­spek­tive in indi­vidu­elle und kollek­tive Sprachgesten aufteilen. Die erst­ge­nan­nte Vari­ante wird haut­säch­lich durch die elek­tro­n­isch ver­stärk­ten Soloin­stru­mente ver­wirk­lich, deren melodis­chen Lin­ien vor­wiegend durch die des­tillierten Grundtöne aus Melo­dyne konzip­iert sind (siehe z.B. Abbil­dung 4). Diese Lin­ien wer­den in einem näch­sten Schritt durch die addierten Spek­tren der instru­men­tal­en Resyn­hese erweit­ert, welche durch die Orch­ester-Sek­tio­nen real­isiert sind. Die solis­tis­che Lin­ie wirkt dadurch als eine Art Fin­ger­ab­druck des Sprechens, wom­it eben­falls Har­veys Haup­tan­liegen gezeigt ist, das nicht auf der buch­stäblichen Wieder­gabe des Sprechens selb­st liegt, son­dern sich vielmehr an der Erforschung von Grenzbere­ichen zwis­chen abstrak­ten musikalis­chen Qual­itäten und imi­ta­tiv­en Wirkun­gen ori­en­tiert – eine Art Beobach­tung der Real­ität durch Musik.

Die kollek­tive Vari­ante beste­ht in der Emanzi­pa­tion des addierten Spek­trums der Orches­tersektionen. Eine homo­phone instru­men­tale Resyn­these wird dadurch in ten­den­ziell abstrak­te Tex­turen über­führt (siehe z.B. Abbil­dung 17). Dadurch lässt sich eine mimetis­che Achse iden­ti­fizieren, welche bei Har­vey zwis­chen konkreten und eher abstrak­ten imi­ta­tiv­en Qual­itäten oszil­liert.

Diese Zwei­heit spiegelt sich auch in der Ver­wen­dung von zwei grundle­gen­den FFT-Analy­se­an­sätzen wider. Die Soft­wares Melo­dyne sowie Open­Mu­sic (bzw. Audiosculpt) konzen­tri­eren sich auf die dynamis­che Entwick­lung der Sprache, die als fließen­des Phänomen aufge­fasst wird. Hinge­gen ergab Orchidée[19] über die Analyse ein sta­tis­ches Bild, da jed­er einzelne Mod­el­lk­lang nur als ein Akko­rd resyn­thetisiert wer­den kon­nte, wom­it sich diese Vari­ante eher für kürzere Sprach­sam­ples (wie z.B. OM-AH-UM Mantra) eignete, die sich nicht in Zeitverläu­fen entwick­eln.[20] Solche sta­tis­chen FFT-Analy­sen wer­den von Har­vey allerd­ings in einem näch­sten Schritt mit com­put­er-assistierten Orches­tra­tionsal­go­rith­men[21] ergänzt, die ein inno­vatives Poten­zial bein­hal­ten.

Während die mor­phol­o­gis­che Infor­ma­tion im ersten Zugang über Melo­dyne und Open­Mu­sic bess­er aufge­fasst und die mimetis­che Nachah­mung der Sprache hier in gewis­sem Maße plas­tischer real­isiert wird, lassen die Orchestrierun­gen mit der Soft­ware Orchidée neuar­tige klang­lich-tim­brale Assozi­a­tio­nen entste­hen. Ein Beispiel für diese Vorge­hensweise find­et sich auf den Seit­en 54–55 der Par­ti­tur, wo eine solis­tis­che Lin­ie[22] der Posaune zu sehen ist. Sie repro­duziert Grundtöne der Sprach­sam­ples, die aus der Melo­dyne-Analyse stam­men (siehe Abbil­dung 4).

Abb. 4: Solis­tis­che Lin­ie der Posaune. Aus: Jonathan Har­vey, Speak­ings (2008), S. 54–55. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.

 

Diese dom­i­nante Lin­ie wird mit der Stre­ich­ersek­tion syn­chro­nisiert, deren Mate­r­i­al wiederum auf der Analyse aus Open­Mu­sic[23] beruht (siehe Abbil­dung 5).

Abb. 5: Das Resul­tat ein­er Analyse aus Open­Mu­sic. © Paul-Sach­er-Stiftung Basel, Samm­lung Jonathan Har­vey.

Die Auf­schich­tung der Stre­ich­ersek­tion auf die elek­tro­n­isch bear­beit­ete und ver­stärk­te Lin­ie der Posaune kön­nte assozia­tiv mit ein­er Funk­tion der Cross-Syn­these verknüpft wer­den, wo die spek­trale Hül­lkurve eines Klangs dem abge­flacht­en Spek­trum eines anderen zugewiesen wird (siehe Abbil­dung 6).[24] Die melodis­che Lin­ie wird auf diese Weise hybri­disiert und erhält ein dop­peltes Spek­trum und damit auch eine dop­pelte Bedeu­tung, die sich der Eige­nart der gesproch­enen Sprache annähert.

Auf diese Weise lässt sich die mimetis­che Funk­tion der Elek­tron­ik gut ein­fan­gen. Ein­er melo­dischen Lin­ie wird dadurch ein kom­plex­es Spek­trum hinzuge­fügt, wom­it Elek­tron­ik eine Ver­schmelzung mit dem orig­i­nalen Mod­el­lk­lang unter­stützt. Es liegt auf der Hand, dass die Prä­senz von Sam­ples und deren Spek­tren inner­halb der Syn­these die Wahrschein­lichkeit, dass das Pub­likum einen Zusam­men­hang zwis­chen den Sam­ples und ihren instru­men­tal­en Syn­thesen her­stellt, deut­lich erhöht. Wenn diese Klänge nahe beieinan­der liegen, kann unsere Wahrnehmung zwis­chen Umweltk­län­gen und Instru­mentalk­län­gen hin- und her­schal­ten. Auf­grund dieser Nähe kann es sog­ar zu unein­deuti­gen und täuschen­den Wahrnehmungen kom­men, bei denen ein Instru­mentalk­lang für ein echt­es Sprach­sam­ple gehal­ten wird.

Abb. 6: Die Kom­bi­na­tion der Posaune mit der Stre­ich­ersek­tion. Aus: Jonathan Har­vey, Speak­ings (2008), S. 55. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.

Klang­far­ben­raum in Orchidée

Die Soft­ware Orchidée, die am IRCAM in Verbindung mit Har­veys Speak­ings entwick­elt wurde, ent­fal­tet solche spek­tralen Ver­schränkun­gen und damit auch die mimetis­chen Wirkun­gen maßge­blich weit­er. Die tim­brale Nähe zum Mod­el­lk­lang – erzeugt beispiel­sweise mit der spekt­ralen Dichte sowie der Involvierung divers­er aleatorisch­er Konzepte inner­halb der Resyn­these – wird in dem Pro­gramm zu einem tek­tonis­chen Prinzip aufge­hoben, mit dem sich for­male Tra­jek­to­rien gestal­ten lassen, die wiederum mit Smal­l­eys ‚source bond­ing‘ verknüpft wer­den kön­nen. In der Soft­ware Orchidée wer­den die Sprach­sam­ples durch die real-time Resyn­these erforscht, deren klan­glich­es Mate­r­i­al aus der umfan­gre­ichen Sam­ple-Library[25] stammt. Dabei wird ein Mod­el­lk­lang auf­grund sein­er spek­tralen Eigen­schaften analysiert und im näch­sten Schritt aus einem Kor­pus (d.h. aus der Sam­ple-Library von bere­its seg­men­tierten und deskrip­tor­analysierten Klän­gen) entsprechend der Nähe zu ein­er Ziel­po­si­tion – also zum Mod­el­lk­lang – im Deskrip­tor­raum[26] abge­spielt und tran­skri­biert. Der Deskrip­tor­raum reflek­tiert dabei die mul­ti­di­men­sion­ale Beschaf­fen­heit[27] des Tim­bres (siehe Abbil­dung 7) indem er eine Vielzahl von gewichteten Audio-Merk­malen par­al­lel in die Analyse ein­bezieht.

Abb. 7: Mul­ti­di­men­sion­aler tim­braler Raum (MDS). Aus: John M. Grey, Mul­ti­di­men­sion­al per­cep­tu­al scal­ing of musi­cal tim­bres (1976), S. 177. Repro­duziert nach der Aus­gabe Stan­ford: Acousti­cal Soci­ety of Amer­i­ca © 1977.

Somit kann dieser Deskrip­tor­raum als ein Instru­ment zur Nav­i­ga­tion im mehrdi­men­sion­alen Klang­far­ben­raum ange­se­hen wer­den. Ein Beispiel eines solchen Vor­gangs find­et sich bei­spielsweise in der Resyn­the­sen-Ver­ket­tung[28] des früher zitierten Mantra OM-AH-HUM, die sich je nach eingegebe­nen Klangkri­te­rien in unter­schiedlichen Klang­mix­turen wieder­holt. Basierend auf den Klangeigen­schaften und perzep­tiv­en Modi wer­den Zwis­chen­klänge model­liert, um die unter­schiedlich­sten Aspek­te des analysierten Spek­trums her­vorzuheben (siehe Abbil­dung 8). Die musikalis­chen Struk­turen und ihre ref­er­en­tiellen Bezüge zur gesproch­enen Sprache wer­den somit aus unter­schiedlichen Blick­winkeln pro­jiziert.

Abb. 8: Die ana­lytis­chen Kri­te­rien der Soft­ware Orchidée (Abb. erstellt vom Ver­fass­er dieses Beitrags).

Die Resul­tate der Analyse wur­den ohne große Verän­derun­gen (mit Aus­nahme der Stimmfüh­rung) in die Par­ti­tur exportiert, und während der Auf­führung wurde die dynamis­che Präzi­sion der Soft­ware beson­ders beachtet.[29] Es lässt sich damit eine typ­is­che spek­tral­is­tis­che Vor­gehensweise beobacht­en, bei der die Inter­po­la­tion zwis­chen einzel­nen Resyn­the­sen eine tek­tonische Funk­tion besitzt. Har­vey wech­selt hier allmäh­lich von den ent­fer­n­ten Vari­anten zu den akustisch näch­st­gele­ge­nen Resyn­the­sen, wom­it er die mimetisch repräsen­ta­tivste Vari­ante allmäh­lich aus dem Klang­far­ben­raum von Orchidée her­aus­des­til­liert (siehe Abbil­dun­gen 9 und 10).[30]

Abb. 9: Die Resyn­these des Mantra-Gesanges aus Orchideé. © Paul-Sach­er-Stiftung Basel, Samm­lung Jonathan Har­vey.

 

Abb. 10: Entsprechende Stelle aus der Par­ti­tur. Aus: Jonathan Har­vey, Speak­ings (2008), S. 82. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.

Die Wech­sel­wirkung zwis­chen den mimetis­chen und phänom­e­nol­o­gis­chen Hör­weisen der Re­synthese lässt sich somit auch auf der Ebene der einzel­nen Klang­mix­turen weit­er­ver­fol­gen. Simon Emmer­son unter­schei­det in Hin­sicht darauf zwis­chen zwei grund­sät­zlichen Arten der Nachah­mung:

There are two types of mime­sis: ‘tim­bral’ mime­sis is a direct imi­ta­tion of the tim­bre (‘col­or’) of the nat­ur­al sound, while ‘syn­tac­tic’ mime­sis may imi­tate the rela­tion­ships between nat­ur­al events; for exam­ple, the rhythms of speech may be ‘orches­trat­ed’ in a vari­ety of ways.[31]

Ein­er­seits gibt es laut Emmer­son die Nachah­mung von Klang­farbe, bei der sich die Instru­mente in Speak­ings untere­inan­der imi­tieren. Durch die Ein­gangskri­te­rien und Para­me­ter der Neuzusam­menset­zun­gen wer­den in Speak­ings assozia­tive Verknüp­fun­gen aus­gelöst, wom­it die Kon­no­ta­tio­nen der einzel­nen Instru­mente in Frage gestellt wer­den. Im Zuge eines solchen Prozess­es entste­hen man­nig­fache Klanghy­bride. Eine der­ar­tige hybride Sit­u­a­tion kommt zum Beispiel dann zus­tande, wenn ein akustis­ch­er Para­me­ter eines Sprach­sam­ples mit den Pizzi­­ca­to-Impulsen sowie auch mit der Tech­nik der Flat­terzunge kon­gruiert. Da diese Tech­nik auf einem Stre­ichin­stru­ment nicht aus­führbar ist, wird der Algo­rith­mus eine Kom­pro­miss­lö­sung in Form ein­er hybri­den Klang­mis­chung find­en.

Ander­er­seits vol­lziehen Har­veys Prozessen eine syn­tak­tis­che Imi­ta­tion des Sprechens, indem die Funk­tion der Spra­chor­gane durch die Anord­nung inner­halb der instru­men­tal­en Resyn­these nachgeahmt wird.

Instru­men­tale Reartiku­la­tion

Die Imi­ta­tion der Wirkun­gen von Spra­chor­ga­nen mit­tels die Live-Fil­terung von For­man­ten[32] eröffnet in Verbindung mit der musikalis­chen Resyn­these einen weit­eren Assozi­a­tion­sraum. Ein konkretes Beispiel dieses Kon­textes kann u.a. auf Seite 50 der Par­ti­tur (1 Takt vor Buch­stabe S) aufgezeigt wer­den (siehe Abbil­dung 11). Die durch Schla­gin­stru­mente pro­jizierten Kon­so­nan­ten trig­gern die hohen For­man­ten in Stre­ich­ern, die auf dem näch­sten Achtel schnell in tiefe For­man­ten über­führt wer­den. Dadurch lösen die hohen For­man­ten einen Über­gang zwis­chen diesen zwei Ele­menten aus und kön­nen als eine Art Reartiku­la­tion[33] zwis­chen einem Kon­so­nan­ten und einem Vokal inter­pretiert wer­den. Gle­ichzeit­ig wer­den die perkus­siv­en Kon­sonanten eben­falls mit dem MIDI-Key­board-Cue verknüpft, welch­es den Fil­terung­sprozess der Live-Elek­tron­ik ins Laufen bringt. Die Posaunen-Lin­ie pro­jiziert Grundtöne und wird mit dem Solo­cel­lo kom­biniert, welch­es die Lin­ie um mikro­tonale Umspielun­gen ergänzt. Dadurch wird eine dis­parate Energiev­erteilung erzielt, und so entste­ht ein etwas bre­it­eres Fre­quenzband, das von einem Schat­ten niedriger­er Ampli­tu­denen­ergie umgeben ist. Diese Erschei­n­ung cha­rakterisiert u.a. den perzep­tiv­en Geräusch-Anteil des Spek­trums.

Abb. 11: Die Zusam­menset­zung der­Sprachkom­po­nen­ten durch dieResyn­these. Aus: Jonathan Harvey,Speakings (2008), S. 50. Repro­duziert­nach der Aus­gabe Lon­don: Faber Music© 2008.

Die Prozesse der Live-Elek­tron­ik

In Har­veys Arbeitsmod­ell wird in weit­er­er Folge die Plas­tiz­ität der Reassem­blierung durch das sig­nal-basierende Ver­ar­beitungsver­fahren ver­tieft. Die Ergeb­nisse des Analyse-Resyn­these-Ver­fahrens wer­den in dieser Phase von akustis­chen Instru­menten repro­duziert und die aufgenommene gesamte Hül­lkurve wird durch die akustis­chen Para­me­ter des orig­i­nalen Sprach­samples gefiltert,[34] bevor sie über Laut­sprech­er räum­lich in den Saal spa­tial­isiert wer­den.[35] Auf diese Weise erstellt Har­vey ein Reser­voir von weit­eren Denkop­tio­nen, wobei dieses Ver­fahren auch in umgekehrter Rich­tung abläuft und die orig­i­nalen Sprach­sam­ples mit den akus­tischen Eigen­schaften der orches­tralen Mix­turen gefiltert und mod­i­fiziert abge­spielt wer­den. Die Kinder­stim­men wer­den assozia­tiv durch die Klangkör­p­er der Instru­mente wie Oboe oder Posaune gefiltert.

Durch diese Fil­terung lässt sich ein ander­er mimetis­ch­er Aspekt von Har­veys Prozessen illust­rieren. Diese Fil­terung ist als eine Art Ver­fär­bung der ursprünglichen audi­tiv­en Gestalt zu inter­pretieren. Der Kom­pon­ist Clarence Bar­low (1945–2023) set­zt die ver­bor­gene Präsenz des Sprechens in den Kon­text eines Resid­u­al­tons. Dadurch kann auch eine gewisse Assozi­a­tion zur Akus­matik erzeugt wer­den. Die resyn­thetisierten Spek­tren pro­jizieren aber­mals die Klang­quelle, die aber physisch eigentlich nicht präsent ist.[36] Dies zeigt auch die eigen­tüm­liche Wech­selspan­nung zwis­chen zwei Hör­mo­di im Rah­men der Resyn­these. Auf ein­er Seite ste­ht die ref­eren­zielle Hör­weise, bei der man die Klangquellen rekon­stru­iert. Auf der anderen Seite ste­ht die phänom­e­nol­o­gis­che Hör­weise. Oft wird die Resyn­these durch eine extreme zeitliche Aus­dehnung real­isiert, wom­it das Pub­likum in das Klangin­nere hineinge­führt wird.

Um die laten­ten Struk­turen möglichst organ­isch zu enthüllen, legt Har­vey bei solchen synthe­tischen Vorgän­gen auf die exak­te Syn­chro­ni­sa­tion der einzel­nen Ele­mente großen Wert. Die Prozesse müssen ein­er­seits zum richti­gen Zeit­punkt getrig­gert, ander­er­seits müssen die Dat­en zusät­zlich im genauen Tem­po ohne Schwankun­gen analysiert wer­den. Die tech­nisch präzise real­isierte Rhyth­mik ver­tieft daher das mimetis­che Poten­zial der instru­men­tal­en Re­synthese.[37] Aus diesem Grund bekommt der Part des MIDI-Key­boards die beson­dere Auf­gabe, die Dat­en im exak­ten Tem­po in das Pro­gramm Antesco­fo[38] einzus­pie­len. Der Key­board-Part erhält damit eine beina­he solis­tis­che Funk­tion, die zwar neben dem Orch­ester par­al­lel abläuft und rein audi­tiv nicht nachvol­lziehbar ist, jedoch beset­zt der Key­board-Part in der Par­titur eine beson­dere Stelle, denn er ist für die innere Syn­chro­ni­sa­tion des gesamten Orch­esters mit der Elek­tron­ik zuständig (siehe Abbil­dung 12).

Abb. 12: Der elek­tro­n­is­che Part des MIDI-Keyboards[39]. Aus: Jonathan Har­vey, Speak­ings (2008), S. 74. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.

Fusion und Spal­tung

Die daraus resul­tieren­den ambiguen Klangcharak­ter­is­ti­ka spie­len im Stück auf mehreren Ebe­nen eine wichtige Rolle. Dabei lässt sich Har­veys Vor­liebe für Hide-and-Seek-Prozesse beobacht­en,[40] in welchen die Kon­gruen­zen der musikalis­chen Gesten mit den Sprach­fig­uren als ein wichtiger Struk­turierungsim­puls des Stücks ange­se­hen wer­den kön­nen. So wird die Mime­sis der Sprache beim musikalis­chen Hören zu ein­er Art Phan­tom­fig­ur, die in gewis­sem Maße die Aufmerk­samkeit vom musikalis­chen Mate­r­i­al ablenkt, denn sie erweckt eine natürli­che Ten­denz, die Mime­sis – also ‚gespielte Sprache‘ – zu entschlüs­seln.

Eine solche oszil­lierende Dop­pel­natur der Fig­uren ergibt wiederum die Assozi­a­tion an das akus­ma­tis­che Hören, da die Klangquelle der gesproch­enen Sprache physisch nicht präsent ist. Michel Chion kom­biniert dieses Phänomen mit seinem Begriff ‚acous­mêtre‘, welch­er die unhör­bare Sprache im Off eines Filmes beze­ich­net – d.h. eine Art filmis­che Ver­sion von Akus­matik. Acous­mêtre besitzt dabei eine spez­i­fis­che Art von Ambi­gu­i­tät gegenüber der Lein­wand sowie ein Oszil­lieren, denn es lässt sich wed­er als inner­halb noch als außer­halb des Bildes ste­hend definieren. Beispiel­sweise kann es als Stimme eines Erzäh­lers in Erschei­n­ung treten, der All­wis­senheit ver­liehen wurde (vgl. Chion: Audio-Vision, S. 129).

Ein kor­re­spondieren­der Vor­gang des Ver­steck­ens und Wiederfind­ens zeigt sich eben­falls in Hin­sicht auf die melodis­chen Solo-Fig­uren und ihre Har­mon­isierun­gen. Har­vey lässt die ein­zelnen melodis­chen Lin­ien inner­halb der kom­mu­nika­tiv­en Prozesse zwis­chen Soli und harmo­nischen Klang­mix­turen allmäh­lich ver­schmelzen, wobei er eine Oszil­la­tion zwis­chen homo­phonen und poly­pho­nen Fak­turen anwen­det. Dies lässt sich mit Har­veys erwäh­n­ter Inten­tion in Verbindung brin­gen, die Sprache aus der sym­bol­is­chen Per­spek­tive des Bud­dhis­mus zu betra­cht­en. Die einzel­nen melodis­chen Lin­ien der Sprach­fig­uren ver­lieren langsam ihre indivi­duelle Charak­ter­is­tik und wer­den in eine Art glob­ale Sprache des Orch­esters ver­wan­delt. Zum einem wird dies durch die Orchestrierungs- und Fak­turverän­derun­gen real­isiert, zum anderen durch die tim­bralen Annäherung­sprozesse der Resyn­these mit elek­tro­n­is­ch­er Fil­terung, bei der indi­vidu­elle Klangcharak­tere in Rich­tung ein­er Art Kom­pro­mis­sklänge mod­i­fiziert wer­den.

Die mehrdeuti­gen Kom­pro­mis­sklänge hän­gen wiederum mit dem von Smal­l­ey als ‚source bon­ding‘ beze­ich­neten Phänomen zusam­men, wohinge­gen hier die Iden­ti­fizierung einzel­ner Klangquellen auf zwei unter­schiedlichen Schicht­en abläuft. Die Tech­nik der Cross-Syn­these kann somit auch als Tim­bre-Hybri­disierung beschrieben wer­den (vgl. Kling­beil: Spec­tral Ana­lysis, Edit­ing, and Resyn­the­sis, S. 82), weil dabei zwei Spek­tren ver­schränkt wer­den, wodurch ein tim­braler Zwis­chen­zu­s­tand entste­ht. Hier­mit entste­ht eine Verknüp­fung zwis­chen Hybridi­sierungen auf ein­er Mikroebene von Par­tialtö­nen und ein­er höheren Ebene der instru­men­tal­en Gesten. In Speak­ings wer­den diese häu­fig zusät­zlich noch durch Shape-Vocod­ing prozessiert.

Ein­er­seits besitzt die glob­ale Wech­sel­wirkung zwis­chen Sprach­sam­ples und instru­men­tal­en Resyn­the­sen eine form­prä­gende Wirkung, ander­er­seits kom­men inner­halb einzel­ner Phrasen lokale Zwis­chen­wirkun­gen zus­tande, bei denen sich die einzel­nen Instru­mente durch erwei­terte Spiel­tech­niken selb­st imi­tieren (siehe Abbil­dung 13). Damit entste­ht ein Netz von inter­aktiven Beziehun­gen, welch­es die mod­u­lare Logik der sam­ple-basierten Algo­rith­men der Soft­ware Orchidée wider­spiegelt.

Abb. 13: Die Spek­tren der Kon­so­nan­ten wer­den­durch die Luft­geräusche der Flöte dargestellt,die Luft­geräusche wer­den wiederum von den­Pauken-Klän­gen imi­tiert. Aus: Jonathan Harvey,Speakings (2008), S. 4. Repro­duziert nach der­Aus­gabe Lon­don: Faber Music © 2008.

Eine analoge mod­u­lare Logik ist eben­falls anhand von nachah­menden Bezü­gen zwis­chen musikalis­chen Struk­turen und Sprache auszu­machen. In gewis­sem Sinne ste­ht die Transfor­mation im Mit­telpunkt der mimetis­chen instru­men­tal­en Resyn­these ins­ge­samt; sie bein­hal­tet notge­drun­gen den Über­gang von ein­er Klangi­den­tität in eine andere – typ­is­cher­weise von einem Umweltk­lang zu einem Instru­mentalk­lang.

For­maler Ablauf

Der erste Satz (S. 1–23 der Par­ti­tur) präsen­tiert einen ziel­gerichteten Großver­lauf, in welchem zuerst etap­pen­weise die Sprach­funk­tion im Orch­esters-Vok­ab­u­lar kon­sti­tu­iert und dessen Logik für das Pub­likum zuse­hends bess­er nachvol­lziehbar wird.[41] Ver­wirk­licht wird dies haupt­sächlich durch die Mod­el­lk­länge des Kleinkindes, welche das Orch­ester immer wieder rekon­struiert.[42] Die Fil­terung der Solo-Instru­mente durch die Sprach­sam­ple-Hül­lkur­ven besitzt inner­halb dieser Gebilde eine tek­tonis­che Auf­gabe, welche die innere Struk­tur der musikali­schen Trans­for­ma­tio­nen bes­timmt. Die Oszil­la­tion zwis­chen den klan­glichen und semanti­schen bzw. mimetis­chen Funk­tio­nen der Klan­gag­gre­gate bewirkt ein­lei­t­end eine dynamis­che Struk­tur, sodass die Rezep­tion des Pub­likums ständig zwis­chen Annah­men und tat­säch­lich hör­baren uner­warteten Klangzusam­menset­zun­gen navigiert. Dem Orch­ester wird nach und nach die Fähigkeit ver­liehen, die Sprache zu beherrschen. Gle­ichzeit­ig lernt das Pub­likum, solche syn­thetis­che Prozes­su­al­ität als eine anthro­po­mor­phe Gestal­tung zu ver­ste­hen. Die wirk­same Funk­tion der Sprach­sam­ples, kor­re­spondierende resyn­thetis­che Vorgänge an sich binden zu kön­nen, wird immer markan­ter, und schließlich ver­schmelzen die Sam­ples mit melodis­chen Fig­uren und har­monis­chen Sätzen zu ein­er ver­tikalen Ein­heit (siehe Abbil­dung 14).

Har­veys Inten­tion, den Hörer*innen die Fähigkeit zu ver­lei­hen, eine Sprachquelle bewusst rekon­stru­ieren zu kön­nen, bringt mehrere dra­matur­gis­che Aspek­te mit sich. Eine markante Rolle spielt die Wech­sel­wirkung zwis­chen den Klangkom­po­nen­ten von Kon­so­nan­ten und Vokalen. Auf­grund der sprach­lichen Mod­elle wer­den die winzi­gen natür­lichen Glis­san­di der Vokale eng mit den Mix­turen der eher perkus­siv­en Kon­so­nan­ten ver­bun­den. Inner­halb der Gesten wer­den die Sprach­fig­uren expliz­it mit unter­schiedlichen Arten von Glis­san­do imi­tiert. Ein­er­seits wer­den die Glis­san­di inner­halb der einzel­nen melodis­chen Fig­uren promi­nent ver­wendet, ander­er­seits bes­tim­men die Glis­san­do-Bewe­gun­gen aber die Kon­turen der gesamten musikalis­chen Tex­tur, wom­it eine Rela­tion zwis­chen Mikro- und Makroglis­san­di entste­ht (siehe Abb. 15 und 16).[43] Das Resul­tat ist eine instru­men­tale Klangfläche, welche als Pro­jek­tion der vere­in­facht­en Grun­drisse ein­er spek­tralen Hül­lkurve (For­man­ten) sowie ihrer Mor­pholo­gie er­scheint.

Dies zeigt wiederum, welch wichtige Funk­tion die instru­men­tale Resyn­these für die mimeti­sche Wirkung musikalis­ch­er Struk­turen besitzt, da sowohl das Mate­r­i­al der Mikroglis­san­di als auch das der Makroglis­san­di in die FFT-Analyse eingeschrieben sind. Ein­er­seits weisen die Grundtöne der Sprach­analy­sen melodis­che Glis­san­di auf, ander­er­seits zeigen die Analy­sen auch winzige mikro­tonale Glis­san­di inner­halb der spek­tralen Beschaf­fen­heit der Sprach­gesten.

Abb. 14: Das Sam­ple trig­gert die Resyn­these. Aus: Jonathan Har­vey, Speak­ings (2008), S. 11. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.
Abb. 15: Die Glis­san­do-Ver­wen­dung in der eröff­nen­den Vio­lin-Fig­ur. Aus: Jonathan Har­vey, Speak­ings (2008), S. 1. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.
Abb. 16: Glis­san­do als eine glob­ale Kon­tur inner­halb der anknüpfend­en Tex­tur der Vio­lin-Sek­tion. Aus: Jonathan Har­vey, Speak­ings (2008), S. 2. Repro­duziert nach der Aus­gabe Lon­don: Faber Music © 2008.

Im läng­sten zweit­en Satz (S. 24–86 der Par­ti­tur) wird ein lin­ear­er Prozess aufge­baut, in dessen Ver­lauf das sym­bol­is­che Puri­fizieren der Sprache aufge­grif­f­en wird:

The sec­ond move­ment is con­cerned with the fre­net­ic chat­ter of human life in all it’s expres­sions of dom­i­na­tion, asser­tion, fear, love, etc. It expands the work Sprechge­sang com­posed just before. It final­ly moves, exhaust­ed, to mantra and a cel­e­bra­tion of rit­u­al lan­guage.[44]

Die tek­tonis­che Funk­tion der Sam­ples wird am Anfang des Satzes von instru­men­tal­en Fig­uren (vor allem der Oboe und der Posaune) über­nom­men, welche durch ein stets flex­i­bles Auf- und Abwärtsgleiten die sprechende Funk­tion überzeu­gend simulieren.[45] Die Posaune erset­zt im Laufe des zweit­en Satzes die Oboe. Dies lässt sich aber­mals aus der Per­spek­tive der glob­alen Tra­jek­to­rie des Stücks her­aus betra­cht­en, wo die Kleinkinder­stim­men in Erwachsenen­stimmen über­führt wer­den.

Die Soloin­stru­mente (wie z.B. die Posaune) besitzen eine dop­pele Funk­tion. Ein­er­seits wird dank der nahen Mikro­phonierung möglich, die phänom­e­nol­o­gis­chen Qual­itäten der Mikro­klänge zu enthüllen, ander­er­seits sind beson­ders diese Instru­mente für die mimetis­chen Wir­kungen der musikalis­chen Phrasen zuständig. Ver­stärkt wird dies noch dadurch, dass die Instru­mente vorne platziert sind und durch eine zusät­zliche Mikro­phonierung sowie viel­er­lei solis­tis­che Cues bei der Auf­führung eine erhöhte Aufmerk­samkeit erre­ichen. Dies korrespon­diert in gewiss­er Weise mit der Mehrdeutigkeit von Hel­mut Lachen­manns ‚musique con­crète instru­men­tale‘. Hier wird eben­falls die Kör­per­lichkeit und Mate­ri­al­ität kom­pos­i­torisch ausgear­beitet, welche die Aufmerk­samkeit des Pub­likums auf die mech­a­nis­chen bzw. konkreten Ursprünge der Klangerzeu­gung lenken sollen. Gle­ichzeit­ig ermuti­gen die neuar­ti­gen Spiel­techniken dazu, sich auf die Klangquelle selb­st zu konzen­tri­eren. Dies illus­tri­ert z.B. Lachen­manns Hin­weis zu Pres­sion (1969) für Cel­lo solo, dass die Par­ti­tur dem Pub­likum nicht die Sicht auf das Cel­lo und den Bogen versper­ren sollte, wom­it eine akus­ma­tis­che Hör­si­t­u­a­tion eigentlich negiert wird. Eine solche ambigue The­atra­lik find­et sich auch in Har­veys Werk, etwa bei der Behand­lung der Soloin­stru­mente in Speak­ings. Har­vey spricht in diesem Zusammen­hang über ein The­ater der Trans­for­ma­tio­nen, wom­it er die Beziehung zwis­chen Instru­menten und ihren elek­tro­n­is­chen Bear­beitun­gen beschreibt (vgl. Har­vey: In Quest of Spir­it, 1999, 2). Diese Ten­denz zum The­atralis­chen inner­halb von Har­veys Werk zeigt sich zusät­zlich auch dadurch, dass er – im Unter­schied zu anderen wichti­gen Spek­tral­is­ten wie Gérard Grisey oder Tris­tan Murail, deren Œuvre keine Oper enthält – zwei abend­fül­lende Opern kom­poniert hat.

Eine zen­trale Geste des zweit­en Satzes bildet die früher erwäh­nte Resyn­these durch Posaune und Stre­ich­er (S. 54–55 der Par­ti­tur, siehe Abb. 17). Die innere rhyth­mis­che und dynamis­che Struk­tur der Sam­ples wird par­al­lel durch die zeitliche Lupe in Resyn­the­sen erfahrbar gemacht, und das Mate­r­i­al des ersten Satzes wird dabei aus ver­schiede­nen zeitlichen Ebe­nen geschil­dert, welche nach Har­veys Vorstel­lung die man­nig­falti­gen Lebenssi­t­u­a­tio­nen darstellen sollen.[46] Ein Beispiel dafür find­et sich auf Seite 46 der Par­ti­tur, wo mit dem orches­tralen Ped­al die Res­o­nanz der Klaviergeste auskom­poniert ist. Dieser instru­men­tale Res­o­nanz­ef­fekt wird außer­dem mit dem elek­tro­n­is­chen Reverb und der Spa­tial­isierung unter­strichen.

Abb. 17: Auskom­ponierte Res­o­nanz. Aus. Aus: Jonathan Har­vey, Speak­ings (2008), S. 55. Reprodu­ziert nach der Aus­gabe Lon­don: Faber Music © 2008

Die akustis­che Dis­tanz zwis­chen den sprechen­den Stim­men und den Instru­menten wird schließlich auf der Basis ein­er Poly­phonie simul­tan­er Prozesse min­i­mal­isiert. Har­vey lässt nach­fol­gend die kul­minierten einzel­nen Sprach­fig­uren zu ein­er beweglichen het­ero­ge­nen Tex­tur ver­schmelzen – die Rela­tion zwis­chen Ursprung und Ursache[47] im Sinne von Smal­l­eys ‚source bond­ing‘ wird dabei niv­el­liert. Die der­art fusion­ierte Tex­tur mün­det in der Kli­max des Stücks in die Reassem­blierung des Mantra-Gesangs. Das Phänomen der Sprache wird damit auf eine höhere Ebene gehoben, wodurch es eine beina­he rit­uale Funk­tion bekommt, die Har­vey als Puri­fizierung der Sprache ver­ste­ht.

Der let­zte Satz (S. 87–103 der Par­ti­tur) verknüpft den Mantra-Gesang mit an Gre­go­ri­anik[48] erin­nern­der Melodik, wobei durch die Spa­tial­isierung mit acht Kanälen und mehrschichtiges Reverb[49] ein immer­siv­er akustis­ch­er Raum erzeugt wird. Das Pub­likum soll bei ein­er solchen klan­glichen Erschei­n­ung in die innere Struk­tur der Sprach­fig­uren ein­drin­gen und darüber hin­aus soll auf der Basis ein­er monodis­chen Fak­tur in der Wahrnehmung des Pub­likums die indi­vidu­elle Resyn­these sym­bol­isch angeregt wer­den:

Here speech has a calmer pur­pose; it is mar­ried to a music of uni­ty, a hymn which is close to Gre­go­ri­an chant. There is often a sin­gle monod­ic line rever­ber­at­ed in a large acoustic space. There is lit­tle divi­sion of line against line, or music against lis­ten­er, as the rever­ber­a­tion elimi­nates the sense of sep­a­ra­tion between lis­ten­er and musi­cal object.[50]

Vor diesem Hin­ter­grund lassen sich die Ver­fahren des Stücks als ein glob­aler Zoom interpre­tieren. Von isolierten Vokalen und Kon­so­nan­ten aus­ge­hend, etabliert sich in den instrumenta­len Prozessen nach und nach der sprechende Ges­tus. Diese mimetis­che Funk­tion wird für das Pub­likum dabei zuse­hends plau­si­bler. Die Sprache wird schließlich in eine rit­u­alar­tige Tex­tur ver­wan­delt, deren immer­siv­er monodis­ch­er Nachk­lang[51] einen Raum für die imag­i­na­tive Re­synthese eröffnet. Darüber hin­aus wird die äußere Resyn­these in die innere Imag­i­na­tion des Pub­likums ver­schoben, sodass es sich mit der ursprünglichen Klangquelle auf sym­bol­is­ch­er Ebene vere­inigt – der Orch­ester­ap­pa­rat fungiert als ein metapho­risch­er Mund-Res­o­nanzraum, der sich vom Podi­um allmäh­lich ins Bewusst­sein des Pub­likums überträgt.

Schluss­wort

In diesem Beitrag wurde die Ver­wen­dung der Sprache für die Ent­fal­tung des kom­pos­i­torischen Mate­ri­als unter unter­schiedlichen Aspek­ten betra­chtet – beson­ders aus der Per­spek­tive ihrer kreativ­en Inter­ak­tion mit tech­nis­chen Mit­teln. Es wurde eben­falls gezeigt, dass es sich um einen wech­sel­seit­i­gen Prozess han­delt. Har­veys kom­pos­i­torische Kreativ­ität und die techni­schen Inno­va­tio­nen bee­in­flussten sich gegen­seit­ig. Die Analyse von Speak­ings zeigt, welch­es inno­v­a­tive Poten­zial die Ent­fal­tung der instru­men­tal­en Resyn­these für spek­tral­is­tis­che Pro­zesse hat­te. Eine solche mimetis­che Wech­selspan­nung zwis­chen Orig­i­nal und sein­er Umfor­mung ist auch ein Grund dafür, weshalb die Frage nach dem Charak­ter und der Ästhetik der Spek­tral­musik immer wieder neu gestellt wer­den sollte. Die Nachah­mungsmod­elle sowie die Nachah­mung­stech­niken verän­dern sich zusam­men mit den neuen maschinellen Möglichkei­ten (z. B. den Spe­ich­er- und Ver­ar­beitungsmöglichkeit­en kom­plex­er Dat­en), welche den mi­metischen Aktion­sra­dius von spek­tral­is­tis­chen Konzepten erweit­ern und in der Lage verset­zen, die Nachah­mungspar­a­dig­men zu ver­wan­deln.

Tech­nis­che Neuerun­gen erweit­ern ein­er­seits die Palette möglich­er Mod­el­lk­länge für die Re­synthese, indem sie es nun erlauben, auch kom­plexe Klangstruk­turen zu analysieren und die gewonnenen Dat­en durch Resyn­these orig­inell zu inter­pretieren. Ander­er­seits kann durch die Live-Prozesse während der Auf­führung die Plastizität der Resyn­these deut­lich erhöht wer­den. Dies zeigt wiederum die prä­gende Rolle der Rela­tion zwis­chen Mod­el­lk­lang und den kompo­sitorischen Prozessen inner­halb des Spek­tral­is­mus, bei der die tech­nis­chen Entwick­lun­gen die mimetis­che Funk­tion der instru­men­tal­en Resyn­these immer wieder neu befra­gen. Es ist zu erwarten, dass die inter­ak­tiv­en Spielfelder in den kom­menden Jahren deut­lich zunehmen wer­den, wie z. B. durch die Involvierung von Algo­rith­men neu­ronaler Net­ze in den Prozess der Resyn­these sowie auch der Live-Elek­tron­ik.

Im weit­eren Sinne wird durch diese Prozesse somit the­ma­tisiert, was das Zuhören im Zeital­ter der neuen Medi­en bedeutet und wie sich unsere Wahrnehmung durch den tech­nis­chen Fort­schritt verän­dert – ob es sich hier­bei um audi­tive Perzep­tion­sän­derun­gen durch alltägliche tech­nis­che Verän­derun­gen, wie z.B. bei der Nutzung des Gehörs zur Kom­mu­nika­tion über Tele­fon oder Com­put­er, oder ob es sich um kün­st­lerische Phänomene wie Sam­pling, Resyn­these oder elek­troakustis­che Musik im All­ge­meinen han­delt.[52]

 

Lit­er­atur

Bar­low, Clarence (1998): On the Spec­tral Analy­sis of Speech for Sub­se­quent Resyn­the­sis by Acoustic Instru­ments. in: Forum Pho­neticum, Bd. 66, S. 183–90.

Chion, Michel: Audio-Vision. Sound on screen. New York 1990.

Dufourt, Hugues: Musique spec­trale. In: Doku­ment der Société Nationale de Radiod­if­fu­sion, Radio France/Societé Inter­na­tionale de Musique Con­tem­po­raine (SIMC), 1979, S. 30–32.

Emmer­son, Simon: The lan­guage of elec­troa­coustic music, Lon­don 1986.

Grey, John M.: An Explo­ration of musi­cal tim­bre, Stan­ford 1975.

Har­vey, Jonathan: In Quest of Spir­it: Thoughts on Music. Berke­ley 1999.

Ders.: Spec­tral­ism. In: Con­tem­po­rary Music Review, Bd. 19/3, 2001, S.11–14.

Ders.: Speak­ings. Lon­don 2008.

Kling­beil, Michael K.: Spec­tral Analy­sis, Edit­ing, and Resyn­the­sis: Meth­ods and Appli­ca­tions, New York 1999.

Smal­l­ey, Denis: Spec­tro­mor­phol­o­gy: explain­ing sound-shapes. In: Organ­ised Sound, Bd. 2/2, 1997, S. 107–126.

Sund­berg, Johan: The Sci­ence of the Singing Voice. Dekalb 1987.

Wes­sel, David: Tim­bre Space as a Musi­cal Con­trol Struc­ture. In: Com­put­er Music Jour­nal, 3/2, 1979, S. 45–52.

Whit­tall, Arnold: Jonathan Har­vey. Lon­don 1999.

Otto Wanke, geboren 1989 in Znaim (Tschechien), studierte in Wien an der Uni­ver­sität für Musik und darstel­lende Kun­st (mdw) und am MUK instru­men­tale Kom­po­si­tion bei Wolf­gang Lieb­hart sowie elek­troakustis­che und mul­ti­me­di­ale Kom­po­si­tion bei Karl­heinz Essl und Iris ter Schiphorst. Anschließen­des Dok­toratsstudi­um (Musik­wis­senschaft) eben­falls an der mdw (bei Gesine Schröder). 2018–2022 Tech­nis­ch­er Assis­tent am Insti­tut für Volksmusik­forschung und Eth­no­musikolo­gie der mdw und seit 2020 Uni­ver­sität­sas­sis­tent für elek­troakustis­che und mul­ti­me­di­ale Kom­po­si­tion an der Janáček-Akademie für Musik und darstel­lende Kun­st Brünn.

Wanke erhielt mehrere Kom­po­si­tion­spreise (Niko­laus-Fheodo­r­off-Preis, Theodor-Körn­er-Preis, Fred­er­ic-Mom­pou-Preis u.a.), seine Kom­po­si­tio­nen wur­den bei Fes­ti­vals wie Wien Mod­ern, Acht Brück­en oder Carinthis­ch­er Som­mer aufge­führt. Zusam­me­nar­beit u.a. mit dem Ensem­ble PHACE, OENM, dem Tonkün­stler-Orch­ester, dem Sym­phonieorch­ester Vorarl­berg; Aufträge u.a. der Nation­alop­er in Warschau, des öster­re­ichis­chen Kul­tur­min­is­teri­ums, des ZKM Karl­sruhe. Wanke ist auch als Per­former in der elek­troakustis­chen Musik tätig, meist in Koop­er­a­tion mit Live-Musik­ern.


[1] Die tech­nis­chen Fortschritte am Anfang des 20. Jahrhun­derts haben das gesan­gliche Ele­ment im Bere­ich von instru­men­taler Musik noch poten­ziert – wie beispiel­sweise das Poten­zial ein­er präzisen Vibra­to-Gestal­tung beim Theremin oder bei den Ondes Martenot sowie die Arbeit mit For­mantre­gio­nen über den Ein­satz eines For­mant-Fil­ters bei Trau­to­ni­um illus­tri­ert.

[2] Die FFT-Analyse (Fast Fouri­er Trans­for­ma­tion) ist eine Mess­meth­ode, welche das Sig­nal – unter Her­anziehung der drei Dimen­sio­nen Fre­quenz, Ampli­tude und Zeit – in einzelne spek­trale Kom­po­nen­ten zer­legt.

[3] Die möglichen Klangquellen bzw. Mod­el­lk­länge reichen von har­monis­chen über inhar­monis­che bis zu geräusch­haften Klän­gen. Die Klangquellen beste­hen in Klän­gen, die aus vokal-instru­men­tal­en sowie auch elek­tro­n­is­chen Klän­gen und aus entsprechen­den Ver­fahren (Ampli­tu­den-, Fre­quenz-, Ring­mod­u­la­tion etc.) her­vorge­gan­gen sind. Oft erzeugt die Inter­po­la­tion zwis­chen den jew­eili­gen Spek­tren die Gliederung der Kom­po­si­tion.

[4] Diese zeitliche Aus­dehnung bet­rifft die Ton­dauern und damit auch man­nig­faltige Mikroeigen­schaften des Tones. Die zeitliche bzw. hor­i­zon­tale Aus­dehnung enthüllt den inneren Dynamis­mus des Klangs, dessen Oszil­la­tion an der Gren­ze zwis­chen Har­monik und Klang­farbe eng mit diesem Maßstab­wech­sel verknüpft ist. Sub­tile Klangfluktua­tionen wie vari­able Vibra­to-Geschwindigkeit­en, mikro­tonale Glis­san­di, Triller oder Tremoli kon­stru­ieren ambigue Klanggesten, welche zugle­ich vom Para­me­ter der Ton­höhe wie auch von den Para­me­tern Rhyth­mus und Klang­farbe geprägt sind.

[5] Ein solch­es har­monisch-tim­brales Span­nungsver­hält­nis kann beispiel­sweise an Jean-Claude Ris­sets Muta­tions (1969) für Fixed Media beobachtet wer­den, wo diesel­ben Fre­quen­zen oft sowohl für die Kon­sti­tu­tion eines instru­mentalen Tim­bres wie auch für eine har­monis­che Kon­struk­tion Ver­wen­dung find­en.

[6] Der Begriff ist indes auch für die gängige Musikprax­is von Bedeu­tung, sei es für die Imi­ta­tion im Kon­tra­punkt (infra-musikalis­che Nachah­mung), seien es das Pro­gramm von Pro­gram­m­musik oder der Affekt in ein­er Komposi­tion, die nach der barock­en Affek­ten­lehre funk­tion­iert.

[7] Vgl. Smal­l­ey: Spec­tro­mor­phol­o­gy: explain­ing sound-shapes.

[8] So wird beispiel­sweise der Mod­el­lk­lang des Posaunen-Tons in Par­tiels im Laufe des Stück­es eben­falls durch spek­trale Manip­u­la­tio­nen wiederum ver­fremdet. Darüber hin­aus ist dur­chaus typ­isch, dass mehrere Klangquellen im Laufe des Stück­es resyn­thetisiert wer­den, wobei unter ihnen zur Gestal­tung trans­for­ma­torisch­er Klangtrajekto­rien kommt.

[9] Das Stück wurde zusät­zlich auch vom IRCAM/Radio France mit­beauf­tragt, was ermöglichte, dass die Elek­tron­ik mit Hil­fe der Assis­ten­ten Gré­goire Car­pen­tier, Arshia Cont und Gilbert Nouno an diesem Insti­tut real­isiert wer­den kon­nte.

[10] Die Auseinan­der­set­zung mit dem Sprechen ist bere­its in Har­veys Mor­tu­os Plan­go, Vivos Voco (1980) für Fixed Media (acht Kanäle) zu find­en, wo der Kom­pon­ist die Wech­selspan­nun­gen zwis­chen kün­stlich-syn­thetisiert­er und gesam­pel­ter Sprache sowie ihren spek­tralen Mod­i­fika­tio­nen in Rich­tung des Glock­en-Mod­el­lk­langs (Mor­ph­ing) erforscht hat.

[11] Har­vey: Speak­ings, S. vi.

[12] Vgl. eben­da, S. vi. Har­vey set­zt die Erforschung der präver­balen Phase bei Kindern durch die Psy­cholin­guis­tik (wie z.B. bei Jacques Lacan und Julia Kris­te­va) mit der the­o­retis­chen Per­spek­tive der alten bud­dhis­tis­chen Texte (wie z.B. von Laṅkā­vatāra Sūtra) in Verbindung. Nach Har­vey stellt diese Phase einen wichti­gen Fak­tor für die Sub­jek­tkon­sti­tu­tion dar (vgl. Har­vey: In Quest of Spir­it, S. 49). Gle­ichzeit­ig deutet er die spek­tral­is­tis­che Tech­nik in Anlehnung an die Psy­cholin­guis­tik (konkret zu Kris­te­va), indem er sie mit der Semi­otik ver­gle­icht, die im Unter­schied zur Lin­guis­tik auf ein­er niedrigeren Ebene von Zeichen­sys­te­men operiert. Dieses semi­o­tis­che Funk­tion­ieren bezieht Har­vey auf das Tim­bre, da es außer­halb der Zeit liege, damit auf ein­er Metaebene der Kom­po­si­tion wirk­sam werde und gle­ichzeit­ig die Har­monik sub­sum­miere: „It is not a ques­tion for me of for­sak­ing har­mo­ny and regard­ing every­thing as tim­bre, rather that har­mo­ny can be sub­sumed into tim­bre“ (Har­vey: Spec­tral­ism, S. 13f.).

[13] Für die Prozesse der Live-Elek­tron­ik hat Har­vey aus dem Orch­ester elf Solo-Instru­mente aus­gegliedert, deren Sig­nale mit Clip-On-Mikro­pho­nen bei der Per­for­mance aufgenom­men wer­den (vgl. Smal­l­ey: Spec­tro­mor­phol­o­gy, S. v).

[14] Diese kom­merzielle Soft­ware ist u.a. ein oft einge­set­ztes Mit­tel bei der Post­pro­duk­tion pop­ulär­er Musik. Sie wird beispiel­sweise für Into­na­tion­sko­r­rek­turen bei Auf­nah­men von Gesang ver­wen­det.

[15] Die Sprach­frag­mente bein­hal­ten z.B. Har­veys eigene Auf­nah­men (wie z.B. Mantra OM-AH-HUM, Rez­i­ta­tion von Frag­menten aus T. S. Eliots The Waste Land), Auf­nah­men von Babygeschrei, Baby-Gebrabbel und Frag­menten aus einem TV-Inter­view mit Matt Groen­ing (dem Autor von Die Simp­sons).

[16] Diese Soft­ware wurde am IRCAM entwick­elt und gehört zu den wichtig­sten Pro­gram­men im Rah­men der com­­put­er-assistierten Kom­po­si­tion. In der Soft­ware wur­den zuerst die Par­tial-Track­ing-Analy­sen (FFT-Analy­sen) ver­fertigt, die im näch­sten Schritt als SDIF-Dateien in Open­Mu­sic bear­beit­et wur­den. Aus den Dateien wur­den an­schließend der melodisch-har­monis­che sowie der rhyth­mis­che Noten­text extrahiert, ohne aber tim­brale Aspek­te zu berück­sichti­gen.

[17] Die Quan­tifizierung beschreibt einen Prozess, bei dem die Fre­quen­zen und ihre in Mil­lisekun­den angegebe­nen Zeit­po­si­tio­nen auf eine wählbare kle­in­ste mikro­tonale Unterteilung (z.B. in Vierteltöne) und auf das kle­in­ste rhyth­mische Raster (wie z.B. auf 32-tel) approx­imiert wer­den.

[18] Die Tran­sien­ten-Erken­nung lässt sich eben­falls als Mech­a­nis­mus für die Gener­ierung von rhyth­mis­chen Pulsen ein­set­zen. Durch Anwen­dung schrit­tweis­er Schwellen­werte für die Tran­sien­ten-Erken­nung wer­den rhyth­mis­che Muster mit steigen­der oder abnehmender Dichte erzeugt. Gle­ichzeit­ig entste­ht damit eine hier­atis­che rhyth­mis­che Matrize, da die stärk­sten Tran­sien­ten in den schwäch­sten Ebe­nen eben­falls enthal­ten sind.

[19] Die Entste­hung der Kom­po­si­tion Speak­ings wurde mit dem ersten Pro­to­typ dieser com­put­er-assistierten Soft­ware verknüpft, die am IRCAM in Zusam­me­nar­beit mit Gré­goire Car­pen­tier, Arshia Cont, Gilbert Nouno, und Har­vey ent­stand.

[20] Diese Funk­tion­al­ität wurde seit­dem in den nach­fol­gen­den Ver­sio­nen Orchids und vor allem Orchidea deut­lich verbessert. Hier kön­nen eben­falls län­gere kom­plexe Klang­mor­pholo­gien durch die Tran­sien­ten-Erken­nung sowie eine intel­li­gente konkate­na­tive Zusam­menset­zung resyn­thetisiert wer­den.

[21] Die Entwick­lung der Soft­ware Orchidée am IRCAM stellt den ersten Pro­to­typ der com­put­er-assistierten Orchest­rierungssoftware dar, welche die Tech­niken der spek­tralen Resyn­these mit der Logik von MIR (Music Infor­ma­tion Retrieval) verknüpft. Bei MIR beste­ht der Ansatz in der Sig­nal­analyse und Extrak­tion der spez­i­fis­chen Merk­male solch­er Sig­nale, die sich als Vek­toren bzw. Merk­malsvek­toren in ein­er Matrize abspe­ich­ern lassen. Den akusti­schen sowie psy­choakustis­chen Merk­malen entsprechend fol­gt dann eine Zuord­nung zu den jew­eili­gen Sam­ples, welche am besten zu den analysierten Eigen­schaften passen. Die Sam­ples wur­den bezüglich ihrer Merk­male schon im Vorhinein analysiert und in ein­er Daten­bank gespe­ichert.

[22] Die Posaune gehört in die Gruppe von elf Soloin­stru­menten, deren Sig­nale ampli­fiziert und elek­tro­n­isch bearbei­tet wer­den.

[23] Die spek­trale Analyse und quan­tisierte Resyn­these in Open­Mu­sic behan­deln dieselbe Stelle aus der Par­ti­tur wie Melo­dyne, wobei aber ein ander­er tech­nis­ch­er Ablauf vol­l­zo­gen wird.

[24] Der instru­men­tale Effekt ist hier zusät­zlich mit der elek­tro­n­is­chen Tech­nik Shape-Vocod­ing verknüpft, welche die Ver­schränkung bei­der Ele­mente unter­stützt. Inner­halb der wirk­lichen Cross-Syn­these mod­el­liert typ­is­cher­weise das mod­ulierende Sig­nal (wie z.B. die Stimme) ein reich­haltiges spek­trales Trägersig­nal. Die jew­eili­gen Frequen­zen des Spek­trums wer­den miteinan­der mul­ti­pliziert, wom­it sich die gemein­samen Kom­po­nen­ten ver­stärken und die Dif­feren­zen wiederum abgeschwächt wer­den.

[25] Die Library SOL (Stu­dio On Line) enthält man­nig­faltige Sam­ples erweit­ert­er Spiel­tech­niken, die nor­maler­weise in den instru­men­tal­en Libraries nicht enthal­ten sind. Sie dienen hier als klan­glich­es Reser­voir für eine soge­nan­nte cor­pus-based-analy­sis. Der Zugriff auf größere Audio­daten­banken wurde später durch die Nutzung der 64-Bit-Architek­tur in Max noch poten­ziert. Alle Klänge in SOL wur­den mit Hil­fe von IRCAM-Deskrip­toren analysiert und in Data­base abge­spe­ichert.

[26] Es han­delt es sich um eine Sub­kat­e­gorie von Music Infor­ma­tion Retrieval (MIR), wobei hier aus einem Sig­nal eine Rei­he von Meta­dat­en (bzw. Audio-Merk­male) – wie z.B. spec­tral cen­troid oder spec­tral spread – extrahiert wird. Diese Dat­en wer­den im näch­sten Schritt in eine Daten­bank (bzw. als Merk­malsvek­tor) abge­spe­ichert. Auf­grund der Kor­re­spon­den­zen dieser Audio-Merk­male wer­den dann die einzel­nen Sam­ples mit dem Mod­el­lk­lang ver­glichen. Die MIR-Entwick­lun­gen sind eben­falls mit der Entste­hung des For­mats MPEG-7 (Mul­ti­me­dia Con­tent Descrip­tion Inter­face) verknüpft – ein stan­dar­d­isiertes For­mat für die Anwen­dung von beschreiben­den Informatio­nen auf Audioin­halte, die z.B. akustis­che, psy­choakustis­che etc. Deskrip­toren umfasst. Später wur­den dadurch wiederum Werkzeuge wie Tim­bre Tool­box in Mat­lab bee­in­flusst.

[27] Bere­its in den frühen 1970er Jahren set­zten Forsch­er wie John Grey, Reinier Plomp und David Wes­sel bei Hörtesten zur Klang­far­ben­wahrnehmung die Tech­nik der mul­ti­di­men­sion­alen Skalierung (MDS) ein. In ihren statis­tischen Ansätzen wurde die Klang­farbe auf einen Kern­satz von Merk­malen reduziert, und dieser wurde ver­wen­det, um 3D-Dia­gramme zu erstellen, die den wahrgenomme­nen Abstand zwis­chen ver­schiede­nen Instru­menten auf­zeichneten (vgl. z.B. Grey: An Explo­ration of musi­cal tim­bre; Wes­sel: Tim­bre Space as a Musi­cal Con­trol Struc­ture).

[28] Die Resyn­these von OM-AH-HUM stellt ein typ­is­ches Beispiel für die sta­tis­che Vari­ante der com­put­er-assistierten Orchestrierung dar. Jedes von drei Phone­men wird mit einem instru­men­tierten Akko­rd in Orchidée resyn­thetisiert. Diesen Prozess set­zt Har­vey zu ein­er Kette von Resyn­the­sen fort, indem er die Para­me­ter für jede neue Resyn­these sukzes­siv ändert.

[29] Har­vey hat dieses Anliegen sog­ar durch eine Notiz für den Diri­gen­ten oder die Diri­gentin betont, wo er die detail­lierte dynamis­che Arbeit während der Orch­ester­proben ver­langt.

[30] Die zweite Ver­sion der Soft­ware ermöglicht die Ver­ket­tung der einzel­nen Resyn­the­sen im Mod­ul Maque­tte, welch­es teil­weise wiederum aus der Soft­ware Open­Mu­sic über­nom­men wurde. Die Restrik­tio­nen des Eingangs­klanges sowie auch die aus­gewählten Para­me­ter der Orchestrierung inter­agieren damit inner­halb ein­er tim­bralen Tra­jek­to­rie, welche diverse Orch­ester­mix­turen her­vor­bringt.

[31] Emmer­son: The lan­guage of elec­troa­coustic music, S. 17f.

[32] Shape-Vocod­ing basiert auf der effizien­ten Tech­nik der Lin­ear Pre­dic­tive Cod­ing (LPC) in der Max-Bib­lio­thek Gabor, welche die kom­prim­ierte spek­trale Hül­lkurve bzw. die For­man­ten-Struk­tur gener­iert.

[33] Die Reartiku­la­tion der Vokale und Kon­so­nan­ten stellt oft eine schnelle Inter­ak­tion dar, sodass eine klare Unter­scheidung zwis­chen den Kom­po­nen­ten nicht mehr möglich ist (vgl. Sund­berg: The Sci­ence of the Singing Voice, S. 3).

[34] Diese Tech­nik wird von Har­vey als Shape-Vocod­ing beschrieben (vgl. Smal­l­ey: Spec­tro­mor­phol­o­gy, S. vi) und kann wiederum mit der Cross-Syn­these verknüpft wer­den, da die dynamis­che Sprach­hül­lkurve als Mod­u­la­tor auf instru­men­taler Ebene einge­set­zt wird. Gute klan­gliche Ergeb­nisse wur­den eben­falls durch die Anwen­dung der am IRCAM entwick­el­ten Super­VP (Super Phase Vocoder) erzielt, die eine tech­nisch präzis­ere Vari­ante des Phase-Vocod­ing darstellt.

[35] Har­vey fordert für die Spa­tial­isierung sechs bis acht Laut­sprech­er und ein Stereo-Paar von Sub­woofern. Die Spa­tial­isierung wird mit einem Mul­ti-Touch-Con­troller und Max-Patch ges­teuert. Die Pre­sets in Max wer­den vom MIDI-Key­board getrig­gert und zusät­zlich von den Assis­ten­ten fein­justiert. Das Patch bein­hal­tet Vor­e­in­stel­lun­gen (Pre­sets), welche die rhyth­mis­chen Muster und Tem­pi der Spa­tial­isierungstra­jek­to­rien enthal­ten. So bedeutet z.B. der Befehl r3 t15 in der Par­ti­tur Rhyth­mus-Muster 3, Tem­po 15 pro Vier­telschlag (vgl. Smal­l­ey: Spec­tro­mor­phol­o­gy, S. 1).

[36] Bar­low: On the Spec­tral Analy­sis of Speech for Sub­se­quent Resyn­the­sis by Acoustic Instru­ments, S. 184.

[37] Eine solche rhyth­mis­che Präzi­sion lässt eine Assozi­a­tion zu Peter Ablingers Zyk­lus Qudra­turen III (1998–2004) für Selb­st­spielklaviere entste­hen, die u.a. die men­schliche Stimme rekon­stru­ieren. Die aufgenommene Sprache wird dort durch ein com­put­erges­teuertes Selb­st­spielklavier repro­duziert. Dies wird real­isiert durch eine Spiel­konstruktion auf der Basis von 88 elek­tro­mag­netis­chen ‚Fin­gern‘ (Hub­mag­neten), die an jedem nor­malen Klavier oder Flügel ange­bracht wer­den kann. Die große Dichte der Aktio­nen und ihre rhyth­mis­che Präzi­sion sind dabei die wichtig­sten Para­me­ter für die Plas­tiz­ität der Resyn­the­sen.

[38] Die Soft­ware Antesco­fo wurde im IRCAM entwick­elt. Sie übern­immt die Rolle eines inter­nen Diri­gen­ten, wobei durch die Tech­nik des Score Fol­low­ing die Par­ti­tur elek­tro­n­isch gele­sen wird und die Befehle der Live-Elek­tron­ik auf­grund des analysierten Noten­ma­te­ri­als ges­teuert wer­den.

[39] Die Nota­tion des Parts in der Abbil­dung stellt keine klin­gen­den Ton­höhen dar, son­dern zeigt die Befehle, die den jew­eili­gen Tas­ten (d.h. ‚Ton­höhen‘) zuge­ord­net sind und die durch Tas­ten ges­teuert wer­den.

[40] Vgl. Har­vey in: Whit­tall: Jonathan Har­vey, S. 23)

[41] In der ersten Sek­tion erklingt mehrmals eine unter­schwellige Fre­quenz von 17 Hz (S. 1, 3, 5 und 11), die durch ein Key­board getrig­gert und zusät­zlich mit dem Kon­tra­bass ver­dop­pelt wird. Diese eige­nar­tige rhyth­misch-schwe­bende Klanggeste lässt sich mit den Muskelkon­trak­tio­nen im Kehlkopf assozi­ieren – im Grunde ein sägezah­nar­tiger Oszil­la­tor, der seine Energie auf die Luft­säule im Vokaltrakt überträgt. Auf die beschriebene Weise lässt Har­vey die Stimme assozia­tiv entste­hen, indem er kör­per­lichen Vorgänge simuliert.

[42] Die elek­tro­n­isch prozessierte Oboe (ab S. 10 der Par­ti­tur) und die Alt­flöte (ab S. 13) als Fun­da­ment­töne in Kom­bination mit der Stre­ich­ersek­tion als For­man­ten-Struk­tur bilden in diesem Seg­ment die häu­fig­ste Kom­bi­na­tion.

[43] Es lässt sich hier z.B. die Beziehung zwis­chen Mikro- und Makroglis­san­di in Xenakis Metas­ta­seis anführen, wo die indi­vidu­ellen Lin­ien in einem Kon­glom­er­at von Glis­san­di resul­tieren und schließlich ein Makroglis­san­do auf­bauen. Gle­ichzeit­ig kommt es hier zu ein­er Wech­selspan­nung zwis­chen den direk­tionalen Glis­san­di. Xenakis hat die kon­tinuier­lichen Gesten darüber hin­aus auch durch ran­domisierte Vari­anten der Glis­san­di erforscht (wie z.B. in Mik­ka von 1971 für Vio­line solo), die u.a. auf der brown­schen Bewe­gung beruhen.

[44] Vgl. Smal­l­ey: Spec­tro­mor­phol­o­gy, S. vi.

[45] Diese Lin­ien basieren vor­rangig auf den dynamis­chen Analy­sen von Melo­dyne.

[46] Har­vey lässt damit eine Wech­selspan­nung zwis­chen den abstrak­ten und tim­bral-assozia­tiv­en Resyn­the­sen aus Orchidée und der dynamis­chen Resyn­these von Melo­dyne und Open­Mu­sic entste­hen, welche die mor­phol­o­gis­che Entwick­lung der Sprache ein­fan­gen.

[47] Vgl. Smal­l­ey: Spec­tro­mor­phol­o­gy, S. 116.

[48] Die allmäh­liche Über­leitung des Mantra-Gesangs in ein Mod­ell der Gre­go­ri­anik illus­tri­ert eine für Har­vey charak­teristische Ten­denz, die Verbindun­gen zwis­chen Bud­dhis­mus und Chris­ten­tum zu the­ma­tisieren und sie in musi­kalische Ambi­gu­i­täten zu pro­jizieren.

[49] Das Con­vo­lu­tion-Reverb kann aus tech­nis­ch­er Per­spek­tive mit dem Effekt der Cross-Syn­these assozi­iert wer­den, da die akustis­che Sig­natur bei diesem Effekt durch Kon­vo­lu­tion auf die bear­beit­eten Sig­nale einge­set­zt wer­den. Diese Wech­selspan­nung stellt u.a. auch Mark Andres (* 1964) Echografie dar. Durch die Impulse-Response-Tech­nik (in der Sine-Sweep-Vari­ante) von Kon­vo­lu­tion-Reverb zeich­net der Kom­pon­ist eine akustis­che Sig­natur des Raumes auf. Diese wird anschließend durch FFT analysiert und als Ton­ma­te­r­i­al benutzt. Das Ver­fahren wird von Andre z.B. in dem Stück hij 2 (2010/12) für 24 Stim­men und Elek­tron­ik ver­wen­det, wo er den Klang der Grabeskirche in Jerusalem analysiert hat. Die Raum-Sig­natur wird dann im Laufe des Stück­es wieder von Sänger*innen neu impulsiert und das Echo durch Kon­vo­lu­tion auf die Stim­men über­tra­gen.

[50] Smal­l­ey: Spec­tro­mor­phol­o­gy, S. vi.

[51] Ab Seite 89 der Par­ti­tur wer­den zusät­zlich unter den Solostre­ich­ern kurze chro­ma­tis­che Gesten aufgeteilt, welche von ihnen indi­vidu­ell und aleatorisch wieder­holt wer­den sollen. Damit fungieren sie als vari­able Hin­ter­grund­tex­tur zu dem homo­pho­nen orches­tralen Satz. Dies stellt eine kon­trastierende Wirkung zu den bish­er vor­rangig detail­liert auskom­ponierten Tra­jek­to­rien der Stre­ich­er her.

  • 31. Dezember 20233. Januar 2025
„Rap ist Vielfalt, jegliche Richtung“ Gedanken zum Hörerlebnis Rap
DRACH von Szczepan Twardoch und Aleksander Nowak. Ein schlesisches Dramma per musica vom Schweine- und von Menschenschlachten[1]
© ZAeB
Theme by Colorlib Powered by WordPress