You are on page 1of 12

Donaueschinger Musiktage 2002

Michael Lentz
Sprechen macht die Musik. Ein Ausflug in Grenzbereiche

Musik und Sprache. Positionen.

Theodor Adorno zufolge ist Musik kategorisch nicht Sprache. Nicht nur als auch
zeitlich organisierter Zusammenhang von Lauten sei Musik „analog zur Rede,
sprachähnlich, sondern in der Weise ihres konkreten Gefüges“ („Fragment über Musik
und Sprache“).
Die Sprachähnlichkeit von (traditioneller bis gemäßigt-moderner) Musik begründet
Adorno mit dem Hinweis auf die sprachlicher Grammatikalität, Syntagmatik und
Prosodie entliehene Begrifflichkeit aus der musikalischen Formenlehre, die „von Satz,
Halbsatz, Periode, Interpunktion, Frage, Ausruf, Parenthese“ wisse, „Nebensätze finden
sich überall, Stimmen heben und senken sich, und in all dem ist der Gestus von Musik
der Stimme entlehnt, die redet“.
Adornos „Diktum von bloßer Sprachähnlichkeit“ (Karlheinz Ludwig Funk) der
Musik steht z. B. Henri Pousseurs und Nicolas Ruwets Urteil „Musik ist Sprache“
gegenüber. Dies wird Ruwet zufolge linguistisch verstanden: Die Musik stellt eines
unter vielen Kommunikationssystemen dar, „mit deren Hilfe die Menschen
Bedeutungen und Werte austauschen. Um zu bestehen, eine Wirksamkeit zu entfalten“,
müsse sie „Regeln gehorchen, die auf eine allgemeine Art und Weise das Funktionieren
eines Kommunikationssystems ermöglichen“.
Nach Gerold Ungeheuer geht das, „was an Sprache als musikalisch bezeichnet
werde [...] ebenso wie das, was an Musik sprachlich“ erscheine, lediglich auf einen
metaphorischen Sprachgebrauch zurück und begründe nicht die eigentliche Ähnlichkeit
von Sprache und Musik. Vielmehr liege eine strukturelle Ähnlichkeit im Grundriss, in
der kategorialen Schichtung beider Ausdruckssysteme vor, die sich beide im gleichen
Medium, dem Schallereignis, manifestieren.
Als Problemkonstante der Debatte um die Differenzqualitäten von Sprache und
Musik kann die Dichotomie psychologischer (wahrnehmungsorientierter) versus
zeichentheoretischer (Verschriftung, Repertoire) Ansatz benannt werden, womit
zugleich der alte Prioritätenstreit zwischen phoné und gramma wieder aufgegriffen wird
– gerade nicht im Sinne einer voreiligen Versöhnung dieser die Philosophiegeschichte
durchsetzenden Positionen spricht Derrida demgegenüber von ihrer
‚Gleichursprünglichkeit’. Ich plädiere dafür, vom zu Hörenden auszugehen, dessen
zugrundeliegende Verschriftung gegenüber der akustischen Realisation ein bloß
subsidiäres System darstellt – oder als graphische Partitur ein autonomes ästhetisches
Eigenleben führt.
Aus gestalttheoretisch-wahrnehmungsbezogener Sicht argumentiert Martin
Maurach, dass die „Aktivität des Hörers [...] alles andere als eine der
Repertoireselektion analoge Folge von schrittweise determinierenden Wahlen“ ist.
Hören sei „irreversibel“ – „und dazu vermutlich von einem ganzheitlichen
Vorverständnis geleitet“. Das informationstheoretische Modell von Repertoire,
Selektion und Kommunikationssystem in seiner möglichen Funktion als Denkfigur der
Abgrenzung von Musik und Sprache/Poesie lässt sich demnach nicht auf die Ebene der
Rezeption verlagern, für die andere Kriterien der Wahrnehmungsorganisation gültig
sind. Der Hörer hört nicht zeichentheoretisch, genauso wenig wie Hören
definitionsgeschichtlich determiniert werden kann.
Rezeptionslenkend mag vielleicht schon die bloße Kontextuierung von Hörstücken
als poetische oder musikalische sein, wie z. B. im Rahmen von Programmgestaltungen
(Lesungen, Konzerte, Festivals, Radiosendungen). Auf diese Weise könnten auch
akustisch realisierte (traditionellere) Spracharbeiten mit stabilen Figur-Grund-
Verhältnissen über intonatorische Verläufe der Sprecherstimme hinaus ‚musikalisiert'
werden, kontextuierte man sie z. B. zwischen zwei Instrumentalstücken.
Neuere Entwicklungen avancierter Musik und Literatur entgrenzen die
Beschreibungsmodelle invarianter Repertoires in Richtung auf ein „total sound-
producing potential“ (Björn Lindblom) gerade durch die ästhetische Funktionalisierung
ektosemantischer oder paralinguistischer Signale. Eine Reihe von Beispielen
lautgestischer Poesie bzw. Musik zeigt, dass – artikulierend zwischen
wiedererkennbaren Sprachlauten und -geräuschen und spezifischen stimmlichen
Merkmalen – Ernst gemacht werden soll mit der Rede vom „possible speech sound“
(Lindblom), und das auch mit viel ‚lautzwinkerndem’ Humor. Das heißt, es wird hier
ein bewusstes Spiel getrieben mit der auditiven Wahrnehmungsfähigkeit, Schallquellen
zu orten und Gehörtes mit Erinnerung zu verrechnen.
Folgende für Hörstücke aus dem Bereich Lautpoesie/-musik und Vokalkomposition
gleichermaßen relevante Faktoren, die für die Entwicklung der auditiven Kunst nach
1945 von großer Bedeutung sind, lassen sich typologisch erkennen:

- Desemantisierung durch Dekomposition von Sprache,


- Technisierung der Produktionsmittel,
- quasianalytische Komposition verschiedener Merkmalschichten der Stimme,
- ‚kompositorische' Gestaltung der auditiven Parameter Lautstärke, Tonhöhe,
Klangfarbe, Tempo, rhythmische Gliederung einschließlich Pausengestaltung,
Entfernungseindruck, Raumklang, Position im Stereoraum,
- Figur-Grund-Umkehrungen als Indikatoren eines produktionsästhetischen
Paradigmenwechsels.

Vokalkompositionen nach 1956, angefangen mit Karlheinz Stockhausens Gesang der


Jünglinge, erproben eine „Integration von Sprache und Musik im Parameter
Klangfarbe“ (Werner Klüppelholz).
Während beim traditionellen Vertonungsmodell das Auskomponieren des
vokalischen Lautbereichs eines Textes, die rhythmische Deklamation und
Melodieführung dem – von Elmar Budde ontisch als invariant vorausgesetzten –
„Sprechtonfall der zugrunde liegenden Gedichte“ folge, woraus eine emphatische
Überhöhung z. B. einer Gedichtvorlage durch die musikalische Diktion resultiert, wird
mit Arnold Schönberg auf einen Text kein traditionelles Vertonungsmodell mit
„normativ-verbindlichen Vermittlungskategorien“ mehr appliziert.
Für Herbert Eimert weicht in der seriellen und elektronischen Musik das „alte
Problem“ der Wahrnehmungshierarchie, „ob das Wort oder ob der Ton dominiert, der
mikrologischen Auffassung, daß isolierte Satzteile, Worte und einzelne, gesprochene
Buchstaben in einer neuen, akustisch-phonetischen Ordnung zusammengefaßt werden
und kompositorisch sinnvoll ‚Klangstruktur' bilden können“ – ein ganz der Geschichte
der Lautpoesie entsprechendes ästhetisches Verständnis.
Einen generellen Unterschied zwischen traditionellen Wortvertonungen (Pierre
Boulez zufolge „Lektüre mit Musik“) und Kompositionen mit Sprachmaterial in der
seriellen Musik markiert Hans Günter Tillmann durch die Feststellung, dass in jener die
Musik unabhängig von einem immer noch veränderbaren oder sogar austauschbaren
Text existiere, während in letztgenannter die Sprache „als Klangmaterial genommen
und als solche in die Organisation eines Stückes integriert“ sei. Diese Differenzqualität
lässt sich auch konstatieren sowohl für die akustischen Genres der ‚Literatur’ (z. B. den
sonorisierten Gedichten Paul de Vrees) wie für Sprachmaterial integrierende
Kompositionen im Bereich der ‚Musique concrète’ als auch z. B. für die
computergenerierte Musikinstallation Talkmaster's Choice von Klarenz Barlow oder
Trevor Wisharts VOX-Zyklus (1990), der insgesamt als eine Art ‚Programm-Musik'
bezeichnet werden kann, und sein aus musikalischen Transformationen der
menschlichen Stimme bzw. ausgewählter, vom Autor selbst realisierter Artikulationen

komponiertes Computerstück Tongues of Fire (1994).


Im Sinne der binären Formel „klangästhetischer Aspekt“ = musikalischer Aspekt –
begrifflich-„semantischer Aspekt“ = sprachlicher Aspekt bedeutet für Koenig wie z. B.
für Stockhausen die graduierbare Desemantisierung von Sprache eine mit dieser
einhergehende Musikalisierung sprachlichen Materials. Wenn Sprache sich also von
ihrer klangsinnlichen Seite her als Musik auffassen lässt, bleibt zu fragen, unter
welchem musikalischen Gesichtspunkt jedes Sprechen gehört werden kann und nach
welchen intersubjektivierbaren Kriterien.

Rekurs ‚Lautpoesie’

Lautpoesie/-musik ist ein Genre der akustischen Kunst im intermedialen Grenzbereich


von Poesie und Musik. Insbesondere nach 1945 werden von den unterschiedlichen
Ausformungen dieses Genres alle an artikulatorischen Prozessen beteiligten
Sprechorgane und -werkzeuge und der Atemapparat stimmlich-kompositorisch
funktionalisiert und so das gesamte menschliche Klang- und Geräuschpotential
erfahrbar gemacht.
Die Stimme rückt in den produktions- wie rezeptionsästhetischen Mittelpunkt. Dass
die lautpoetisch bzw. lautmusikalisch verwendete Stimme wie z.B. bei den „extended
vocal technics“ erprobenden Stimmkünstlerlnnen Joan La Barbara, Isabeella Beumer,
Diamanda Galas, Brenda Hutchinson, Fátima Miranda, Phil Minton und Meredith Monk
vom ausgebildeten (experimentellen) Gesang herkommt, ist eher die Ausnahme.
Für die verschiedenartig inszenierte Lautartikulationskunst sind in der
Wahrnehmungshierarchie instabile Beziehungen u.a. von sprachlichen und stimmlichen
Merkmalen oder allgemein von Laut und Stimme konstitutiv.
Lautpoesie, die auch als Wiederentdeckung oraler und ethnopoetischer Traditionen
gilt, bildet sich auf der Grundlage von akustisch realisierten zeichenkodierten Texten
(alphabetische Buchstabenkombinatorik, phonetische Lautschrift, typographisch-
‚optophonetische’ Notation, graphisch-ikonische Partituren mit z. T. privatkodifizierten
Schriftzeichen, musikalische Notation), deskriptiven Notationen oder nicht mehr ohne
weiteres phonographisch zu (re)notierenden spontanen Artikulationen. Lautgedichte
sind auditive Irritationsexperimente, die von der untersten Einheitenebene eines
Einzellauts bis zu einem hierarchisch substrukturierten, mit den Inventaren von Syntax,
Semantik und Prosodik beschreibbaren Textganzen klangliche Eigenschaften von
Sprachlauten und Stimmenmerkmalen abtasten. Lautgedichte mit ihrer
ausdrucksorientierten, häufig emotionsbesetzten „artikulatorischen Gestik“ (Gerhard
Rühm) lassen dabei oft den Höreindruck einer Nachahmung von Gestik und
Artikulationsfluss realer Sprachen entstehen. Grundsätzlich kann man drei verschiedene
Formen von Lautgedichten unterscheiden: reine Echtzeit-Stücke, Live-Performances in
Kombination mit präfabriziertem Ton- oder Bildmaterial oder akustischen bzw.
optischen Reproduktionsgeräten und reine Studiozeit-Stücke. Zum ersten Mal belegt ist
der Begriff Lautgedicht bei Franz Richard Behrens. Eine erste poetologische
Ausformulierung erfährt er bei Paul Scheerbart und Christian Morgenstern.
Systematisch erprobt wird das ‚Lautgedicht’ im russischen und italienischen Futurismus
und im Dadaismus. Nach 1945 geht die Bezeichnung ‚Lautgedicht’ in dem
umfassenderen Begriff der ‚phonetischen’ oder ‚Laut-Poesie’ (‚sound poetry’, ‚poesie
sonore’, ‚poesia sonora’) auf. Zugleich differenziert er sich durch das Aufkommen
neuer Medien und Sprachverarbeitungstechniken wie z.B. Tonband, Vocoder,
Synthesizer, Computer, Video, Schnitt und Überlagerung verschiedener Signale bzw.
Spuren.
Lautpoesie als stimmliche Performance und ‚Multimedia’-Kunstform konstituiert
sich aus musikalischen, tänzerischen, performativen und visuellen Elementen und ist
Bestandteil der meisten avantgardistischen und experimentellen Strömungen.

Paradigmenwechsel der Lautmusik

Der Ultra-Lettrismus Jean-Louis Brau: Instrumentation verbale, François Dufrêne:


Crirythmes, Gil J. Wolman: Mégapneumes erprobt ab 1953 in seinem extensiven Spiel
mit nonverbal-paralinguistischen Signalen (z.B. Schnalzen, Räuspern, Husten,
Schluchzen, Wimmern, Stöhnen, Lachen, Lallen, Hecheln, Gurgeln, Kreischen), seinen
‚unartikulierten’ Schreien und Atemsequenzen bis hin zum Schnarchen und zu
Speichelgeräuschen die physisch-existentiellen Voraussetzungen von Artikulationen. Er
vollzieht hiermit einen radikalen Paradigmenwechsel in der Geschichte der Lautpoesie
und -musik, der sich überblickshaft beschreiben lässt als:
- Entgrenzung des kodierten und somit restringierten Zeichenrepertoires durch
eine Transformation der Buchstabenverschriftung in eine akustische Notation
der Stimme.
- 'Repertoire' des Ultra-Lettrismus: das „total sound-producing potential of man“,
das dann jedoch kein Repertoire im Benseschen Sinne einer Selektion diskreter,
distinktiver und unteilbarer Einheiten mehr ist.
- Paradigmenwechsel; an die Stelle einer z. T. von mehreren Sprechern (Solo -
Chor) akustisch realisierten 'Partitur' tritt spontanes Artikulieren (‚cri
automatique’) eines einzelnen Sprechers (des Autors), das u. a. durch
mnemotechnisch reproduzierte Artikulationsmuster sowie durch die
„Bewußtwerdung der kinästhetischen Rückkopplung der Sprachorgane“ und der
auditiven Rückkopplung (Selbstaffizierung) während des
Artikulationsvorganges gesteuert wird. Die Stimme als zentraler Bestandteil von
phonetischer bzw. Laut-Poesie tritt in den Vordergrund des produktions- wie
rezeptionsästhetischen Interesses.
- Extensives Spiel mit ‚An-‚ und ‚Abglitt’, Glottisverschluß, nonverbal-
paralinguistischen Signalen (z. B. Räuspern, Husten, Schluchzen, Wimmern,
Stöhnen), stilisiert-emotionalem oder automatisiert-emotionalem oder
rhythmisch-repetitiv strukturiertem Ein- und Ausatmen, stimmdynamischen
Kontrasten (Flüstern, Schreien) in Artikulationskontinua.
- Paradigmenwechsel durch Medienwechsel (Instrumentalisierung des
Tonbandgerätes (zunächst im Homerecordingverfahren); zunächst nur
simplifizierte Anwendung der vom Tonbandgerät bereitgestellten Techniken wie
z. B. Überlagerung von Spuren, wobei hier eine Komplexitätssteigerung -
Wolman (keine Überlagerungen/Collagen) - Dufrêne (Überlagerungen,
Collagen, Bandgeschwindigkeitsveränderungen, Einsatz von Stereo-
Panoramaeffekten) - Brau (Überlagerungen, Collagen, z. T. exzessive
Geschwindigkeitsmanipulationen, Einsatz von Echo, Reverslaufen des
Tonbandes) - zu beobachten ist.
- Demonstration von Sprachwerdung als phonetische Dekomposition (Dufrêne:
U 47, eine akustisch-bruitistische Hommage an das gleichnamige Mikrophon).
Während der gesamten Aufnahme wurde das Mikrophon ganz vorne an den
Lippen positioniert, so dass auch Speichel- und sonstige artikulatorische
Begleitgeräusche zu hören sind, die bei einem konventionalisierten Umgang mit
dem Aufnahmemedium, z. B. bei der Tonträgerproduktion eines 'klassischen'
Gesangsstückes möglichst unterdrückt oder im nachhinein herausgefiltert
würden. In Dieter Schnebels körpergestischer Vokalkomposition An-Sätze. Für
Selbst- und Mitlaute nebst Kopfbewegungen (8'03'') wechseln vokalisenartige
und lautgestische Sprechgesangs-Sequenzen mit Phasen ‚komponierten' Atems.
Die finale Pointe des Stückes bildet der deutlich artikulierte Satz „Ich rede
bereits. Wir sollten enden“.
- Einbeziehung von Vorgefertigtem und Heterogenem: Soundcollagen auch durch
Überlagerung von Lautartikulationen mit nonverbalen Schallquellen wie z. B.
Ausschnitten aus Musikstücken 'klassische' Musik (Dufrêne), Jazz (Brau)
In dieser Tradition (ultra)lettristischer Lautpoesie steht auch Gérard Philippe Broutin
(geb. 1948), seit 1968 Mitglied der von Isidore Isou begründeten lettristischen
Bewegung.

Stimme, Maschine

Die Aufhebung der Tonalität zu Beginn des Jahrhunderts bedingt u.a. den Einbezug des
gesamten Lautbereichs der Sprache in die Musik, die lautliche Materialseite der Sprache
wird „zum eigentlichen Agens des Komponierens“. Sprechen als Tätigkeit und „das
Erzeugen und Von-sich-Geben von Lauten“ (Elmar Budde) werden als ein
musikalischer Prozess begriffen.
Die Sprach- und insbesondere Vokalforschung stellte elektroakustische Analyse-
und Syntheseverfahren bereit, auf die Komponisten elektronischer Musik und im
Bereich der Elektrotechnik arbeitende Akustiker experimentell rekurrieren konnten –
und von denen auch Lautpoeten profitierten.
Für Hörstücke im Bereich von Lautpoesie/Lautmusik und Vokalkomposition lässt
sich im allgemeinen eine analoge Sprach- bzw. Stimmenverwendung konstatieren,
wobei die Radikalität der artikulatorischen Entgrenzung in Richtung auf das „total
sound producing potential of man“ innerhalb der ihrerseits zumeist komplexen
elaborierten Sprach- und Stimmenverwendungs-Zusammenhänge der Vokal- bzw.
Lautkompositionen nach 1956 nicht in gleichem Maße mitvollzogen wurde wie in den
Artikulationsexperimenten der Lautpoesie. Dies mag zum einen durch die ‚historische
Bürde’ der Gesangsstimme, zum anderen durch notationstechnische Restriktionen sowie
Vorgaben dramaturgischer Konzepte mitbedingt sein.
Intonations- und Lautgesten z.B., die im traditionellen musikalischen
Verwendungszusammenhang von Stimme (und Sprache) als Hintergrund gehört
werden, sind in den genannten Lautkompositionen figurbildend funktionalisiert.
Im (sprech-)handlungsbezogenen 'transzendentalen' Musiktheater (Dieter
Schnebel), ‚anti-opernhaften' ‚Mimodrama’ (György Ligeti: Aventures) oder
artikulatorischen ‚Stimmentheater' (Trevor Wishart, Vox 4 (1987)) ist die (para-
semantische) Besetzung der verschiedenen Artikulationsformen und prosodischen
Merkmale der Stimme – die „Semantik der prosodischen Merkmale“ (Fonagy, 1964) –
als bewusst, d. h. auch stilisiert gestaltete wahrzunehmen. Von hier aus ließen sich auch
Kriterien für ‚Fiktionalität’ u. a. stimmlich-artikulatorisch inszenierter,
handlungssituativer Kontexte (in Vokal- und Sprachkompositionen) in Abgrenzung zu z.
T. selbstexperimentellen Hörstücken (u. a. Carlfriedrich Claus) entwickeln. Durch
Raoul Hausmann erfolgte die Funktionalisierung lautgestischer intonatorischer und auch
klangfarblicher Schemata für artikulatorische Prozesse im Bereich der phonetischen
Poesie indes schon vor 1945 und wurde nach 1945 u.a. von Carlfriedrich Claus und
François Dufrêne in zuvor nicht gehörte, affektive Grenzbereiche getrieben.
Nicht zuletzt die ästhetische Instrumentalisierung und Funktionalisierung neuer
(elektroakustischer bzw. elektronischer) Medien revolutionierte den zuvor bereits an
den Rändern aufgeweichten Literatur- und Musikbegriff, zu deren Technisierung und
Entgrenzung sie maßgeblich beigetragen haben.
Die auf Tonband verschriftete Stimme als akustische Notation hat der ‚Akustischen
Kunst’ neue Möglichkeiten der stimmlichen Entäußerung eröffnet und eine Reihe von
neuen Genres entstehen lassen. „Verwunderlich genug“, stellt der englische konkrete
und Laut-Poet Bob Cobbing (geb. 1920) diesbezüglich fest,

die Erfindung des Tonbandgerätes hat dem Dichter seine Stimme zurückgegeben.
Denn dadurch, daß sie ihren Stimmen auf dem Tonbandgerät zuhören, mit seinen
Möglichkeiten zu verstärken, zu verlangsamen und stimmliche Vibrationen zu
beschleunigen, sind die Dichter befähigt worden, ihre stimmlichen Mittel zu
analysieren und infolgedessen gewaltig zu verbessern. Wo das Tonbandgerät die
Richtung angibt, kann die menschliche Stimme folgen.

Bei Henri Chopin, der seine ‚poésie sonore’ (ab 1957) wie auch die Ultra-Lettristen
ohne ausgearbeitete Partitur direkt auf Tonband ‚notiert’, lässt sich beobachten, wie
stimmlich-körperliche und elektro-akustische Eigenanteile durch die Montagetechnik
der mehrfachen Überlagerung einzelner Tonbandspuren und die ‚Verschaltung’ von
Maschine und Körper – Chopin nahm Geräusche von Herz, Lunge, Bronchien etc. auf
und verarbeitete sie – bzw. Stimme nicht mehr so ohne weiteres auseinander zu hören
sind.
Der Einsatz von Elektronik im Bereich von Vokalkomposition und Lautpoesie/-
musik hat(te) zur Folge, dass Originalaufnahmen von Sprache mittels technischer
Klangmodulation so verfremdet werden können, dass „nur der Tonfall, die Sprachgeste,
gleichsam die Hüllkurve von Sprache erkennbar bleibt und als Bedeutungsträger
fungiert“ (Peter Andraschke, 1979). Beispielhaft können hier die Hörstücke der
schwedischen Text-Sound-Komponisten angeführt werden (Lars-Gunnnar Bodin, Stan
Hanson, Bengt Emil Johnson u.a.), die diese Ästhetik radikalisierten. Bei Josef Anton
Riedls Tonbandstücken mit Sprache findet sich die Technik, durch Anschneiden von
Sprachlauten ihre Hüllkurve zu zerstören, wodurch die Tendenz zur Gestaltergänzung
dadurch, dass der Kontext der Laute z. T. nicht mehr wiederzuerkennen ist, frustriert
wird.
Elektronik kann kompositorisch als vermittelndes ‚Interface’ zwischen Sprach-,
Instrumental- und elektronischen Klängen und Geräuschen eingesetzt werden, wobei
aufgrund seines reicheren Frequenzspektrums und den mit diesem gegebenen größeren
Transformationsmöglichkeiten der konsonantische Lautbereich von besonderem
kompositorischen Interesse ist.
Als technische Verfahren, die für Hörstücke im Bereich von ‚Tapepoesie’ (‚poésie
sonore’, ‚text-sound composition’ etc.), ‚Musique concrète’ und Sprache elektronisch
verarbeitenden oder synthetisch erzeugenden Vokalkompositionen (wie z.B. Luciano
Berios phonetisch-elektronisches Stück Thema (Ommagio a Joyce)) gleichermaßen
konstitutiv sind, können u.a. genannt werden Schnitt, Blende, Montage, Überlagerung,
Veränderung der Abspielgeschwindigkeit des Tonbandes, revers-Abspielen des
Tonbandes, Spiel mit Stereopositionen (z.B. Panoramaeffekte). Franz Mon zufolge sind
mit den „Möglichkeiten der Speicherung, Bearbeitung, raum- und zeitunabhängigen
Verbreitung, die Ton- und Filmband anbieten, [...] beide Bereiche, der visuelle und der
sonore, textfähig geworden in schriftanalogem Sinn. Schnitt, Blende, Montage usw.
erlauben es, mit einem Film- oder Tonband wie mit einem Schrifttext umzugehen".
Nach Maurach münden die Möglichkeiten „sequentieller und simultaner Montage,
der 'Raum’komposition’ mithilfe des Stereo, der Erweiterung und Veränderung der
menschlichen Stimme durch auf natürliche Weise nicht artikulierbare Klangkontinua
und Extremlagen und durch künstliche Dynamisierung konstitutioneller Stimm-
Merkmale [...] schließlich in der Übernahme musikalischer Mittel zur Erzeugung
relevanter Figur-Grund-Kontraste“.
Als Verschriftungsmaschinen wäre das gesamte Arsenal der heute verfügbaren
Instrumentarien einzubegreifen, wie u. a. Tonbandgerät, Voder, Vocoder, Sonovox;
Kunstkopf, Stereophonie, Sequenzer, Synthesizer, Computer, Sampler, Synthesizer,
Hallgeräte, Mehrspurtechnik, Mischpult. Hinsichtlich des Computers als
zeitgenössische ‚High-Tech'-Errungenschaft und seines Einsatzes als Musikinstrument
kann paradigmatisch Klarenz Barlows Talkmaster's Choice stehen. Der Komponist
kommentiert sein immer nur als Variation zu realisierendes Stück wie folgt:
Talkmaster's Choice ist eine Computer-Musikinstallation, die Sprache verarbeitet.
Nach einem genauen Ablaufplan werden über die Dauer einer Viertelstunde
anfangs live eingesprochene Worte in stets neukombinierten Folgen
wiedergegeben, erst in größeren Zusammenhängen, später in immer kürzer
werdenden Floskeln, so dass allmählich rhythmische Ketten von Konsonanten und
Vokalen in elektronisch anmutende Klänge übergehen, deren menschlicher
Ursprung ihnen nicht mehr anzumerken ist.

Als ästhetisches Ergebnis werden sprachliche Artikulationen in eine perkussive


Geräuschkette transformiert. Beispielhafte Modelle von Sprache-Musik-
Transformationen (Sprachmodulation, elektronische bzw. computerprogramm-gestützte
Verarbeitung von gesprochener Sprache etc.) sind auch Charles Dodges Speech songs
und Alvin Luciers I am sitting in a room.

Verständlich? Stimme, Sprechen, Artikulieren, Bewusstsein. Selbstwahrnehmung,


Fremdwahrnehmung

Auch mit dem komplexen Apparat ‚Verstehen’ bzw. dessen Verhinderung kann
kompositorisch gespielt werden. Stockhausen legte Gesang der Jünglinge eine
Gradation von sieben Verständlichkeitsstufen zu Grunde: „nicht genau verständlich
(weit entfernt im geschlossenen Raum); nicht verständlich (große Entfernung im
offenen Raum); kaum verständlich (Zu- und wieder Abnahme der Lautstärke sowie
räumliche Näherung in der Mitte des Komplexes); verständlicher (räumlich nahe mit
zunehmender Lautstärke); verständlich (langsam und deutliches Singen); ganz wenig
verständlich (vielfältige Silben- und Wortpermutationen); fast verständlich (großer
halliger Raum, Einzelstimme)“.
Stockhausens Verständlichkeits-Parameter ließen sich – ebenso wie analoge
Beispiele aus dem Bereich der Lautpoesie/-musik – gestalttheoretisch u.a. über die
Tendenz zur Gestaltergänzung „unvollständiger Wahrnehmungseindrücke“ (Maurach)
beschreiben.
Der „motot theory of speech perception“ (Liberman) zufolge wird die
„Wahrnehmung von Sprache [...] nicht nur durch die akustische Information einer
sprachlichen Äußerung erreicht, sondern auch durch die mit dem akustischen Reiz
parallel sich vollziehende Dekodierung (durch den Hörer) der Artikulationsbewegungen
des Sprechers. Der Hörer fühlt gleichsam bei sich selbst, wie sich die Artikulatoren des
Sprechers bewegen“.
Wolmans Mégapneumes wie auch die Crirythmes Dufrênes oder die
Instrumentations verbales Braus können als ästhetische Demonstration der „motot
theory of speech perception“ gehört werden, reduziert sich doch hier die ‚akustische
Information’ der sprachlichen Äußerungen bei weitgehender Ausblendung
verbalsemantischer Bestandteile nicht nur auf überwiegend nonverbal-paralinguistische
Signale, sondern wird darüber hinaus als ein Novum in der Geschichte der Lautpoesie
ein kontinuierlich-exzessives Spiel mit den Bewegungen und Bewegungsgrenzen der
Artikulatoren bzw. der Phonationsstellungen ästhetisch dergestalt instrumentalisiert,
dass die prozessualen Funktionsweisen des Artikulationsapparates selbst akustisch
‚thematisiert' werden – Dieter Schnebel kommt bei ähnlicher Aufgabenstellung zu
anderen ästhetischen Lösungen.
Steuerungsmoment auch der Selbstwahrnehmung und der Sequenzierung der
megapneumatischen Improvisationen während des Artikulierens war möglicherweise
eine psychisch kontrollierte Gradation von körperlichen Anstrengungssignalen wie z. B.
Heiserkeit, plötzliches Abreißen der Stimme im Falsettbereich oder auch momentane
Atemnot. Je nach Erreichen einer Anstrengungskulmination z. B. bei Erschöpfung des
momentanen Atemvolumens oder Beanspruchung des Artikulationsapparates bis zur
Funktionsstörung folgte - analog zu sportlichen Aktivitäten – eine Rekreationsphase. In
Ralentissez les cadences wechselt stoßweises, vokalgefärbtes Ausatmen unperiodisch
mit kurzen Sequenzen von geknarrten ‚Atemflächen' ab. Erschöpfungsmomente als
Grenzsignale initiieren möglicherweise ein spontanes Wechseln der
Artikulatorenstellungen sowie der Artikulationsgestik. Eine vokalgefärbte
Schreipassage wirkt wie eine befreiende Entladung der sprichwörtlich aufgestauten
Atem- und Artikulationsenergien. Nicht-naturalistische Husten- und Würgegeräusche,
wobei ein mimetisches Restmoment nicht gänzlich zu unterschlagen ist, bilden als
korrektive Handlung des ‚antinormativen’ Gebrauchs der Sprechorgane das Finale des
Stückes.
Jean-Louis Braus akustische Collage Turn Back Nightingale (1972) ist von den
ultra-lettristischen Stücken in der physischen Aufwendung und der Stimmverwendung
in affektiven Grenzbereichen das radikalste Beispiel einer aktionistischen Entäußerung
und antizipiert als dynamisierte Schrei’installation' Stimmverwendungspraktiken der
Ende 1975 in Erscheinung tretenden Punkmusik.
„Unzählige Ordnungen möglicher stimmlicher Beziehungen scheint es zu geben“, so
die australische Sound-Performerin, Medienkünstlerin und Autorin Amanda Stewart
(geb. 1959). Und weiter: „Jeder Äußerungsbereich berührt die verschiedenen Arten und
Potentiale der menschlichen Gesellschaft, indem er ungewöhnliche Arten des Zuhörens
und des Bewusstseins hervorruft. In gewissem Sinne ist die Stimme Bewusstsein und
somit das Unbewusste der Sprache und Kultur – genau wie Mythen als das Unbewusste
der Geschichte angesehen werden können. Die endlosen Muster verbaler Rede,
nonverbaler stimmlicher Systeme, Artikulationen und Klangfarben stellen Körper,
Gedanken und Wahrnehmung selbst in Frage – und rufen sie ins Leben. Zugleich wurde
die Vorstellung davon, was Bedeutung und Bewusstsein sind, einem grundlegenden
Wandel unterzogen“.
Ihre Beschäftigung mit Linguistiken und ‚oralen Grammatiken’ ließen Stewart eine
Poesie und vokale Performance entwickeln, die philosophische und linguistische
Analysen mit „extented vocal techniques“ kombinieren und eine spezifische Form von
linguistischer Musik hervorbringen.
Unter Verwendung dramaturgisch eingesetzter Elektroakustik verbindet Stewart
verbalsemantisch-narrative Äußerungseinheiten, paralinguistische und sonstige
affektive Signale sowie u. a. auch die zitathaft eingesetzte Singstimme zu einer Art
stereophoner Choreographie ihrer eigenen, vervielfachten Stimme.
Die Grenzauslotung des menschlichen Stimmapparates scheint ebenso wenig
erschöpft, wie alle Möglichkeiten der technischen Verarbeitung und instrumentalen
Kontrastierung menschlicher Sprache und Stimme ausgereizt sind.

You might also like