zurück zu den Satztechniken des 20. Jh.
zur homepage Lutz Felbick weitere Vorträge / Unterrichtsmaterialien
INFO
In der heutigen Unterrichtsdemonstration möchte ich Unkonventionelle Lösungsvorschläge zur Notations- und Hörproblematik der Neuen Musik vorstellen. Deshalb würde ich mich freuen, wenn Sie sich zunächst auf ungewöhnliche Unterrichtsmethoden einlassen könnten.
AUFGABE
Sprechen Sie bitte nach:
st!.....
ts! ....
ts?.....
t....
schschtssssss.......
Pfeifen hoch/tief....
verschiedene Sprechlagen: bon (hoch bon (tief)...
FOLIE halb abgedeckt (sec. 63-69)+ INFO
Sie sehen hier eine Partitur, die mit verschiedenen Symbolen und Farben arbeitet. Sie enthält eine Zeitleiste, die die Sekunden angibt.
AUFGABE: Versuchen Sie, diese Partitur zu realisieren.
Zuerst zu "bon bon" sec. 62-64.
Ebenfalls einfach ist das Pfeifen (Quadrate in 67). Ich zähle ab 65-69.
Nun zu den ts, t, tssss in 65-69
Etwas schwieriger ist die Struktur der Impulse 66-69
Wir realisieren nun diese Klangelemente gemäß der vorliegenden Partitur und ergänzen auch noch das hektische Tuscheln in 63.
INFO
Es handelt sich bei diesem Beispiel um einen Ausschnitt aus dem Werk Artikulation von G. Ligeti, einer frühen Komposition elektronischer Musik aus dem Jahre 1958.
KLANGBEISPIEL 1
Wir hören den entsprechenden Ausschnitt 57-70
INFO
Ich habe Ihnen bewußt vorentahlten, dass es sich um ein Werk der elektronischen Musik handelt. Was habe ich mit diesem kleinen pädagogischen Kunstgriff erreicht? .... In der Tat besteht die Rezeptionsproblematik der Neuen Musik sehr häufig in Hörbarrieren, die auf ablehnende Haltung zurückzuführen sind. Die Vorverurteilungen schräncken somit die Wahrnehmung schon beträchtlich ein!
INFO
Die hier vorliegende von Rainer Wehinger erstellte Hörpartitur basiert auf den im Studio erstellten Dynamik- und Frequenzanalysen. D.h. er konstruierte eine visuelle Aufzeichnungsmethode, die sich direkt aus einer elektronischen Aufzeichnungsmethode entwickelt. Das sich daraus ergebende Zeitraster wurde durch die Höranalyse weiter differenziert. Das von ihm erfundene Zeichensystem hat etwas sehr schlichtes und übersichtliches. Ähnlich wie es in der tonalen Musik ein Kategoriensystem von Akkorden, Akkordfunktion usw. gibt, wird arbeitet auch Ligeti mit einer überschaubaren Zahl von musikalischen Grundvokabeln. Das erleichtet das verständnis enorm, denn das Verstehen von Musik ist in manchen Punkten dem verstehen einer sprache vergleichbar, bei dem die elementaren Vokablen beherrscht sein müssen. Etwas vereinfacht läßt sich sagen, dass die folgenden vier Grundkategorieren verwendet werden:
INFO: Folie S. 37
von dem Extremfall des "weißen Rauschens" (hier schwarz) mit dem gesamtem hörbaren Frequenzbereich , also gewissermaßen ein großes Cluster der hörbaren Frequenzen, über verschiedene Filterungen bis hin zum Extremfilter, bei dem nur noch ein einzelner Sinuston übrig bleibt.
B) harmonische und subharmonische Spektren:
ein Frequenzgemisch, welches - vergleichbar mir der Obertonreihe - aus einer Multiplikation der Grundfrequenz mit der natürlichen Zahlenreihe entsteht. Beispiel: 20+40+60+80+100+120 Hz)
und subharmonische Spektren:
ein Frequenzgemisch, welches aus einer Division der Grundfrequenz durch die natürlichen Zahlenreihe entsteht. Gewissermaßen eine "Untertonreihe". Beispiel: 1000+500+333+250+200 Hz. Auch hier gibt es wieder die Bandbreite von mehr geräuschhaftem bis hin zu eher tonhaftem Klangcharakter.
C+D) ungefilterter und gefilterter Impuls:
unterscheidet sich vom Rauschen lediglich durch die Dauer. Dieses punktuelle Ereignis kann als gefilterter Impuls verschiedene Tonhöhen (tief, mittel, hoch) annehmen.
Es wurden helle Farben für definierte Tonhöhen gewählt
eine zunehmende Geräuschhaftigkeit wurde durch entsprechend dunklere Farben dargestellt.
Große und kleine Punkte stellen einzelne laute oder leisere Impulse dar.
Der "Kamm" deutet die Art des Rauschens an, wobei der Steg jeweils den Hauptimpuls markiert.
Dieser kann rechts oder links, also zu Beginn oder am Schluß stehen.
Die Verhallung wurde durch graue Flächen dargestellt.
Die Verteilung des Klanges auf die vier Kanäle ist durch Kreissymbole über dem System dargestellt, wobei es unmöglich ist, sämtliche räumlichen Dimensionen des Klanges mit diesem Symbol zu beschreiben.
Bevor wir diese verschiedenen Klangkategorieren kennenlernen, gebe ich Ihnen einige Informationen zur Werkentsteheung:
Arbeitsblätter verteilen.
Während seiner Arbeit im Studio für elektronische Musik des WDR Köln42, in welchem bekanntlich in den 50-er Jahren vor allem Eimert und Stockhausen wirkten, hörte Ligeti die Sprachähnlichkeit verschiedener Klangformen und beschloß, ein imaginäres Gespräch zu komponieren: Frage-Antwort, Dazwischenreden, Plappern, Humor, Tuscheln.
110 Arbeitsskizzen wurden erstellt,
42 klangliche Grundmaterialien wurden in nahezu unendlich vielen Tonbandstücken zur Verfügung gestellt und in Schachteln sortiert,
so z.B. 150 Bandstücke von 1cm Länge, wobei 76 cm Bandmaterial =1 sec Musik ergibt.
Diese Stücke wurden dann nach hier nicht im Detail zu erläuternden Konzepten zusammengeklebt.
Nur soviel: Durch die Kombination verschiedener Elemente entstanden quasi "Laute", "Silben", "Wörter", "Sätze", "Texte" und "Sprachen". Diese Bezeichnungen sind allerdings rein klangliche Analogien, jedoch kieine grammatikalischen.
Rainer Wehinger hat neben dieser Hörpartitur eine wissenschaftliche Abhandlung zu diesem Werk geschrieben.
Klangkategorien mit Klangbeispielen
Auf dem Ihnen vorliegenden Arbeitsblatt sehen Sie die Beschreibung verschiedener Klangkategorien.
Klangbeispiel 2-16:
Wir hören einige dieser Klangkategorien und sehen dazu die entsprechen den Partiturausschnitte. Folien
Wenn wir jetzt das Werk einmal ganz hören, wird es vielen nicht gelingen, sämtliche Rezeptonprobleme zu überwinden. Ziel dieser halben Stunde kann es lediglich sein, sich der Prinzipien, die beim Erlernen einer unbekannten Sprache wirken, bewußt zu sein. Außerdem müssen einige handwerkliche Tonsatzprinzipien der elektronischen Musik in Ansätzen bekannt sein.
historischer Tonsatz und neuere Aufgabenstellungen43
Klangfarben und Geräuschen in Geschichte und Gegenwart
Vielleicht ist dies ja die größte ästhetische Herausforderung in der Musik des 20. Jahrhunderts, dass anstelle von Strukturen, in denen Tonhöhenbeziehungen an erster Stelle standen, solche treten, die ausschließlich aus Klangfarben und Geräuschen bestehen.
Spätestens seit Schönbergs Farben aus op.16 muß man dem Parameter Klangfarbe eine besondere Bedeutung bemessen. Seine in der Harmonielehre 1911 ausgeführte Idee einer Klangfarbenmelodie realisiert er allerdings mit konventionellen Klangkörpern.
Obwohl es nahe liegt, für Klangfarben farbige visuelle Darstellungen zu verwenden, sind derartige Darstellungen im Tonsatz äußerst selten.
spezilles Aufgabenfeld in der elektronischen Musik
Da das Aufgabenfeld der Komponisten elektronischer Musik sich neben der Generierung von Strukturen - wie sie im klassischen Tonsatz üblich sind - auch auf die Klangsynthese erweiterte, ist es erforderlich, die sich hier auftuenden Möglichkeiten und Arbeitsfelder im Überblick darzustellen. Man muß sich allerdings der Tatsache bewußt sein, dass man im Rahmen einer Einführung nicht zu den Tiefenschichten der technischen Details vordringen kann.
Demzufolge lassen sich in der elektronischen Musik, die Fächer Instrumentenkunde und Tonsatz nicht voneinandern trennen. Letztere implizieren auch den historischen Aspekt.
Es gibt keine allgemein anerkannte Definition von elektronischer Musik. Im weitesten Sinne kann jede Art von "Lautsprechermusik" als elektronische Musik bezeichnet werden. Möglich ist auch die Begrenzung auf elektronische Klangerzeugung.
Eine Lautsprechermusik, bei der Sprache und Alltagsgeräusche verfremdet wurden, entwickelte Schaeffer/Henry 1948/49 als musique concrète.
Die Bezeichnung elektroakustische Musik wird häufig angewandt, um den ursprünglichen Begriff elektronische Musik um die Möglichkeiten der musique concrète und die ihnen verwandten Spielformen zu erweiterten.
Im engeren Sinne verstand man unter elektronischer Musik die Klangsynthese elektronischer Klänge.
In diesem Sinne wurde das erste Studio für elektronische Musik 1951 am NWDR in Köln eingerichtet (Ltg. H. Eimert, ab 1963 K.H. Stockhausen). Ihm folgten andere Städte wie Mailand, Lüttich, Utrecht u.a.
In den 50-er Jahren sind drei Phasen in der elektronischen Musik auszumachen:
Für diese Musik war ab 1951/53 zunächst weder Interpret noch Partitur nötig. Der Komponist hält das elektronisch erzeugte Klangmaterial auf einem Tonband fest, welches dem Publikum vorgespielt wird.
In der zweiten Phase der Elektronischen Musik wird dann ab 1952/53 der elektronische erzeugte Klang mit Tonbandaufnahmen (musique concrète)kombiniert und verfremdet.
In der dritten Phase ab 1959/61 wird das mit Material von einem Interpreten vorgestellt, welcher das Klangmaterial zusätzlich mit Klängen der nicht-elektronischen Musik live kombiniert.
Im Oktober 1964 wurde der von Bob Moog erfundene Moog-Synthesizer vorgestellt. Durch ihn wurde die Live-Elektronik besonders interessant.
Grundsätzlich müssen analoge und die digitale Synthesizer unterschieden werden. (Vergleich digitale- analoge Arnbanduhr)
Die analogen Synthesizer arbeiten mit Sinustönen, Filtern, Oszilatoren und Ringmodulatoren. Es handelt sich dabei also um die Formung von bestimmten Stromspannungen. Zu unterscheiden sind im einzelnen: LPF(Low Pass Filter=Tiefpassfilter), HPF(High Pass Filter=Hochpassfilter), Envolpe(=Hüllkurve), VCA(VoltageControlled Amplifier=spannungsgesteuerter Amplitudenregler) LFO(Low Frequency Oscilator=Niederfrequenzoszilator)
Digitale Synthesizer dagegen arbeiten mit Einzelbausteinen, die dann beliebig zusammengesetzt und modifiziert werden können. Die digitale Klangerzeugung und -verarbeitung führte zu grundsätzlich neuen kompositorischen Möglichkeiten. Die analogen Systeme waren bis zu diesem Zeitpunkt darauf angewiesen, mit Tonbandaufzeichnungen zu arbeiten. So war beispielsweise eine nachträgliche Manipulation nur begrenzt möglich, und insbesondere die Schneidearbeiten waren aufwendig. Nun konnten die Klänge als Datein behandelt werden und waren so für vielfältige Operationen verfügbar.
Einen besonderen Vorteil brachte 1982/83 die Einführung der digitalen Schnittstelle MIDI (Musical Instruments Digital Interface), die eine Norm für die Codierung von elektronischen Daten darstellt. Es war mit MIDI nicht nur möglich, daß zwei unterschiedliche digitale Synthesizer miteinander kommunizierten, sondern die Daten konnten in Computer eingegeben werden und dort auf vielfältigste Weise organisiert werden. So war es beispielsweise möglich, die Daten einem Notensatz zuzuordnen, der dann ausgedruckt werden kann. Durch diese Entwicklung war der Unterschied zwischen der Komposition und der Improvisation im Prinzip aufgehoben.
In der weiteren Entwicklung gelang es, jede beliebige Klangaufzeichnung zu digitalisieren. Im Sampling wird z.B. diese Technik genutzt, um entsprechende Sounds von MIDI-fähigen Instrumenten abzurufen. D.h., es wurde dadurch möglich auf einer Taste einen ganz bestimmten Klang zu speichern, der abrufbar wurde. Durch entsprechende Umrechnungen kann dieser Klang auf andere Tonhöhen übertragen werden. Eine weitere Anwendung ist die CD-Technik bzw. das Harddisk-recording.
Die MIDI-fizierte Klangaufzeichnung ist anderen System wie z.B. der Notenschrift überlegen, da die Aufzeichnungsmethoden genauer sind. So kann beispielsweise eine Viertelnote in bis zu 1024 einzelne Ticks unterteilt werden. Falls der Anwender eine Übertragung in Noten wünscht, kann er die jeweilige Übersetzung mittels Darstellungsquantisierung selbst wählen. Ein Event (FOLIE) stellt in diesem System einen musikalischen Ereignisbaustein wie z.B. eine Note dar. Das Event enthält Informationen über den Beginn, die Länge, den Kanal und andere Parameter wie z.B. die Lautstärke des Ereignisses. Mit Hilfe von Sequenzern lassen sich Klangabläufe aufzeichnen und wiedergeben. Heute sind wichtige Notendruck-Softwareprogramme: Finale, Encore und Logic.
Ein weiterer wichtiger Standard ist General MIDI (GM). Er stellt eine Norm für 128 MIDI-bezogene Instrumentalfarben dar. So ist es möglich, nicht nur MIDI-Dateien zu erstellen, sondern auch Informationen über Sounds zu speichern, die dann von einem andern MIDI- und GM-fähigen Synthesizer verstanden. werden.
Die MIDI-Dateien müssen von AUDIO-Dateien unterschieden werden. Erstere enthalten lediglich Steuerungsinformationen für elektronische Klangverarbeiter, letztere sind direkte Klangdaten. Ein sehr häufig benutztes undvieldiskutiertes Format für AUDIO-Dateien ist der *.mp3-Standard .
MP3 steht für 'MPEG-1 Layer 3' und ist eine Weiterentwicklung der Layer 1 und 2 Formate. Die MPEG-Kodierung ist ein Verfahren, das für die Kompression von Audio- und Videomaterial entwickelt wurde (MPEG = Moving Picture Experts Group). Das mp3-Verfahren erlaubt es, eine zuvor erstellte Wav-Datei ohne eine merkliche Qualitätseinbuße auf ca. 1/10 der ursprünglichen Grösse zu reduzieren. Die Kompression wird dadurch erreicht, dass -vereinfacht ausgedrückt- ständig wiederkehrende Basisinformationen nur einmal gespeichert werden und lediglich die Dynamikänderungen laufend hinzuaddiert werden.