Inhalt
Musik als Regelsystem
  • Kanon
  • Zwölftonmusik
  • Serielle MusikAlgorithmische Komposition
  • Musique concrète
  • Digitale Klangsynthese
  • Elektronische Orgeln
Der Computer als Musikinstrument
  • MIDI
  • Max/MSP
  • Apple Macintosh PowerMac G3
  • Zeitgenössische elektronische Musik
  • Vertreter und Werke
Ein Instrument im klassischen Sinne ist eine Erweiterung des menschlichen Körpers, ein Hilfsmittel zum Ausdruck menschlichen Denkens und zur Erschaffung von etwas Neuem. Musikinstrument erfüllen diese Aufgabe schon seit tausenden von Jahren, angefangen mit den ersten primitiven Trommeln, über die ersten Blas- und Saiteninstrumente bis hin zu den Tasteninstrumenten. Sie alle agieren direkt auf Eingaben des Menschen, sei es über einen Tastendruck, über ein Anreißen einer Saite oder über das Ausstoßen von Luft.

Doch vor ungefähr 40 Jahren begann die Entwicklung einer neuen Art von Instrumenten, Instrumente, die nicht nur direkt auf den Menschen reagieren, sondern auch selbst Regelsysteme befolgen können, die über Noten und Takte hinausgehen, und damit dem Menschen noch mehr Möglichkeiten eröffnen, Musik zu erschaffen. Diese Instrumente agieren nicht mehr ausschließlich nur auf direkte Eingaben von außen, sondern können durch Mathematik und Algorithmen selbst Klänge erzeugen und vorher eingegebenes Material verändern und ausgeben.

Oft basieren sie auf Formeln oder anderen vom Komponisten festgelegten Regelsystemen. Möglich wird diese völlig neue Art des Komponierens und Musizierens durch Mikroprozessoren und entsprechender Software.
Wie lange es jedoch bis zum heutigen Entwicklungsstand gedauert hat und wie es vom einfachen Abarbeiten eines Regelsystems zur komplexen, interaktiven Klangerzeugung kam, soll diese Arbeit zeigen.

 
Musik als Regelsystem
Soll ein Instrument nicht nur menschliche Eingaben und Aktionen zeitgleich in Klang verwandeln, sondern darüber hinaus selber agieren, braucht es eine Art Grundlage der musikalischen Vorstellungen des Komponisten. Dies lässt sich mit einem Regelsystem am besten bewerkstelligen, dass musikalische Grundsätze und Gesetze in einem mathematischen System enthält.

 
Kanon
Der Kanon was der erste Schritt, Musik nicht nur als endliche Abfolge von Noten darzustellen, sondern sie mit einfachen mathematischen Grundsätzen zu wiederholen und übereinander zu schichten.

Ursprünglich bedeutete der lateinische Terminus Canon in der mittelalterlichen Musiktheorie keine musikalische Gattung, sondern – ganz dem Wortsinn entsprechend – eine Anweisung. Solche Anweisungen dienten entweder dazu, Einzelstimmen von Kompositionen – eventuell transformiert – zu wiederholen oder auch weitere Stimmen aus ihnen abzuleiten. Der Kanon als Gattungsbegriff entwickelt sich erst im Laufe des 16. Jahrhunderts. Vorher existiert zumindest für den strengen Kanon der Terminus Fuga.

Die bekannteste und häufigste Form ist der strenge Kanon, bei dem die zwei oder mehr Stimmen identisch sind und lediglich zeitlich versetzt einsetzen. Eventuell können die Stimmen auf unterschiedlichen Tonstufen einsetzen. Ein Zirkelkanon wird in einem kreis- bzw. ringförmigen Notensystem notiert, um den endlosen Ablauf zu verdeutlichen. Dabei ist es möglich, dass die zweite Stimme in Gegenbewegung, also mit entgegengesetzter Leserichtung einzusetzen hat und/oder einen anderen Notenschlüssel vorgezeichnet bekommt. Erscheinen die Notenwerte einer abgeleitete Stimme vergrößert bzw. verkleinert, so spricht man von einem Augmentations- bzw. Diminutionskanon.

Ein Krebskanon (oder Kreuzkanon) liegt vor, wenn eine Stimme die Melodie vorwärts, die andere Stimme sie rückwärts vorträgt. In einem Spiegelkanon (auch Inversions- oder Intervallumkehrungskanon genannt) erscheinen die Intervalle der notierten Stimme in der Ableitung gespiegelt. Das bedeutet, wenn die notierte Stimme z. B. einen Terzschritt nach oben macht, muss die abgeleitete Stimme einen solchen nach unten ausführen. Kombiniert man die beiden zuletzt genannten Techniken, so erhält man einen Spiegelkrebskanon. Laufen mehrere Kanons gleichzeitig ab, so entsteht ein Mehrfachkanon.

Diese Art der Musik benötigt zwar ein zuvor komponiertes Thema oder eine Hauptstimme, läuft danach aber im Grunde nach einem mathematisch festgelegten Modell ab. Diese neue Art Musik zu machen legte den Grundstein zur vollständigen Berechnung von Klängen.

 
Zwölftonmusik
Weitaus später entwickelte sich die nächste Stufe der über Zahlensysteme funktionierenden Musik. Das von Schönberg geprägte Modell zur Komposition über Zwölftonreihen war ein deutlicher Schritt in Richtung der mathematischen Musikerzeugung.

Zwölftonmusik wird Musik genannt, die auf Grundlage der Zwölftontechnik bzw. einer Zwölftonreihe komponiert wurde. In ihr werden die zwölf Töne der chromatischen Skala des gleichstufig temperierten Tonsystems vollkommen gleichberechtigt (das heißt: ohne die Vorherrschaft eines „Grundtones“) behandelt. Weiters fällt die Unterscheidung zwischen Dur und Moll weg. Die Grundlagen der Zwölftonmusik wurden zu Beginn des 20. Jahrhunderts entwickelt, hauptsächlich geprägt von Arnold Schönbergs ab ca. 1921 begründeten „Methode mit zwölf nur aufeinander bezogenen Tönen“. Bestimmendes Element der Komposition mit 12 Tönen bei Schönberg sind Reihen, in denen alle 12 Töne einer Oktave einmal vorkommen sollen, die wertende Unterscheidung von Dissonanzen (die aufgelöst werden mussten) und Konsonanzen (die bevorzugt wurden) entfällt, beide sind gleichrangig („Emanzipation der Dissonanz“).

Die Zwölftonreihe tritt in vier Gestalten auf: Grundgestalt, Umkehrung (aufsteigende Intervalle werden durch gleich große absteigende ersetzt), Krebs (die Reihe wird von hinten nach vorne gelesen) und Krebsumkehrung. Von allen vier Gestalten können 12 Transpositionen (von jedem Ton der chromatischen Skala ausgehend) gebildet werden, so dass 48 Reihen derselben Zwölftonreihe zuzuordnen sind. Die Zwölftonreihe bildet die diasthematische (Tonhöhenfolgen), aber auch die harmonische (vertikale) Materialgrundlage für eine Zwölftonkomposition.

Nach ihrer weitgehenden Abwendung von der Tonalität zu Beginn des 20. Jahrhunderts sahen Arnold Schönberg und seine Schüler, insbesondere Alban Berg und Anton Webern, in der Zwölftontechnik ein grundlegend neues Prinzip musikalischer Komposition und eine logische, evolutionäre Weiterführung der Musikgeschichte. Nach Schönbergs Emigration und dem Beginn seiner Lehrtätigkeit in den USA verbreitete sich die Zwölftontechnik vor allem in Nordamerika. In Westeuropa wurde sie nach dem Zweiten Weltkrieg von der Seriellen Musik verdrängt, die eine Weiterentwicklung der Zwölftontechnik (vor allem in der Ausprägung Anton Weberns) ist.

 
Serielle Musik
Der nächste Schritt der Entwicklung der Musik zu einem berechenbaren mathematischen Muster war die serielle Musik. Hier war das Regelsystem noch strenger als bereits bei Schönberg und basierte bereits fast ausschließlich auf Formeln und Zahlenreihen.

Serielle Musik ist eine Strömung der Neuen Musik, die sich ab etwa 1948 entwickelte. Sie ist eine Weiterentwicklung der Zwölftontechnik von Arnold Schönberg und wird nach strengen Regeln komponiert. Die Kompositionstechnik basiert auf dem Versuch, möglichst alle Eigenschaften der Musik (wie zum Beispiel Tondauer, Tonhöhe und Lautstärke) auf Zahlen- oder Proportionsreihen aufzubauen. Diese Idee einer „musique pure“ entspringt dem Wunsch, eine Musik von möglichst großer Klarheit hervorzubringen, frei von Redundanz, Beliebigkeit und dem Ungefähr des „persönlichen Geschmacks“.

Historisch möglich wurde der Serialismus durch die „Vorarbeit“ von Arnold Schönberg und Anton Webern, Vertretern der so genannten Zweiten Wiener Schule, die bereits Tonhöhen und Intervallstrukturen nach eigenen Regeln neu ordneten. Während jedoch bei deren Zwölftonmusik lediglich der Tonhöhenverlauf als Reihe festgelegt ist, werden bei der seriellen Musik auch die übrigen Parameter wie Tondauer, Lautstärke, Klangfarbe, Tondichte, Artikulation oder Spielart durch mathematische Operationen quantifiziert und in einer vorab ermittelten Zahlenproportion reihenmäßig erfasst.

Als erste Komposition dieser Richtung gilt Olivier Messiaens Klavierstück „Mode de valeur et d’intensités“, in der er nicht nur die Tonhöhen, sondern auch Tondauern, -stärken und die Artikulation nach reihenähnlichen Modi (daher der Titel), die noch einen größeren Grad von kompositorischer Freiheit erlaubten, organisierte. Zu weiteren wichtigen Vertretern der seriellen Musik zählen Karlheinz Stockhausen, Pierre Boulez und Gottfried Michael Koenig.

Die Hauptproblematik der seriellen Musik liegt einerseits in der Rezeption, da die begrenzte Merkleistung des menschlichen Gedächtnisses es unmöglich macht, die musikalischen Strukturen durchzuhören und andererseits in der Interpretation, da sie begrenzte Exaktheit von Instrumental- und Singstimmen es verhindert, die überexakten Angaben der Komponisten hinreichend präzise zu reproduzieren. Diese Einschränkungen führten zwangsläufig zur Entwicklung der elektronischen Musik, die den menschlichen Interpreten umging und die Berechnung und Wiedergabe allein dem Computer überließ. Doch die technischen Möglichkeiten waren damals noch nicht gegeben.

 
Algorithmische Komposition
Die Weiterentwicklung des seriellen Denkens war die Übersetzung kompositorischer Verfahrensweisen in maschinelle Operationen und ihre Formulierung als Algorithmen, also genau definierte Handlungsvorschriften. Daraus entwickelten sich die ersten Ansätze zur direkten Programmierung von Musik, die ohne den Menschen auskam.

Wegweisend dafür war Gottfried Michael Koenig, der bereits 1963 mit Projekt 1 (PR1) ein Computerprogramm ausgearbeitet hatte, das die elektronische Erzeugung von Partituren möglich machte. Das Programm wurde auf die fünf grundsätzlichen Parameter des Tonsatzes Instrument, Einsatzabstand, Tonhöhe, Oktavlage und Dynamik angewendet, wobei jede Parameterschicht unterschiedliche Grade von Periodizität bzw. Aperiodizität zeigt, die durch verschiedenartige Zufallsalgorithmen erzeugt werden. Ein Klangereignis wird durch das Zusammenfallen der fünf Parameterschichten auf einen gemeinsamen Zeitpunkt (entry point) bestimmt. Die Ausgabe erfolgt schließlich in Form einer Partiturliste (score list), die in weiteren Arbeitsschritten transkribiert und in musikalische Notation übertragen werden muss. Dadurch ließen sich aus einem vorgefertigten Stück unzählige Strukturvarianten erzeugen.

Auch in den USA gab es Versuche in dieser Richtung. In den seit 1955 an der University of Illinois durchgeführten Versuchen des Chemikers Lejaren A. Hiller wurden zur Erzeugung von Partituren Wahrscheinlichkeitsalgorithmen verwendet, die ursprünglich zur Berechnung von chemischen Verbindungen entwickelt wurden. In einem dreistufigen Prozess führte Hiller nun die musikalische Partitursynthese durch: Ein zufallsgesteuerter „generator“ erzeugte das Grundmaterial, das von einem „modifier“ transformiert und schließlich von einem „selector“ nach bestimmten Regelsystemen ausgefiltert wurde. Daraus entstand 1957 schließlich als erste vollständige Computerkomposition das Streichquartett „Illiac Suite“.

Ein weiterer Vertreter der algorithmischen Komposition ist der rumänisch-griechische Komponist Iannis Xenakis. Gemeinsamer Nenner fast aller Kompositionen Xenakis‘ ist die Einbeziehung nichtmusikalischer Ideen; so wendet er mathematische, geometrische, architektonische oder philosophische Prinzipien beim Komponieren an. Diesem Ansatz entspringt auch seine Auseinandersetzung mit den Möglichkeiten digitaler Rechner. In dem von ihm 1966 begründeten Pariser Studio CEMAMU werden mit dem UPIC-Programm graphische Kurven und Zeichnungen in Klang und Klangabläufe übersetzt.

 
Musique concrète
Doch in dieser von der starren mathematischen Berechnung der Musik geprägten Zeit entstand durch die neuen Aufnahmemöglichkeiten von Klängen auch eine Gegenströmung der abstrakten Musik, die Musique concrète.

Die Musique concrète („Konkrete Musik“) ist eine Musikrichtung, bei der Klänge aus Natur, Technik und Umwelt mit dem Mikrofon aufgenommen und durch Montage, Bandschnitt, Veränderung der Bandgeschwindigkeit, und Tapeloops elektronisch verfremdet werden. Einflüsse sind vor allem im italienischen Futurismus zu finden.

Die Namensgebung geht auf einen Artikel des französischen Ingenieurs Pierre Schaeffer, der 1943 am französischen Rundfunk RDF für diese Zwecke den club d’essai in Paris gründete, aus dem Jahr 1949 zurück. Der Begriff sollte als Abgrenzung zur klassischen Richtung der abstrakten Musik, wie serielle Musik und Zwölftonmusik, sein. Nach Ansicht Schaeffers geht die Bewegung bei der klassischen Musik vom Abstrakten ins Konkrete (Komposition), umgekehrt verhält es sich hier: vom Konkreten (Alltagsgeräusche) wird das Abstrakte durch Klangverfremdung geschaffen.

Da zu dieser Zeit nur in Deutschland mit dem Tonbandgerät gearbeitet wurde, war Schaeffer zunächst nur auf Direktschnittaufnahmen auf Schallplatten angewiesen. Das Programm „etudes de bruits“ wurde 1948 erstmals ausgestrahlt, u.a. mit der „etude pour chemin de fer“ wo die verschiedensten Geräusche von Dampflokomotiven und Eisenbahnwagen zu hören sind. Während seiner Arbeiten entwickelte Schaeffer das Modell des „objét sonore“, eines allgemeinen und abstrakten Schemas zur Klassifizierung von Klangstrukturen zwischen Einzelklang und Musikstück als Ganzes.

Diese Musikanschauung zog einen erbitterten Disput mit Anhängern der Kölner Schule (und ferner Zweite Wiener Schule) nach sich, vor allem mit dem Komponisten Pierre Boulez ergaben sich Streitereien über zeitgenössische Musikästhetik. Boulez warf Schaeffer vor, eher ein Handwerker als ein Musiker zu sein, und dass seine Art, Musik zu erzeugen, einer „Bricolage“ (Bastelarbeit) gleiche, was Schaeffer nicht zurückwies; im Gegenteil sei „die Geschichte der Musik an sich […] eine Entwicklung durch Bricolage“. So kam es, dass auch Afrikanische Musik in seinen Werken Verwendung fand.
Durch die gegensätzlichen Auffassungen sprach man sogar von einem Zweiten Eisernen Vorhang. Praktisch wurden die auch persönlichen Differenzen aufgehoben, als in Köln Karlheinz Stockhausen, der zuvor bei Schaeffer gearbeitet hatte, 1955-56 den Gesang der Jünglinge komponierte, der Sprache, Gesang und elektronische Klänge gleichberechtigt nicht nur vermischte, sondern ineinander übergehen ließ. Seither lassen sich diese Richtungen immer schwerer auseinander halten; Elektronische Musik etablierte sich bald als Oberbegriff, daher entstand der abgrenzende, aber noch kontroverse Begriff Elektroakustische Musik.

 
Digitale Klangsynthese
Die Vertreter der anderen Seite versuchten unterdessen ohne vorgefertigte Aufnahmen auszukommen und Klänge digital zu synthetisieren. Solche Verfahren erforderten aber lange Prozesse von Forschungsarbeit und waren lange nicht zur Musikerzeugung einsetzbar.
 
Bedingt durch die verhältnismäßig geringe Rechenleistung der frühen Computersysteme fanden die ersten Versuche von Koenig, Hiller und Xenakis zunächst im Bereich der symbolischen Datenverarbeitung statt. Das Ergebnis war kein synthetischer Klang, sondern alpha-numerische Partiturdaten, die erst nach ihrer Übersetzung in Notenschrift von Instrumentalisten gespielt werden konnten.

Gleichwohl gab es bereits 1957 erste Ansätze digitaler Klangsynthese, als deren Vater der amerikanische Elektroingenieur Max Mathews gilt. Sein Computerprogramm MUSIC basierte auf einer Bibliothek von Softwaremodulen, die Signalverarbeitungsroutinen und Klangsynthese-Algorithmen zur Verfügung stellten und es dem Benutzer ermöglichten, damit seine eigenen Klangerzeuger zu programmieren. Diese „instruments“ wurden mit Hilfe von ebenfalls computer-generierten Partiturdaten („scores“) zum Klingen gebracht, in denen Parameter wie Höhe, Dauer, Intensität und Einsatzpunkt definiert wurden; allerdings erforderte die klangliche Umsetzung damals noch lange Rechenzeiten.
MUSIC wurde zur Mutter einer Reihe von Derivaten, von denen an erster Stelle CSound zu nennen ist, das bis heute weiterentwickelt wird und sich starker Verbreitung – vor allem im akademischen Umfeld – erfreut.

Die additive Synthese ist zur Klangsynthese von Interesse, grundsätzlich ist ihre Anwendung jedoch nicht an digitale Signalverarbeitung gebunden.
Ein Klang erweist sich auf dem Bildschirm eines Oszillografen als periodische, nicht sinusförmige Kurve. Wie Jean Baptiste Fourier festgestellt hat, kann jede periodisch verlaufende Schwingung als Überlagerung von sinusförmigen Kurven (verschiedenster Frequenz und Amplitude) aufgefasst werden. Dies ergibt die Möglichkeit, Klänge (periodische Kurven) durch Addition einzelner Töne (schlichte Sinuskurven) zusammenzusetzen (Klangsynthese).

Durch Auswahl und Variation z. B. der Amplitude der einzelnen Komponenten ergibt sich eine Vielzahl von verschiedenen Klängen (Additive Synthese). Da jedoch ein Klang, z. B. der der auf dem Klavier angeschlagenen Taste a‘ (mit der Grundschwingung 440 Hz), sich während seiner Dauer ändert, reicht diese einfache Klangsynthese zur Erzeugung eines echten Klavierklanges nicht aus. Ganz wesentlich hierfür erweist sich u. a. der Einschwingvorgang, d. h. wichtig ist der Zeitraum, in dem sich der Klang aufbaut. Darüber hinaus trägt farbiges Rauschen, das aus fast unendlich vielen Teilschwingungen mit einem Frequenzmaximum besteht, in besonderem Maße zum Klang bei.

Eine wichtige Charakteristik sind die zeitlichen Differenzen beim Auf- und Abbau von Obertönen; jeder einzelne Oberton besitzt gewissermaßen seine eigene komplexe Hüllkurve. Bei elektronischen Orgeln bleibt die Realisierung des additiven Syntheseprinzips auf das kontrollierte Hinzufügen einiger, in festen Intervallen zum Grundton gestimmten sinusförmigen Oberwellen beschränkt (meist weniger als zehn). Daher ist hier keine Hüllkurvenbeeinflussung möglich.

Die Schnelle Fourier-Transformation erreichte hier durch mehrere kleinere Computersysteme eine Reduzierung der Speicherplatzbedarf. Für eine vollwertige additive Synthese ist die separate Beeinflussung der einzelnen Hüllkurven notwendig. Ob eine gemeinsame Hüllkurve für alle Obertöne, oder die einzelne Programmierung für mehrere Obertöne eines Klanges – die Klangergebnisse unterscheiden sich deutlich in der Qualität. Hüllkurven-Kopierfunktionen können hier Hilfe leisten.

Mit diesen Methoden wurde erstmals die direkte Erzeugung von Klang durch einen Computer möglich – aber nicht in Echtzeit, da diese Operationen sehr viel Rechenleistung erforderten. Ende der 50er Jahre konnten sie nur von Großrechnern durchgeführt werden. Da diese riesigen Rechenmaschinen spezialisierte Fachleute zu ihrer Bedienung benötigten, befanden sie sich meist in Universitäten, wo sie für die Öffentlichkeit nicht zugänglich waren. Dadurch hatten damalige Komponisten kaum Kontakt zur digitalen Klangsynthese und konnten die somit nicht mit der Materie der elektronischen Musik beschäftigen.

 
Elektronische Orgeln
In den 70er Jahren machte man sich die in der digitalen Klangsynthese gewonnenen Erkenntnisse bei der Entwicklung der elektronischen Orgel zunutze. Als elektronische Orgel wird allgemein ein Tasteninstrument mit elektronischer Tonerzeugung bezeichnet. Konkrete analoge oder digitale Technologie der Klangerzeugung, Designausführung oder Baugröße kann daran nicht festgemacht werden und ist immer vom jeweiligen Stand der Technik abhängig und stark anwenderbezogen. Da den Musiker vordergründig eher Klangqualität und Verwendungszweck des Musikinstrumentes interessieren, tritt damit die verwendete Technologie in den Hintergrund des Musizierens zurück. Umgangssprachlich wird sie auch mit: E-Orgel oder Elektro-Orgel (früher auch Elektronenorgel, Elektronikorgel) benannt.

Ab den 1930ern aus den Vorläufern entwickelt, war sie bis zum Aufkommen polyphoner Synthesizer Mitte der 1970er Jahre eines der wenigen elektrophonen Tasteninstrumente mit polyphoner Tonerzeugung. Ursprünglich war die Pfeifenorgel Vorbild zur Entwicklung der elektronischen Orgel: Tastatur (auch mit mehreren Manualen), Bezeichnung der Registerlagen nach der Fußtonzahl oder zum Teil der Registernamen werden übernommen. Durch stetig weitere Verbesserungen und inzwischen durch Einsatz der Computertechnik wurde die Klangerzeugung so verbessert, dass sie auch als elektronische Konzertorgel und Sakralorgel mit hoher Klangqualität zum Einsatz kommt.

Außer der Lichttonorgel waren die frühen „elektronischen“ Orgeln fast alle elektro-mechanische Orgeln, wie etwa die Hammond-Orgel: Durch eine Mechanik wurde in Tonabnehmern ein elektrischer definierter Wechselstrom erzeugt. Hierdurch hat sich auch der Begriff „Hammond-Orgel“ als Synonym für die ganze Instrumentenklasse gebildet. Die Tonerzeugung erfolgte zunächst durch Zahnräder, deren Zähne elektrische Sinusspannungen in Spulen induzierten.

Diese ersten Instrumente besaßen im Gegensatz zu den „digitalen“ (diese lassen sich nur an- oder ausschalten) Registern des klassischen Vorbilds die Möglichkeit, mit Zugriegeln die Lautstärke stufig einzustellen. Pro Manual stehen meist neun Zugriegel zur Verfügung, wobei diese in den verschiedenen Tonlagen 16′, 51/3′, 8′, 4′, 22/3′, 2′, 13/5′, 11/3′ und 1′ klingen. Durch Herausziehen und Hineinschieben der einzelnen Zugriegel und angeschlossener Widerstandsregeler lassen sich gemäß entsprechender Teiltonintensität der Obertonreihe die einzelnen Sinustöne in ihrer Lautstärke beeinflussen und somit verschiedene Klangfarben erzeugen. Die Klangerzeugung entspricht damit einer einfachen additiven Synthese.

Wichtiger Bestandteil einer „klassischen“ Hammond-Orgel ist ein Lautsprecher-Kabinett (Leslie-Lautsprecher), das den Klang der Orgel über rotierende Lautsprecher wiedergibt und ihm damit zusätzliche Schwebungs- und Tremoloeffekte verleiht. Die Rotationsgeschwindigkeit lässt sich dabei in zwei Stufen (Slow/Fast) bestimmen. Später ging man nicht zuletzt aus Platz- und Gewichtsgründen auf die elektronische Simulation dieses Effektes mittels Eimerkettenschaltungen über. Beispiele für solche Geräte waren das Wersivoice der Firma Wersi und der Phasingrotor der Firma Dr. Böhm.
Von der Firma Dynacord wurden in den 80er und 90er Jahren racktaugliche Effektgeräte hergestellt, welche auf die Simulation eines Leslie-Kabinetts spezialisiert waren und eine recht weite Verbreitung fanden (CLS-22, CLS-222, DLS-223, DLS-300).

Heutige Orgeln kombinieren eine Reihe von Klangsynthesen wie Sampling und FM-Synthese. Während die Hammond-Orgel als Inbegriff für den typischen „Sinus-Orgelsound“ steht, gelten neuere Orgeln der Marken Wersi, Böhm oder Roland als Inbegriff für Orchesterorgeln, die neben traditionellen Orgelsounds unterschiedlicher Stilrichtungen (Sinus-, Theaterorgel usw.) auch Orchesterklangfarben in mittlerweile beeindruckender Qualität abbilden. Diese Orgeln sind gerade im Heimbereich sowie bei Alleinunterhaltern beliebt. Große Serieninstrumente verfügen heutzutage über zwei Manuale mit 61 Tasten, einem 76-Tasten-Manual mit Hammermechanik und einem polyphonen 30-Tasten-Pedal.

Im Rock oder Jazz findet man dagegen meist klassische Hammond-Orgeln oder moderne „Clones“. Zunehmend werden diese auch in Software-Synthesizern emuliert.
 
 
Der Computer als Musikinstrument
Erst in den 80er Jahren mit dem Aufkommen des Personal Computers gab es einen ersten Kontakt von Komponisten und Musikern mit elektronisch erzeugter Musik. Die damals erhältlichen Computer waren jedoch noch nicht leistungsfähig genug, um als wirkliches elektronischen Musikinstrument fungieren zu können.
 
 
MIDI
Meist wandelten die in diesen Jahren verwendeten Computer nur vorprogrammierte Steuerbefehle in Töne um. Zu diesem Zweck wurde das MIDI-Protokoll entwickelt, das den Computer erstmals in Richtung Musikinstrument brachte.
 
Das Musical Instrument Digital Interface ist ein Datenübertragungs-Protokoll zum Zwecke der Übermittlung, Aufzeichnung und Wiedergabe von musikalischen Steuerinformationen zwischen Instrumenten oder mit einem PC. Es wurde 1981 von Dave Smith für die Audio Engineering Society entwickelt und von der MIDI Manufacturers Association erstmals 1983 vorgestellt. Das MIDI-Protokoll stellt keine Klänge dar, sondern besteht aus Befehlen zur Ansteuerung von Instrumenten oder einer Soundkarte. Dazu werden Befehle übermittelt, wie beispielsweise „Note-on“ („Schalte Ton an“) mit „Tonhöhe“ und „Velocity“ („Anschlagsstärke“) und „Note-off“ („Schalte Ton aus“). Diese Anweisungen werden meistens an einen Klangerzeuger (beispielsweise Synthesizer, Soundmodulen oder Soundkarte) geschickt, wodurch dann die entsprechenden Klänge abgespielt werden. Auch kann man auf einer Tastatur, die MIDI-Befehle sendet, spielen und andere MIDI kompatible Instrumente damit ansteuern oder die Tastaturbewegungen als MIDI-Befehle aufzeichnen.

MIDI-Signale sind nur Steuerdaten, die einem elektronischen Klangerzeuger wie z. B. Synthesizer, Sampler, Drumcomputer über ein spezielles Datenkabel mitteilen, welchen Ton sie (Tonhöhe = musikalische Note) wie laut (Dynamik) spielen sollen. Digitale „Audiosignale“ hingegen sind von Originalinstrumenten mit einem Mikrofon (oder sonstigen Schallumwandlern) abgenommene und gespeicherte Tonfolgen (Notenfolgen, Klänge, Geräusche), die über ein Lautsprechersystem das Original-Schallereignis wiedergeben können. Mit MIDI-Signalen können hingegen im Nachhinein verschiedenste Arten von Klangerzeugern angesteuert werden, die ihrerseits erst den hörbaren Ton oder Klang formen.

Der Vorteil dieser Methode besteht auch heute noch darin, dass in einem Zeitraster gespeicherte Steuerdaten im Nachhinein noch geändert werden können, so zum Beispiel in der Notenhöhe, der Dynamik oder der Abspielposition und -länge (Rhythmik). All diese Veränderungen der Originaleinspielung kosten im Vergleich zur Nachbearbeitung von „echten“ Audioaufzeichnungen sehr wenig Rechenaufwand und sind damit mit nahezu allen heute verfügbaren Sequencerprogrammen möglich. In der Entstehungszeit von MIDI war freilich von einer Vor- und Nachteilsabwägung zwischen reinen Steuersignalen und echten Audioaufzeichnungen keine Rede, da digitale Klangaufzeichnungen Anfang der 1980er Jahre noch extrem kostenintensiv und damit nur sehr vereinzelten Produktionen vorbehalten waren.

Nimmt man ein Musikstück als MIDI-Signale auf, erhält man Dateien, die verglichen mit der klassischen digitalen Aufzeichnung von Musik sehr klein sind. Bei der klassischen Musikaufzeichnung wird das Audiomaterial kontinuierlich mit hohen Abtastraten in Binärdaten zerlegt und gespeichert. Dadurch entstehen vergleichsweise sehr große Datenmengen, die ein entsprechendes Speichermedium benötigen. MIDI hingegen speichert nur die zur Erzeugung der Töne nötigen Steuerdaten – nicht den Klang selber. Die Datenmenge ist um Faktor 1.000 bis 1.000.000 kleiner (je nach Musiktyp) und hat sich daher z. B. in speicherarmen Mobilgeräten beliebt gemacht.

Insofern ist eine MIDI-Aufzeichnung am ehesten mit einem digitalen Notenblatt vergleichbar, das dem Instrumentalisten (in diesem Vergleich dem elektronischen Klangmodul) Informationen über die abzuspielenden Töne vermittelt, aber dem Klangmodul die Freiheit lässt, einen beliebigen Klang für die Wiedergabe zu verwenden.
Für die Übertragung an oder von nicht digitalen Instrumenten (analoge Synthesizer, E-Gitarren) gibt es Konverter.

Das Komponieren, Arrangieren und dem somit verbundenen Erstellen von Notenblättern, also dem Notensatz, wurde in Verbindung von elektronischem Klavier und dem Auslesen der gerade gespielten Noten via MIDI auf den Computer deutlich vereinfacht. Mit dem PC und entsprechender Spezialsoftware kann z. B. das Arrangieren der Stimmen und Instrumente schneller erfolgen. Variationen können schnell erstellt oder Instrumente durch andere ausgetauscht werden. Auf Tastendruck 20 Streicher zu erzeugen und bei Nichtgefallen wieder zu verwerfen, geht so schnell und einfach. Das ist in teuren Studioproduktionen ein wichtiges wirtschaftliches Argument. Bei alle dem hat der Komponist dennoch immer, dank der MIDI-Schnittstelle, nicht primär den Computer sondern seine gewohnte Klaviertastatur vor sich.

Nichtsdestotrotz waren die durch MIDI erschlossenen kreativen Möglichkeiten eingeschränkt. Es ließen sich zwar Klänge ohne vorherige Aufnahme auf Tastendruck erzeugen und Partituren auf Tastendruck abspielen, doch wurden meist nur reale Instrumente nachgebildet. Der Komponist hatte keinen Einfluss auf den Klang selbst und konnte seine Visionen nicht mithilfe von selbstgeschriebenen Regelsystem umsetzen lassen. Doch mit der Weiterentwicklung des oben erwähnten CSound eröffneten sich neue Möglichkeiten.

 
Max/MSP
Max/MSP ist eine grafische Entwicklungsumgebung für Musik. Die Grundidee basiert auf dem von Max Mathews entwickelten Programm MUSIC, aus dem sich CSound entwickelte. Der Name des Programms ist eine Hommage an seinen Urvater Mathews. Mit dieser Programmiersprache ist es möglich sowohl vorher aufgenommene Klänge als auch MIDI-Steuerdaten durch Regelsysteme zu beeinflussen. Es können Programme geschrieben werden, die entweder mithilfe des Zufalls automatisch ablaufen oder aber Eingaben des Komponisten und live eingespielte Instrumente verarbeiten.

Max/MSP ist eine modular aufgebaute, objektorientierte Programmiersprache. Die Module existieren entweder als in C geschrieben „externals“ oder als „abstractions“, die aus einer Zusammenschaltung mehrerer „externals“ bestehen. Über visuelle Programmierung lassen sich diese Module in vielfältigen Formen zusammenschalten und können so zu eigenen Instrumenten entwickelt werden. Max/MSP stellt damit eine Form von Software-Synthesizer dar, der Klänge selbst erzeugt.

Die ursprüngliche Version Max wurde von Miller Puckette am IRCAM in den 80er Jahren entwickelt. Anfang 1990 wurde eine kommerzielle Version (entwickelt und erweitert von David Zicarelli) von Opcode Systems veröffentlicht. Seit 1999 wird die Software über Zicarellis Firma Cycling’74 vertrieben.

Mit diesem Programm gab er für Komponisten erstmals die Möglichkeit, mithilfe einer grafischen Benutzeroberfläche Musik elektronisch zu erzeugen. Klänge werden aufgrund von mathematischen Regelsystemen erzeugt oder verändert und ergeben so eine völlig neue Art von Musikstücken. Viele der verwendeten Regeln basieren auf den Grundsätzen der seriellen Musik und der algorithmischen Komposition.

 
Apple Macintosh PowerMac G3
In dieser Entwicklung fehlte nur noch ein geeigneter PC, um die neuen Möglichkeiten für die breite Masse von Musikern und Komponisten nutzbar zu machen. Die bis dahin erhältlichen Modelle waren meist langsam, teuer und durch fehlende Schnittstellen nicht für die Musikerzeugung geeignet. Dies änderte sich mit demApple Macintosh PowerMac G3.

Der G3 ist ein von Apple, IBM und Motorola entwickelter Prozessor der PowerPC-Familie. 1997 stellte Apple mit dem Macintosh PowerMac G3 den ersten Computer mit dem G3-Prozessor vor, welcher damals der schnellste erhältliche Rechenchip war. Durch diesen sehr leistungsfähigen und vergleichsweise preisgünstigen PC war es für die breite Masse von Anwendern erstmals möglich einen Computer zu erwerben, der für die Klangerzeugung ausreichend schnell war und die erforderlichen Schnittstellen besaß. Nun wurde die Kreativität der Heimanwender nicht mehr durch die doch eher simplen Ausdrucksmöglichkeiten des MIDI-Protokolls beschränkt, sondern konnten die neuen Möglichkeiten von Programmiersprachen wie Max/MSP voll ausnutzen.

 
Zeitgenössische elektronische Musik
Durch diese neuen Entwicklungen begannen die ersten Musiker und Komponisten mit Max/MSP zu experimentieren und schufen am Ende des 20. Jahrhunderts eine völlig neue Musikrichtung. Die Generierung von Klang mithilfe von vorher programmierten „Instrumenten“ (auf Klänge angewendete Regelsysteme) machte die Live-Erzeugung von surrealen Klangwelten und nie gehörten Tönen möglich. Vorher aufgenommene Töne, beispielsweise Vogelgezwitscher oder Meeresrauschen können zusätzlich eingespeist und mit MIDI-Controllern nach bestimmten Regeln und Systemen moduliert werden. Dadurch fand schließlich auch eine Vermählung der Musique concrète und der abstrakten Berechnungen statt.

Auch Ensembles mit anderen Musikern sind ein Einsatzgebiet der Software. Ein Instrumentalist, mit einer Violine beispielsweise, spielt in ein Mikrofon. Der aufgenommene Klang wird in Echtzeit zu Max/MSP übertragen und dort von dem Musiker moduliert oder später verändert wiedergegeben.

Der Komponist schreibt seine Stücke in Form von Regeln und Formeln, Klänge werden nach bestimmten Schemata erzeugt und verändert, teilweise automatisch, teilweise auf Eingaben eines Musikers. Ein klassisches Notenbild existiert nicht, vielmehr handelt es sich bei der optischen Aufbereitung eines Stücks um verschiedene Kästen, die Regler und Anzeigen enthalten, die sich teilweise mit der Maus verändern lassen oder selbstständig nach Zufall oder periodischen Zeitabläufen agieren.

Seit der Jahrtausendwende kann man somit erstmals vom Computer als Musikinstrument sprechen. Ein Klang wird vom Musiker mithilfe eines eigens entwickelten Programms erzeugt, sei es aus einer vorher entstandenen Aufnahme, aus den Tönen eines gleichzeitig spielenden Instrumentes oder aus vollständig digital synthetisierten Tönen. Der Computer-Musiker hört seinen erzeugten Klang, kann sofort in Echtzeit auf ihn reagieren und mit haptischen Eingaben durch Schiebe- oder Drehregler, Tasten oder der Maus seine Parameter verändern, die durch ein Regelsystem unterstützt oder begrenzt werden. Es existieren auch Programme, die ohne einen Musiker, der den Computer bedient, auskommen und entweder mit einem Instrumentalisten oder vollständig alleine arbeiten. Je nach Software-Instrument werden Lautstärke, Tonhöhe und Geschwindigkeit angepasst, bei aufwendigeren Programmen verändert sich auch die Schichtung von verschiedenen Klangebenen, die Bewegung des Klangs im Raum über verteilte Lautsprecher oder das Verhalten eines vom Computer erzeugten Hintergrundchores. Die Möglichkeiten sind nahezu unbegrenzt und so entsteht bei jeder Aufführung des Stücks eine neue Klangwelt, die je nach Stimmung der Musiker und des Publikums variiert werden kann. Aber auch straff durchkomponierte Stücke für einen Computer mit Live-Instrumenten haben ihren Reiz und lassen das Publikum an nie gehörten Klängen und Klangwelten teilhaben.

 
Vertreter und Werke
Computergenerierte algorithmische Kompositionen
Lejaren A. Hiller: Illiac Suite (1957) für Streichquartett
Iannis Xenakis: ST-xxx (1962 ff.) für verschiedene Besetzungen
Gottfried Michael Koenig: Projekt 1 (1963) für Ensemble
Clarence Barlow: Çogluotobüsisletmesi für Klavier solo

Live-Elektronik
Pierre Boulez: Repons (1981) für Instrumentalsolisten, Kammerensemble, Computerklänge und Live-Elektronik
Jean-Claude Risset: Variants (1994) für Violine und Live-Elektronik

Laptop Musicians (Pop)
Christian Fennesz: Hotel Paral.lel (CD, 1997)

Laptop Musicians (Experimentell)

Karlheinz Essl: ©RUDE (CD, 2000)
 
 
Quellen:
  • http://de.wikipedia.org/wiki/Computermusik
  • http://de.wikipedia.org/wiki/Kanon_(Musik)
  • http://de.wikipedia.org/wiki/Zwölftonmusik
  • http://de.wikipedia.org/wiki/Musical_Instrument_Digital_Interface
  • Karlheinz Essl: Wandlungen der elektroakustischen Musik in: Zwischen Experiment und Kommerz. Zur Ästhetik elektronischer Musik, hrsg. von Thomas Dézsy, Stefan Jena und Dieter Torkewitz (= ANKLAENGE. Wiener Jahrbuch für Musikwissenschaft, hrsg. von Cornelia Szabó-Knotik und Markus Grassl, Band 2)
  • Mille Tre: Wien 2007, p. 37-84. – ISBN: 978-3-900198-14-5

Wurde dir weitergeholfen? Hilf anderen Schülern!

Referate hochladen