„Ich müßte eigentlich ein Manifest schreiben...“

■ Mit der Sommerzeit ging in Köln die 14. Internationale Computermusik-Konferenz zu Ende. Davor stand der Prix Ars Electronica des Österreichischen Rundfunks im Mittelpunkt der Linzer Computerkulturtage.

Martin Fischer

Auf der Bühne der Kölner Szenekneipe „Stadtgarten“ trommelt der Komponist und Forscher Andrew Schloss aus Connecticut mit zwei verkabelten Stöcken auf eine verkabelte Platte. Doch was da an metallenem Geklimper aus den Lautsprechern dringt, vermag die Aufmerksamkeit des Publikums nicht zu erklären. Der 36jährige Stanford-Absolvent blickt ehrfürchtig auf den Bildschirm seines Computers, seine Trommelstöcke sind Schalter, deren Betätigung die Klangregister der angeschlossenen Synthesizer steuern. Professor Schloss glaubt daran, daß die „interaktive Verbindung zwischen Musiker und Computer zu einer Explosion der musikalischen Möglichkeiten“ führt. Sein Ziel ist die Verbindung der „Entscheidungsfähigkeit der Computersysteme mit der „Intuition des Musikers“, nur dadurch seien noch „musikalische Entdeckungen“ möglich.

Die musikalische Demonstration überzeugt nicht alle. Einige flüchten in die Kneipe und machen dort ihrem Unbehagen Luft. „Noch nie habe ich soviel Schwachsinn gehört wie auf dieser Konferenz“, empört sich Tamas Ungvary vom Stockholmer Computermusikstudio EMS. Am letzten Abend der fünftägigen International Computer Music Conference (ICMC) sind viele Teilnehmer müde und enttäuscht. Die erstmals in der BRD stattfindende Jahresversammlung der US-amerikanisch dominierten Computermusik-Zunft hat in den zahllosen Vorträgen und Konzerten viele tief verwurzelte Probleme und Mißverständnisse erneut sichtbar werden lassen. Doch eine öffentliche Diskussion der Mensch-Maschine Interaktion kam nicht zustande. Der Personal-Computer

Der planetenweite Siegeszug des Personal-Computers zu Beginn der 80er Jahre hat auch im Bereich der Musik die Produktionsweisen nachhaltig verändert. Ob millionenfach verkaufte musikalische Dauerberieselung oder in Nabelschau erstarrte Neutönerei, die kleinen grauen Chips sind immer im Spiel, Tonhöhe, Tempo, Dauer, Harmonie, Klangfarbe, Dynamik, Phrasierung - alles steht jederzeit und überall vollkommen identisch zur beliebigen Wiederholung bereit. Der störende Humanfaktor ist dabei, auch aus der Musik zu verschwinden. Digitale Synthesizer und Schlagzeugcomputer terrorisieren längst schon tagtäglich und millionenfach den Erdball mit ihren Simulationen von ehemals „natürlichen“ Klängen. Computer sind hervorragende Maschinen für Automation, Rationalisierung und Kontrolle. Daß sie auch ein Werkzeug für die Komposition, Produktion und Analyse von Musik sein können, ist eine Überlegung, die seit Jahrzehnten die experimetierfreudigen Gemüter am Rande des Neue-Musik-Zirkus fasziniert. Die Idee, den Computer zum Komponieren zu verwenden, ist so alt wie die Idee der digitalen Rechenmaschine selbs. Seit den 50er Jahren unseres Jahrhunderts wird - vor allem von US-amerikanischen Universitäten - konkret an der Entwicklung von Musikcomputern gearbeitet.

KomponistInnen, die vorher ihre instrumental gedachten Werke mit Hilfe von aufwendigen Tabellen und Rechenoperationen konzipierten, verwenden heute den Computer zur Komposition musikalischer Strukturen, wie der algorithmisch gewonnene Notentext sowohl vom Computer „musiziert“ werden kann als auch von einem Instrumentenensemble. Jene, die zuvor in elektroakustischen Studios ihre Musik mühsam mittels analoger Elektronik und Tonbandtechnik produzieren mußten, übertragen nun die Klangproduktion und -manipulation dem Computer. Andere wieder versuchen, den Computer als „interaktives System“ auf die Bühne zu stellen, um mit ihm gemeinsam zu improvisieren.

Sogar eine Musik, die ihre gesellschaftskritische Funktion offensiv wahrnehmen will, findet in dieser Technologie die Möglichkeit vor, konkret und nachvollziehbar Einspruch zu erheben. Erstmals steht alles, was ein Mikrofon wahrnehmen kann, ohne Einschränkungen zur künstlerischen Verarbeitung, Verfremdung und Kommentierung zur Verfügung. Standardisierung

Die 1981 von den Konzernen der Musikelektronik festgelegte MIDI-Konvention (Musical Instrument Digital Interface) hat die Minimalisierung musikalischer Ausdrucksmöglichkeiten zum internationalen Standard erhoben. Seitdem passen alle Geräte und deren Programme auf wundersame Weise zusammen. Der heute weltweit populäre MIDI-Einsatz hat - als Voraussetzung für den ökonomischen Erfolg der Konzerne - Individualität der Anwendung und Vielfalt des Ausdrucks der internatioalen Norm geopfert. Viele der in Köln vorgestellten Musikbeispiele bestätigen diesen Eindruck.

Die TeilnehmerInnen an der Kölner Konferenz haben ein dichtes Programm zu absolvieren. Aber die große Mehrheit der Vorträge und Demonstrationen enttäuscht die Erwartungen ebenso wie die in den Konzerten vorgestellte Musik. Die Welt der vorwiegend männlichen 30-40jährigen Komponisten, Wissenschaftler, Programmierer und Techniker aus den USA, Japan und Europa ist ein geschlossenes intaktes System. Die kritische Reflexion der eigenen Tätigkeit wird ausgeblendet. Die Frage nach dem ethischen, sozialen, ökonomischen und ästhetischen Kontext auch. Interessante Gespräche finden nur in den Pausen statt.

Der niedersächsische Komponist mit Stanford-Erfahrung Johannes Goebel bleibt mit den Fragestellungen seines Eröffnungsreferats allein. „Mensch-Maschine-Interaktion als Begriff“, meint Goebel, „scheint mehr zu verbergen als zu verdeutlichen.“ Goebels Fragen - „welche Funktionen werden als maschinenausführbar angesehen und warum und welche Folgen hat das für die Nicht-Maschinenwelt, welche Umwälzung oder Zementierung findet durch die Benennung eines Problems als Mensch-Maschine- Interaktion statt?“ - verhallen unbeantwortet im Auditorium. „Damit habe ich nicht gerechnet“, zeigt sich Goebel enttäuscht, „die vergessen doch, was sie ticken läßt.“ Doch auch er spricht nicht wirklich aus, wovon er redet. Den Verfechtern jener Richtung der Computerwissenschaften, die für sich den absurden Begriff der „Künstlerischen Intelligenz „(KI) beanspruchen, erteilt Goebel keine klare Absage. Die Haustiere des Supercomputers

Daß der KI-Papst Marvin Minsky vom MIT (Massachusetts Institute of Technology) über künftige Supercomputer meint, „wenn wir Glück haben, entschließen sie sich vielleicht, uns als Haustiere zu behalten“, darf auch in diesem Kreis nicht kritisiert werden. In den frühen 70er Jahren schrieb Minsky „Muse“, eines der ersten im Handel erhältlichen „Intelligenten Musikprogramme“, das Melodien und thematische Entwicklungen erzeugte. An Minskys Media-Labor ist das für die Computermusik-Szene wichtige Experimentalmusikstudio des MIT angegliedert. Minsky selbst sitzt im Redaktionsbeirat des Computer Music Journal, ist Mitglied in der Computer Music Improvisation und erhofft sich von Studien der musikalischen Improvisation Hilfestellungen bei der von der KI dringend benötigten Formalisierung menschlichen Denkens.

Noch immer behauptete die KI-Forschung, menschliches Denken und Handeln sei durch Maschinenmodelle erklärbar und in einer Weise nachzubilden, die das Original erreicht und sogar übertrifft. Charakteristisch für die KI ist die Kolonialisierung des intellektuellen Diskurses. Die KI will Menschen dazu bringen, sich selbst als emotionale Maschinen zu begreifen, die das Denken den rationalen Maschinen überlassen. Die Ankündigung der Computer der 5. Generation hat die unkritische KI-Euphorie neu entfacht. Die bedeutungsvoll auch Neurocomputer genannte Connection Maschine soll durch eine massive Parallelität von Prozessoren die Komplexität des menschlichen Gehirns simulieren.

In der Computermusikszene sind KI und sogenannte Expertensysteme heute die großen Themen. So berichtet eine japanische Arbeitsgruppe von ihrem KI-Projekt eines „menschenähnlichen Systems“, das mit Musik gezielt „Gefühle und Stimmungen“ erzeugen soll. Auch der New Yorker Musiker Richard Teitelbaum, der sich seit 1980 mit dem Einsatz von Microcomputern zur Steuerung von Synthesizern und Klavieren beschäftigt, baut heute auf die KI. Mit seinem in Köln unter großem technischen Aufwand realisierten Projekt „Golemics“ für Computer, Klavier, Synthesizer und Bläser will Teitelbaum die Möglichkeit sogenannter „intelligenter interaktiver Musiksysteme“ sinnlich demonstrieren. Sein „intelligentes System“ soll auf sich selbst ebenso „hören und reagieren“ wie auf die improvisierenden Musiker.

Der Beginn des Konzertes in der Aula der Kölner Musikhochschule verzögert sich. Die Technik macht Probleme. Endlich ist die Bühne verkabelt. Ein Flügel und ein Pianino sind mit einer Mechanik zur digitalen Fernsteuerung präpariert. Ein weiterer Flügel, vollständig elektronifiziert, ist quasi das Cockpit des Komponisten. Um ihn herum Keyboards, Sampler, Computer und sonstige elektronische Geräte. Am anderen Ende der Bühne sitzt ein Mann an zwei Computern. Dazwischen stehen die beiden Bläser, ebenfalls mittels Kontaktmikrophon verkabelt.

Das Netzwerk arbeitet korrekt. Die Maschinen funktionieren. Bei einfachen, melodischen Motiven ist die simple musikalische Reaktion der Maschine deutlich erkennbar: sterile saubere Töne, ohne jede spezifische Eigenschaft. Aber mit der vitalen Kreativität, Kraft und Spielfreude des Posaunisten kann Teitelbaums Computersystem nicht mithalten. Sein Beitrag ist desillusionierend künstlich, ohne jegliche künstlerische Ambition. Teitelbaums Golem bleibt, was er ist - eine Maschine. Welche Klänge abgerufen werden, ist für Teitelbaum nicht von Bedeutung. Seine Synthesizermodule verwenden die in der Fabrik voreingestellten Klänge. Auf die bewußte Auswahl und Formung des akustischen Materials hat der Komponist verzichtet. Dafür fehlte es an Zeit. Das ideale live-elektronische Instrument

Auch für den Schweizer Komponisten und Ars-Electronica-Juror Thomas Kessler, der seit Jahren mit einem Musikcomputer arbeitet, ist der Computer trotz der bisher mäßigen Ergebnisse „zum idealen live-elektronischen Instrument an sich“ geworden. Doch bei den Ars Electronica Computerkulturtagen des Österreichischen Rundfunks in Linz wurden 1988 ausschließlich in Studios realisierte Computermusikwerke prämiert. Aufnahmen von Echtzeit -Realisation mit „intelligenten interaktiven Systemen“ wurden - wohl wegen ihrer wenig überzeugenden musikalischen Ergebnisse - gar nicht erst eingereicht. Den Prix Ars Electronica in der Kategorie Computermusik und einen Scheck über 21.400 Mark erhielt der Neuseeländer Denis Smalley, obwohl das handwerklich brav gearbeitete Werk „Clarinet Threads“ für Klarinette und Tonband aus 1985 bereits 1986 in der ICMC zu hören war. „Da aber“, erläuterte Kessler die Haltung der Jury, „ein Tonband schon für ein Konzert und erst recht für den ersten Preis ein Problem ist, haben wir uns für das Stück mit Instrument und Tonband entschieden.“ Doch für Kessler ist ein Instrument mit Zuspielband eigentlich nicht mehr zeitgemäß: „Heute gehören die Instrumente mit den Computern auf die Bühne.“

In der TV-Gala der Preisverleihung dankt Generaldirektor Wolfsberger vom Sponsor Siemens den ComputerkünstlerInnen dafür, „daß sie ganz wesentlich dazu beigetragen haben, die Hemmschwelle gegen die neuen Technologien zu überwinden“. „Computerkunst“, schreibt Brian Reffin Smith, Gewinner des Prix Ars Electronica in der Kategorie Computermusik 1987, zeuge oft von einer „Weltsicht, in der die Tugend durch den Wert eines Vierfarbenprospektes von Ein-Mann-Raketenwerfern ersetzt wird“. Denn „wenn ich einen Computer benütze, so benütze ich ein System, das in erster Linie für militärische und kapitalistische Zwecke entwickelt wurde“.

In Köln verliert auch der Pragmatiker Kessler mitunter die Nerven: „Wir haben nur die Freiheit, alles zu kaufen. Da geht kein Ton mehr rückwärts, wenn er nicht programmiert ist, da geht kein Ton mehr ein bißchen früher oder ein bißchen anders. Da darf ich nicht mal mehr einen Fehler machen, weil das automatische Korrekturprogramm das alles ausbügelt. Ich müßte eigentlich ein Manifest schreiben und von vielen Leuten hier unterschreiben lassen.“

Er hat es nicht geschrieben.