28. April 2026: Dieser Artikel wurde grundlegend überarbeitet.

Wie es zu CORPUS kam

Ich bin Komponist, habe das richtig studiert. Stücke schreiben mit einem Anfang und einem Ende und etwas dazwischen, das vom einen zum anderen führt. Lineare Komposition. Um 2014 herum hat mich das nicht mehr gehalten. Eine Vision hat sich seitdem in meinen Kopf gesetzt: eine andere Form von Musik. Eine begehbare. Etwas, in das die Hörerin eintreten kann, sich bewegen kann, und durch ihre Bewegung beeinflussen kann, was passiert. So wie auf einer Jam Session unter Musikern: man steigt ein, etwas Lebendiges nimmt einen auf, durch das eigene Spiel verändert sich was, und das wirkt zurück. Wie das wirklich geht, weiß ich bis heute nicht. Ich nähere mich nur an.

Das versuche ich seit vielen Jahren in meine Arbeit zu übersetzen. Mit Vergehen ging das eigentlich los. Maya kam später, 2017, als Mixed-Reality-Oper. Dann die Soundwalks für die Münchner Philharmoniker, und 2019/20 Lure, eine offene Werkstatt zu Musiktheater und KI, mit der ich mich mit meinem Team intensiv auf Musik-KI eingelassen habe. Bei jedem dieser Versuche bin ich am Ende an dasselbe gestoßen: Die Werkzeuge für interaktive und adaptive Musik sind eigentlich nicht so kompliziert. Aber alle Assets und alle Regeln für alle möglichen Eventualitäten vorauszuplanen, das ist so aufwendig, dass man kaum dorthin kommt, wo es sich lebendig anfühlt. Wo es ein Wesen wäre, mit dem man in Kontakt tritt. Spätestens bei Lure war mir klar, dass so ein Wesen am Ende nur ein KI-Modell sein kann.

Trainingsdaten

Bei Lure habe ich dann auch gesehen, woran es scheitert. An den Trainingsdaten. Es gibt einfach nicht genug Musik, mit der man so etwas sauber trainieren kann. Selbst wo viel da ist, fehlt Diversität, also Unterschiedlichkeit in Genre und Stil. Und die wirklich reichen Bestände, die irgendwo liegen, sind alle rechtlich gebunden, lizenzpflichtig, geschützt. Bei Text und Bild ist das anders, da haben wir alle über zwei Jahrzehnte hinweg bereitwillig Inhalte in Social Networks geteilt, und diese Korpora wurden dann fürs KI-Training mit eingesammelt, ob legal oder nicht. In der Musik hat diese Wild-West-Datensammelei nicht stattgefunden, und ich finde das eigentlich gut. Wir haben in der Musik weiter ein funktionierendes Rechtssystem.

Anreize

Damals hat mich diese Erkenntnis ehrlich gesagt entmutigt. Die Ergebnisse der Musik-KIs fand ich sowieso nicht wahnsinnig aufregend, und die Datenfrage schien mir nicht lösbar. Ich habe meine künstlerische Arbeit weitergeführt und mich daneben anderen Dingen zugewandt, die mich aufregten. Vor allem dezentralen Strukturen und Kryptoökonomien. Was mich daran fasziniert hat, war die Mechanik der Anreizsysteme. Wie kollektive Vorhaben funktionieren, wie Menschen sich beteiligen, weil die Beteiligung selbst etwas wert wird, weil ein Anteil an dem entsteht, was gemeinsam aufgebaut wird. Auch die Spekulationsdynamik, die solche Netzwerke in Bewegung setzt, fand ich interessant, gerade weil sie aufregend ist. Diese Mechanik kennt man auch aus dem Network-Marketing, und sie funktioniert dort erstaunlich gut. Ich halte sie für völlig legitim, wenn sie für etwas Anständiges eingesetzt wird.

Irgendwann habe ich angefangen, beides zusammenzudenken. Ich habe mich gefragt, warum es eigentlich in Text und Bild so viele Trainingsdaten gibt, und in der Musik nicht. Das hat natürlich mit den Social Networks zu tun, mit denen unsere Selbstexponierung in der digitalen Welt seit zwanzig Jahren läuft. In der Musik gab es Versuche, ein vergleichbares soziales Netzwerk aufzubauen, aber die haben nie wirklich abgehoben, weil das Musikmachen als Tätigkeit doch ein Nischeninteresse ist. Es fehlt ein Motor. Und der Gedanke war: vielleicht kann dieser Motor aus den Anreizsystemen der Krypto-Welt kommen.

So entstand die Idee zu einem Protokoll, das die globale Community an Musikmachenden dazu anstiftet, gemeinsam einen Trainingskorpus aufzubauen. Mit Samples, mit eingespielten Stücken, und mit der mindestens ebenso wichtigen Beschreibungsarbeit und Qualitätskontrolle. Wer zu Inhalt, Beschreibung oder Qualität beiträgt, bekommt einen Anteil am Korpus verbrieft. Wenn der Korpus später lizenziert wird oder anders Wert generiert, fließt dieser Wert über das Protokoll an alle zurück, die mitgebaut haben.

Das Protokoll kann mehr als verteilen. Es kann Diversität belohnen, indem ein neuer Beitrag daraufhin geprüft wird, ob er Territorium besetzt, das im Korpus noch unterrepräsentiert ist. Je origineller, je weiter weg vom schon Vorhandenen, desto höher die Belohnung. Es kann musikalische und technische Qualität gewichten. Auf diese Weise sind die Anreize für Qualität und Diversität schon eingebaut, lange bevor irgendein Modell auf den Daten trainiert wird.

Jam

Geld allein reicht aber nicht aus, damit Musiker da überhaupt mitmachen, vor allem nicht, wenn am Ende eine Maschine zuhört. Beim Musikmachen geht es ja eigentlich um Begegnung, ums Zusammenspiel, um die dritte Sache, die zwischen zwei Menschen entsteht. Und die fehlt in den heutigen Trainingskorpora vollständig. Dafür haben wir uns Jam überlegt, eine Plattform, die wie eine offene Probe funktioniert. Ich nehme eine Idee auf, eine Gitarrenphrase, ein paar Takte. Eine Musikerin, die ich nicht kenne, hört das, fühlt sich angesprochen, spielt etwas dazu, ein Saxophon, eine Stimme, ein Loop. Eine Dritte hört das Saxophon und reagiert wiederum darauf. So entstehen Verwandtschaftsbezüge zwischen den Beiträgen, erste, zweite, dritte Generation. Für ein KI-Modell, das eines Tages so etwas wie Inspiration und Flow ansatzweise nachvollziehen können soll, sind solche Bezüge meines Erachtens einer der wertvollsten Datenschätze überhaupt.

Diese Idee hat eine Zeit lang in meinem Kopf herumgespukt. Das war 2021, vor dem ChatGPT-Moment, der dann die ganze KI-Welt durchgewirbelt hat. Eine Zeit lang dachte ich, naja, das Thema ist mir entglitten, jetzt rollt eh die große Welle und meine Idee von 2021 ist obsolet. Aber das Problem der rechtlich einwandfreien Trainingsdaten ist nicht verschwunden, im Gegenteil, es ist mit jedem Monat sichtbarer geworden. Vor etwa einem Jahr stieß ich dann auf eine Förderausschreibung der Europäischen Union, und ich habe den Anlass genutzt, die Gedanken zu schärfen, ein konkretes Projekt zu destillieren, einen Antrag zu schreiben. Er wird jetzt gefördert, und CORPUS wird gebaut.

Mit den Vorträgen, die ich derzeit halte, suche ich Partner, Verbände, Allianzen. Ich will das Projekt nicht als Insel entwickeln, schon weil ich, selbst wenn ich es eigennützig betrachte, weiß, dass so etwas nur als Teil einer breiteren Bewegung funktioniert.

Mein Interesse an KI ist von einer konkreten künstlerischen Frage getragen: ob Formen musikalischer Erfahrung entstehen können, die jenseits der linearen Komposition liegen. Räume, die antworten. Die KI-Modelle, die das leisten könnten, gibt es noch nicht. Damit es sie gibt, müssen sie auf Daten lernen, die fair, divers und lizenzierbar sind. CORPUS soll diese Datenbasis bauen. Dann kann die eigentliche Arbeit beginnen.

Mehr zum Projekt: corpus.music. Längere Artikel im Journal: journal.corpus.music.