Ein Hinweis zur Offenlegung, hier am Anfang statt am Ende: Der Autor entwickelt ein Framework — Steerable — das umzusetzen versucht, was dieser Artikel vorschlägt. Dieser Kontext ist dafür relevant, wie das Argument gelesen werden sollte. Die Abschnitte eins bis neun sind das Argument; Abschnitt zehn ist die Offenlegung. Das Argument ist nicht vom Framework abhängig, aber der Leser sollte wissen, dass das Framework existiert, bevor er entscheidet, wie viel Gewicht er dem Argument beimessen will.

1.

Vor einigen Jahren brachte eine verwitwete Frau Anfang sechzig ihre Altersersparnisse zu einem Finanzberater. Er dokumentierte ihr Profil, entwickelte eine dem Grundsatz nach explizit konservative Struktur und ergänzte ein Element, das darauf ausgelegt war, Drawdowns über die Zeit abzufedern: eine gemischte Position aus mittelfristigen Staatsanleihen und einer breit diversifizierten Aktienkomponente. Die Konstruktion war lehrbuchmäßig. Sie vertraute ihm und unterschrieb.

Zwei Jahre später befanden sich die Witwe und ihr Sohn in einem aufsichtsrechtlichen Beschwerdeverfahren. Ihr Gesundheitszustand hatte sich verschlechtert, und sie benötigte das Geld früher, als die Struktur es erlaubte. Das Verfahren lief über ein Jahr, endete mit einem Teilvergleich und löste nichts auf, was von Bedeutung war.

Das stand zur Debatte:

Das hier beschriebene Verfahren folgt dem amerikanischen Regulierungsmodell, in dem individuelle Beraterverantwortung und Zulassung die primären Durchsetzungsmechanismen sind; in Deutschland oder Österreich würde der äquivalente Weg über die institutionelle Haftung nach den MiFID-II-Verhaltenspflichten verlaufen, aber die strukturelle Frage, die das Verfahren aufwarf — wer die gescheiterte Allokation entworfen hat — ist dieselbe.

Dieser Artikel handelt von dieser Frage. Sie hat in der Regulierungs- oder Fachsprache keinen etablierten Namen, keine saubere Antwort in einem aktuellen Rechts- oder Compliance-Rahmen. Und wenn das Muster der letzten fünfundzwanzig Jahre anhält, ist es die Frage, die bald weitaus häufiger gestellt werden wird, als sie heute gestellt wird.


2.

Das Phänomen braucht einen Namen, bevor es adressiert werden kann. Man nenne es Ghost Ownership.

Der Begriff entlehnt dem Vokabular abwesender Präsenz — und erfordert eine Klarstellung. In Rahmenwerken für Finanzkriminalität bezeichnet ‘Ghost Ownership’ verschleierte wirtschaftliche Eigentümerschaft: die Briefkastenfirma, den Nominaldirektor, die Konstruktion, die verbergen soll, wer ein Vermögen tatsächlich kontrolliert. Das ist ein anderes Problem mit einer anderen Literatur.8 Das hier beschriebene Phänomen erscheint in der akademischen Literatur als ‘Attributierungslücke’ — die Auflösung identifizierbarer menschlicher Urheberschaft, wenn Entscheidungen wesentlich durch KI-Ausgaben geformt werden.9 Ghost Ownership ist der ausdrucksstärkere öffentliche Begriff; Attributierungslücke ist der präzisere regulatorische und akademische. Beide werden im Folgenden verwendet.

Ghost Ownership beschreibt den Zustand, in dem eine Entscheidung formal von einem Menschen getroffen wird, aber so wesentlich durch eine maschinengenerierte Ausgabe geformt wurde, dass die tatsächliche Urheberschaft nicht mehr sauber zugeordnet werden kann. Der Mensch hat unterschrieben. Das System hat beigetragen. Keiner von beiden hat die Entscheidung allein getroffen, und keiner lässt sich im Nachhinein sauber von ihr trennen.

Drei Bedingungen kennzeichnen gemeinsam das Phänomen:

Wenn alle drei gleichzeitig zutreffen, sieht man Ghost Ownership. Wenn nur eine oder zwei zutreffen, sieht man gewöhnliche Werkzeugnutzung — die Art, die jede Profession begleitet hat, seit Taschenrechner den Rechenschieber ersetzten. Die Unterscheidung ist wichtig, weil die Antwort auf gewöhnliche Werkzeugnutzung professionelles Urteil und Standardpraxis ist. Die Antwort auf Ghost Ownership wurde noch nicht erfunden.

Zwei Klarstellungen. Erstens bezeichnet ‘die Kette’ die Abfolge von Menschen und Systemen, die zu einer einzelnen Entscheidung beiträgt — für einen Finanzberater könnte das der Berater, das Strukturierungswerkzeug, der Compliance-Prüfer und der Kunde sein; für einen Arzt, der KI-gestützte Diagnostik nutzt, der Arzt, das Diagnosesystem, der Radiologe, der Trainingsdaten validiert hat, und der Patient. Die Zusammensetzung der Kette variiert nach Domäne. Die strukturelle Eigenschaft — dass Urheberschaft irgendwo in ihr aufgelöst wird — nicht.

Zweitens ist das kein moralisches Versagen irgendeiner Partei. Es ist eine strukturelle Eigenschaft der Technologie, und das ist der Grund, warum Ghost Ownership nicht dadurch gelöst werden kann, dass man Fachleute auffordert, sorgfältiger oder gewissenhafter zu sein. Die Sorgfalt ist bereits vorhanden. Die Gewissenhaftigkeit ist bereits vorhanden. Was fehlt, ist ein Rahmen, der anerkennt, dass das Problem existiert.


3.

Ghost Ownership lässt sich leicht mit drei benachbarten Problemen verwechseln, und diese Verwechslung ist der erste Grund, warum es noch keinen Namen hat.

Es ist nicht das Black-Box-Problem. Das Black-Box-Problem betrifft Systeme, deren interne Logik von außen nicht einsehbar ist. Ghost Ownership betrifft den Menschen vor dem System. Ein vollkommen transparenter Algorithmus, dessen jeder Schritt auditiert werden könnte, würde dennoch Ghost Ownership erzeugen, sobald ein Mensch auf seine Ausgabe handelt, ohne im Nachhinein rekonstruieren zu können, welche Teile der Entscheidung seine eigenen waren.

Es ist keine Erklärungslücke. Erklärbarkeit sagt einem, was das System gedacht hat. Ghost Ownership betrifft, was der Mensch gedacht hat — und ob dieses Denken noch als das des Menschen bezeichnet werden kann, nachdem es so tief durch die Ausgabe des Systems geformt wurde. Selbst ein vollkommen erklärbares System, das von einem Menschen verwendet wurde, der jeden Schritt verstand, würde dennoch Ghost Ownership erzeugen, wenn der Mensch ohne das System nicht zur gleichen Schlussfolgerung hätte gelangen können.

Es ist keine gewöhnliche Werkzeugabhängigkeit. Chirurgen nutzen Bildgebungssysteme, die sie nicht entworfen haben; Piloten nutzen Autopiloten, die sie nicht aus dem Gedächtnis rekonstruieren können; Architekten nutzen Strukturanalysesoftware, deren interne Berechnungen keine einzelne Person im Detail überprüft. Keines davon konstituiert Ghost Ownership, weil in jedem Fall die Urheberkette noch in identifizierbaren menschlichen Entscheidungen terminiert: Jemand hat das Bildgebungssystem gebaut, jemand hat den Autopiloten zertifiziert, jemand hat das Strukturmodell abgezeichnet. Das Werkzeug erweitert menschliche Fähigkeit, ohne die Frage aufzulösen, wer was entschieden hat.

Jedes dieser benachbarten Probleme hat eine eigene aufkommende Antwort. Die Black-Box-Forschung hat Interpretierbarkeits-Techniken hervorgebracht. Erklärbarkeit hat Modellkarten und Reasoning-Traces hervorgebracht. Werkzeugabhängigkeit hat Zertifizierungsrahmen und Berufshaftpflichtversicherung hervorgebracht. Keine dieser Antworten adressiert Ghost Ownership, weil keine dafür konzipiert wurde. Sie beantworten andere Fragen.

Die Struktur des Problems — Verantwortung, die keinem einzelnen Akteur in einer Mensch-Maschine-Kette zugewiesen werden kann — ist in der Literatur über autonome Systeme bereits aufgetaucht, wo sie als ‘Moral Responsibility Gap’ bezeichnet wird.10 Der Unterschied zwischen dieser Rahmung und Ghost Ownership ist einer des Grades, nicht der Art: Während autonome Systeme ohne menschlichen Input handeln, beinhalten KI-gestützte Entscheidungen einen Menschen, der zwar anwesend ist, dessen Beitrag aber in einem Maß reduziert wurde, das Attribution zumindest strittig macht. Die frühere Literatur konzentrierte sich auf Systeme, die handeln; Ghost Ownership konzentriert sich auf Systeme, die formen. Die formende Variante ist schwerer zu sehen und leichter wegzuerklären — weshalb es länger gedauert hat, sie zu benennen.

Das Konzept der ‘sinnvollen menschlichen Kontrolle’ — entwickelt in der Literatur zu autonomen Waffen, um zu spezifizieren, dass menschliche Aufsicht sowohl eine Tracking-Bedingung (das System reagiert auf die relevanten Gründe seiner Entwickler) als auch eine Tracing-Bedingung (Ergebnisse können identifizierbaren Menschen entlang der Kette aus Entwurf und Betrieb zugeschrieben werden) erfordert — beschreibt genau das, was Ghost Ownership erodiert.11 Der Mensch ist anwesend. Die Schaltfläche kann gedrückt werden. Beide Bedingungen haben sich aufgelöst.


4.

Warum wird diese Frage jetzt dringlich?

Vier Entwicklungen konvergieren 2026 auf eine Weise, die es vorher nicht gab. Am 2. August 2026 tritt der EU AI Act für Hochrisiko-KI-Systeme vollständig in Kraft — ein Datum, das zum Zeitpunkt der Abfassung dieses Artikels weniger als vier Monate entfernt ist und direkt auf KI-Werkzeuge anwendbar ist, die in der Anlageberatung und Portfoliostrukturierung eingesetzt werden.12 Keine Entwicklung allein würde die Frage erzwingen. Zusammen machen sie sie unvermeidlich.

Die erste findet an der Spitze des Marktes statt. Im Februar 2026 veröffentlichten Forscher einer der größten US-Investmentbanken ein generatives Foundation-Modell, das auf Milliarden von Handelsereignissen über mehr als neuntausend Aktien trainiert wurde.1 Das Modell sagt den nächsten Trade voraus, so wie große Sprachmodelle das nächste Token vorhersagen. Es generalisiert über Anlageklassen hinweg ohne Rekalibrierung, reproduziert die statistischen Signaturen realer Märkte und operiert in einem geschlossenen Kreislauf, in dem seine eigenen Vorhersagen den Marktzustand beeinflussen, der seine nächste Vorhersage konditioniert. Wenn Systeme dieser Art in die Arbeitsabläufe von Handelsabteilungen und Asset Managern einziehen, wird die Lücke zwischen dem, was sie produzieren, und dem, was ein einzelner Mensch verifizieren kann, dauerhaft.

Die zweite liegt eine Ebene darunter, wo diese Ausgaben die Menschen erreichen, die tatsächlich Entscheidungen für Kunden treffen. Plattformen existieren inzwischen, die institutionelle quantitative Modelle in Empfehlungen verpacken, die an Vermögensberater, Broker und letztlich an Endkunden weitergeleitet werden.2 Jede Übergabe in dieser Kette schafft eine neue Möglichkeit für die Auflösung von Urheberschaft, und die Kette wird länger, nicht kürzer.

Die dritte geschieht in aller Öffentlichkeit. Im vergangenen Jahr hat sich eine Disziplin namens Answer Engine Optimization herausgebildet.3 Ihre Prämisse ist, dass, wenn KI-Systeme zum primären Weg werden, auf dem Menschen Informationen finden, die Frage nicht mehr lautet, wie man in Suchergebnissen hoch rankt, sondern wie man vom KI-System selbst als Quelle zitiert wird. Unternehmen gestalten ihren Content inzwischen aktiv so, dass große Sprachmodelle sie als autoritativ behandeln. Die Eingaben für die Systeme, die Empfehlungen formen werden, werden von Parteien geformt, deren Interesse darin besteht, zitiert zu werden — nicht unbedingt korrekt zu sein.

Die vierte ist die explizite Anerkennung durch die KI-Industrie selbst. Im Januar 2026 veröffentlichte der Vorstandsvorsitzende eines der führenden KI-Forschungsunternehmen einen achtunddreißigseitigen Essay, in dem er den gegenwärtigen Moment als einen Übergang beschreibt, für den die Menschheit nach seinen eigenen Worten kein Governance-Modell, keinen Rechtsrahmen und kaum ein gemeinsames Vokabular hat.4 Der Essay wurde nicht von einem Kritiker der Technologie geschrieben. Er wurde von jemandem geschrieben, dessen Unternehmen sie baut, dessen Unternehmen von ihrem Fortschritt profitiert und der deshalb jeden kommerziellen Anreiz hätte, die Risiken herunterzuspielen. Er tat es nicht. Er nannte das Fehlen eines Vokabulars als eines der zentralen Probleme, mit denen wir konfrontiert sind.

Diese vier Entwicklungen konvergieren an derselben Stelle: Sie machen Ghost Ownership zu einem gegenwärtigen Problem, nicht zu einem zukünftigen.

Es gibt noch eine weitere Sache zu bemerken, und sie ist es, die Konvergenz in ein Muster verwandelt. Dreimal in den letzten fünfundzwanzig Jahren folgte auf eine Welle technologischen Wandels im Finanzsektor mit einigen Jahren Verzögerung eine Welle rechtlicher Nachwirkungen. Nach 2000 entstanden Ansprüche gegen Berater, die die neuen Online-Plattformen genutzt hatten.5 Nach 2008 entstanden Ansprüche gegen Berater, die strukturierte Produkte empfohlen hatten, deren interne Mathematik niemand in der Kette vollständig verstanden hatte.6 Nach 2022 entstanden Ansprüche gegen Firmen, deren algorithmische Portfolioprodukte auf eine Weise vermarktet worden waren, die ihr tatsächliches Verhalten nicht unterstützte.7

Jede Welle folgte demselben Muster. Eine Plattform-Veränderung führte eine neue Verifikationsasymmetrie ein. Die Asymmetrie wurde toleriert, weil sie der neue Standard war. Dann kam ein Schock, der genau dort traf, wo die Asymmetrie verborgen war, und die rechtlichen Nachwirkungen richteten sich nicht gegen das Ungewöhnliche, sondern gegen das Typische.

Drei Datenpunkte sind kein Beweis. Sie reichen aus, um bemerkt zu werden. Wenn die vierte Welle demselben Muster folgt, wird es nicht gegen Berater gehen, die unvorsichtig waren. Es wird gegen Berater gehen, die 2026 die KI-Werkzeuge verwendeten, die alle anderen auch verwendeten.


5.

Ein vernünftiger Leser wird annehmen, dass die Regulierung dies irgendwo bereits adressieren muss. Der Finanzsektor ist einer der am stärksten regulierten Sektoren der Welt, und KI ist eine der am aktivsten regulierten Technologien des Jahrzehnts. Sicher deckt zwischen MiFID II in Europa, dem EU AI Act, den Bestimmungen der DSGVO zur automatisierten Entscheidungsfindung, den SEC-Leitlinien zu KI in Beratungsdienstleistungen und den verschiedenen nationalen Aufsichtsrahmen die Frage der Urheberschaft bereits irgendwo ab.

Das tut sie nicht. Was abgedeckt ist, liegt daneben.

MiFID II verlangt, dass Wertpapierfirmen die Eignung ihrer Empfehlungen beurteilen und die Beurteilung dokumentieren. Aber Eignung ist eine Eigenschaft der Empfehlung, nicht ihrer Urheberschaft. Eine Empfehlung kann vollkommen geeignet sein und dennoch durch einen Prozess generiert worden sein, den kein Mensch in der Kette rekonstruieren kann. Eignung fragt, ob das Ergebnis zum Kunden passt. Sie fragt nicht, wer entschieden hat.

Der EU AI Act verlangt menschliche Aufsicht über Hochrisiko-KI-Systeme. Das ist näher dran, aber Aufsicht bedeutet in der aktuellen Definition, dass ein Mensch in der Lage sein muss, in das System einzugreifen, es zu übersteuern oder zu stoppen. Es erfordert nicht, dass der Mensch der identifizierbare Autor der Entscheidung ist, zu der das System beiträgt. Die Aufsichtsanforderung ist erfüllt, wenn ein Mensch einen Knopf drücken kann. Artikel 13 des Gesetzes kommt näher heran: Er verlangt, dass Hochrisiko-KI-Systeme so konzipiert werden, dass sie eine für Betreiber ausreichende Transparenz gewährleisten, um Ausgaben zu interpretieren und angemessen zu verwenden.14 Erwägungsgrund 48 bekräftigt dies, indem er fordert, dass Personen, denen menschliche Aufsicht zugewiesen wird, die notwendige Kompetenz, Schulung und Befugnis besitzen müssen, um diese Rolle wahrzunehmen — eine Formulierung, die darauf abzielt, Aufsicht zu verhindern, die nominell statt substantiell ist.15 Artikel 86 geht noch weiter und gewährt betroffenen Personen das Recht, vom Betreiber klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess zu erhalten.21 Die öffentliche Erklärung der ESMA von 2024 zu KI in Wertpapierdienstleistungen erweitert vergleichbare Pflichten auf den Beratungskontext.16 Diese Bestimmungen gehen weiter als alles, was zuvor kam. Sie verlangen, dass der Mensch in der Lage ist, die Ausgabe zu verstehen, und dass die betroffene Person eine Erklärung zur Rolle des Systems verlangen kann. Sie verlangen nicht, dass die eigene Antwort des Menschen auf diese Ausgabe — das gebildete Urteil, das gehaltene Vertrauen, die erwogenen und verworfenen Alternativen — als Aufzeichnung erhalten bleibt. Die Rolle des Systems muss erklärbar sein. Die Rolle des Menschen muss es nicht. Die Frage der Urheberschaft bleibt unberührt.

Der operativ unmittelbarste Rahmen ist auch der am wenigsten im Kontext von KI-Urheberschaft diskutierte. Der Digital Operational Resilience Act (DORA), in Kraft seit Januar 2025, verlangt von Finanzinstituten nach Artikeln 28 und 30 vollständige Auditierbarkeit von Drittanbieter-IKT-Diensten — einschließlich KI-Werkzeuge, die von externen Anbietern lizenziert werden.13 Wenn eine KI-generierte Empfehlung zu einem später angefochtenen Kundenergebnis beiträgt, begründet DORA die institutionellen Melde- und Audit-Trail-Pflichten. Was DORA nicht begründet, ist die individuelle Urheberschaftsaufzeichnung, die Ghost Ownership erfordert: Es adressiert operative Resilienz und Drittanbieter-Risiko, nicht die Frage, wer was mit welcher Begründung gegen welche Alternativen entschieden hat.

DSGVO Artikel 22 gewährt Einzelpersonen das Recht, nicht Entscheidungen unterworfen zu sein, die ausschließlich auf automatisierter Verarbeitung beruhen. Das ist der Punkt, an dem ein aktuelles Regulierungsdokument der Frage der Urheberschaft am nächsten kommt — und es ist der Ort, an dem die Lücke am schärfsten ist. Artikel 22 schützt vor Entscheidungen, die vollständig von Maschinen getroffen werden. Er schützt nicht vor Entscheidungen, die gemeinsam von einer Maschine und einem Menschen getroffen werden, auf eine Weise, die gemeinsame Urheberschaft auflöst. Sobald ein Mensch eine KI-generierte Empfehlung abzeichnet, gilt Artikel 22 nicht mehr. Die Entscheidung ist formal nicht mehr ‘ausschließlich’ automatisiert. Ob sie bedeutungsvoll menschlich ist, fragt die Regulierung nicht.

Die SEC-Leitlinien zu KI in Beratungsdienstleistungen und ihre nationalen Entsprechungen konzentrieren sich auf Offenlegung: Kunden sollen informiert werden, wenn KI eingesetzt wird. Offenlegung teilt dem Kunden mit, dass KI beteiligt ist. Sie teilt niemandem mit, wer, nachdem die KI beteiligt war, als Autor der Entscheidung identifiziert werden kann.

Das Muster ist über alle diese Rahmen hinweg dasselbe. Jeder erkennt, dass sich etwas verändert hat. Jeder adressiert einen Aspekt dieser Veränderung. Keiner adressiert die spezifische Frage, wo Urheberschaft terminiert, wenn KI-generierte Ausgaben in menschliche Entscheidungen einfließen. Die Rahmen wurden für ein früheres Problem entwickelt und mit Sorgfalt und Aufwand erweitert, um so viel des neuen Terrains abzudecken, wie ihre ursprüngliche Architektur erlaubte. Das OECD-Leitfaden für verantwortungsvolle KI-Sorgfaltspflicht, veröffentlicht im Februar 2026, ist der jüngste institutionelle Versuch, Rechenschaftsstandards für KI über Geschäftssektoren einschließlich des Finanzsektors zu etablieren — und bestätigt das Muster: Governance-Prozesse, Stakeholder-Pflichten und Risikorahmen werden spezifiziert; die individuelle Urheberfrage nicht.17 Ghost Ownership liegt jenseits dieser Grenzen.

Das ist keine Kritik an Regulierungsbehörden. Die Rahmen wurden zu einer Zeit entworfen, als die Frage noch nicht sichtbar war. Es ist schwer, gegen ein Phänomen zu legifizieren, das keinen Namen hat, und das Fehlen des Namens, mehr als jede einzelne Lücke in irgendeinem Rahmen, erklärt, warum die regulatorische Antwort angrenzend statt direkt war. Man kann keine Regel um etwas bauen, auf das man nicht zeigen kann.


6.

Es gibt eine kontraintuitive Eigenschaft von Ghost Ownership, die direkt ausgesprochen werden muss: Das Problem wird nicht kleiner, wenn die Technologie besser wird. Es wird größer.

Der Instinkt der meisten Menschen ist, dass dies ein Übergangsproblem ist. Systeme sind heute unvollkommen, so die Überlegung, und wenn sie zuverlässiger werden, verblasst die Frage nach dem Urheber. Der Mensch wird noch unterschreiben, das System wird noch beitragen, aber wenn der Beitrag durchgängig gut ist, wird Urheberschaft akademisch. Wir grübeln schließlich nicht über die Urheberschaft einer vom Taschenrechner produzierten Berechnung nach.

Diese Überlegung ist falsch, und die Falschheit ist bedeutsam.

Urheberschaft hängt nicht davon ab, ob die Empfehlung gut ist. Sie hängt davon ab, ob der Mensch in der Kette ohne das System zur gleichen Schlussfolgerung hätte gelangen können. Je fähiger Systeme werden, desto schwieriger wird es, diese Bedingung zu erfüllen, nicht leichter. Ein System, das Empfehlungen produziert, die über das hinausgehen, was ein Mensch unabhängig verifizieren könnte, ist per Definition ein System, dessen Ausgabe der Mensch nicht autorisieren kann.

Es gibt eine zweite Wendung der Schraube. Je zuverlässiger Systeme werden, desto größer wird das Vertrauen in sie. Je größer das Vertrauen, desto weniger wahrscheinlich ist es, dass der Mensch die Ausgabe in Frage stellt, Verifikation sucht und die Art von interner Überprüfung aufrechtzuerhalten, die es ihm ermöglichen würde, zu rekonstruieren, was er tatsächlich entschieden hat. Bessere Systeme produzieren zuversichtlichere Menschen. Zuversichtlichere Menschen produzieren weniger Verifikation. Weniger Verifikation produziert tiefere Ghost Ownership.

Ein spezifischer Einwand verdient direkte Auseinandersetzung. Erklärbare KI — das Forschungsprogramm, das Modellkarten, Reasoning-Traces und Feature-Attribution-Maps produziert — ist echter Fortschritt bei einem verwandten Problem. Es macht die Überlegung des Systems lesbar. Es macht die Überlegung des Menschen nicht lesbar. Selbst ein vollkommen erklärbares System, das von einem Menschen verwendet wurde, der jeden Schritt seiner Ausgabe verstand, würde dennoch Ghost Ownership erzeugen, wenn der Mensch ohne das System nicht zur gleichen Schlussfolgerung hätte gelangen können. Erklärbarkeit ist eine Eigenschaft des Systems. Urheberschaft ist eine Eigenschaft des Menschen. Ein System kann vollkommen erklärbar sein, während der Mensch, der es verwendet, noch ein Ghost Author ist — anwesend, unterschreibend, unfähig, zu rekonstruieren, was er tatsächlich entschieden hat.

Die Implikation ist unbequem, aber unvermeidlich. Der Rahmen, der Ghost Ownership adressiert, kann keine Übergangsmaßnahme sein. Er muss ein dauerhafter Teil der Art und Weise sein, wie KI-gestützte Entscheidungen getroffen werden, weil die Lücke, die er adressiert, wächst, wenn KI-Fähigkeiten wachsen. Und es kann kein Rahmen sein, der darauf beruht, dass Menschen die Ausgabe des Systems verifizieren können, weil diese Verifikation zu dem Zeitpunkt, an dem der Rahmen am meisten gebraucht wird, nicht mehr möglich sein wird.

Was gebraucht wird, ist etwas anderes: eine Aufzeichnung der Urheberkette, die nicht von der Rekonstruierbarkeit des zugrundeliegenden Systems abhängt. Nicht eine Zertifizierung, dass die Entscheidung korrekt war — eine Zuordnung, die dokumentiert, wer entschieden hat, auf welcher Grundlage, mit welchem angegebenem Vertrauen und welchen Alternativen, die in Betracht gezogen und verworfen wurden.

Eine solche Aufzeichnung existiert noch nicht in standardisierter Form. Die Teile existieren über Audit-Trails, Modellkarten, Entscheidungsprotokolle und Compliance-Dokumentation verstreut, aber sie sind nicht zu etwas zusammengefasst, auf das ein Regulierer zeigen oder auf das ein Gericht sich verlassen könnte. Die Lücke ist nicht nur konzeptuell. Der RegTech-Markt erreichte 2025 fast fünfzehn Milliarden Dollar und soll bis 2035 hundert Milliarden übersteigen, aufgebaut hauptsächlich auf Transaktionsüberwachung, Anomalieerkennung und automatisiertem Compliance-Monitoring.18 Keine der führenden Plattformen in diesem Markt produziert als Standardartefakt eine Aufzeichnung, die die Überlegung des Menschen erfasst, der auf eine KI-generierte Empfehlung gehandelt hat — die angegebene Grundlage, das Vertrauen, die erwogenen Alternativen. Die Zusammenführung ist die Arbeit, die noch nicht getan wurde.


7.

Wenn ein Rahmen für Ghost Ownership zusammengefügt werden muss, müssten für jede KI-gestützte Entscheidung sechs Dinge aufgezeichnet werden.

Wer. Nicht die Institution, nicht das Team, sondern der spezifische Mensch, dessen Name an der Entscheidung hängt und der im Nachhinein als ihr verantwortlicher Autor identifiziert werden kann. Aktuelle Systeme zeichnen oft nur die Institution oder nur die sichtbarste Rolle auf. Ein Rahmen für Ghost Ownership erfordert, dass jeder Mensch in der Kette identifizierbar ist, mit seinem spezifischen Beitrag erfasst.

Auf welcher Grundlage. Nicht nur, welche Daten verfügbar waren, sondern was im Moment der Entscheidung tatsächlich konsultiert wurde und welche Eingaben des Systems als autoritativ behandelt wurden. In einem Ghost-Ownership-Szenario ist die Ausgabe des Systems eine der Eingaben — oft die dominante. Aufzuzeichnen, auf welche Eingaben der Mensch sich stützte, ist der einzige Weg, den tatsächlichen Beitrag des Menschen zu rekonstruieren.

Mit welchem angegebenem Vertrauen. Vertrauen ist das tragende Element jeder ehrlichen Entscheidung unter Unsicherheit. Eine mit achtzig Prozent Vertrauen getroffene Empfehlung ist eine andere Entscheidung als dieselbe Empfehlung mit fünfzig Prozent Vertrauen, selbst wenn die Empfehlung identisch ist. Aktuelle Systeme zeichnen häufig die Empfehlung auf, ohne das Vertrauen aufzuzeichnen, was es unmöglich macht, zwischen einer sorgfältig und einer hoffnungsvoll getroffenen Entscheidung zu unterscheiden.

Gegen welche Alternativen. Jede bedeutungsvolle Entscheidung ist eine Wahl zwischen Optionen, und die verworfenen Optionen tragen ebenso viele Informationen wie die gewählte. In einem Ghost-Ownership-Szenario werden Alternativen oft vom System selbst generiert — und wenn nicht gezeigt werden kann, dass der Mensch sie erwogen hat, wird die Wahl des Systems zur Wahl des Menschen durch Unterlassung.

Als zwingendes Element im Moment, nicht nur als nachträgliche Aufzeichnung. Das ist der Teil, den aktuelle Diskussionen über KI-Dokumentation dazu neigen zu übersehen. Ein Ghost-Ownership-Rahmen ist nicht nur ein forensisches Werkzeug, das abgerufen wird, wenn etwas schiefgeht. Er ist ein reflexives Werkzeug, das, indem es den Menschen auffordert, diese Dinge im Moment der Entscheidung aufzuzeichnen, ihn zwingt, die Frage zu konfrontieren, die er sonst überspringen würde: Was entscheide ich hier eigentlich, und auf welcher Grundlage? Die Aufzeichnung ist retrospektiv bedeutsam. Der Akt des Aufzeichnens ist es in der Gegenwart.

In eigenständiger Form. Der Rahmen kann nicht davon ausgehen, dass das KI-Werkzeug in drei Jahren noch verfügbar sein wird, wenn ein Beschwerdeverfahren fragt, was passiert ist. Er muss genug über den Entscheidungsmoment erfassen, um als eigenständige dokumentarische Aufzeichnung zu stehen, selbst wenn das System eingestellt, ersetzt oder wesentlich verändert worden ist.

Die Tiefe der Dokumentation, die diese sechs Komponenten erfordern, sollte proportional zur Komplexität und Folge der Entscheidung sein: ein standardmäßiges Rebalancing innerhalb eines etablierten Mandats erfordert weniger als eine erstmalige Empfehlung eines strukturierten Produkts für einen Kunden, der in die Entnahmephase des Ruhestands eintritt.

Diese sechs Komponenten sind die Mindestspezifikation. Sie sind nicht exotisch — jede ist teilweise irgendwo im Finanzsystem implementiert. Was fehlt, ist ihre Zusammenführung in ein einzelnes Artefakt, das alle sechs auf einmal tut, das mit der Entscheidung reist und auf Verlangen produziert werden kann, wenn die Frage nach der Urheberschaft schließlich gestellt wird. Das Artefakt hat noch keinen standardisierten Namen. Was es tun würde, ist klar genug.


8.

Warum wurde keines der bestehenden KI-Governance-Programme erweitert, um dies zu tun? Die Frage verdient eine sorgfältige Antwort, denn jedes dieser Programme leistet ernsthafte Arbeit.

Constitutional AI trainiert Modelle gegen ein zentrales Wertedokument, das das Modell internalisieren und auf jede Aufgabe anwenden soll. Es ist ausgereift und hat messbare Verbesserungen im Modellverhalten hervorgebracht. Aber es wirkt auf das Modell, nicht auf den Menschen, der das Modell verwendet. Ein vollkommen konstitutionell trainiertes System wird dennoch Ghost Ownership erzeugen, sobald ein Mensch seine Empfehlung akzeptiert, ohne sie autorisieren zu können.

Modellkarten und Systemkarten beschreiben, womit ein System trainiert wurde, welche bekannten Fehlermodi es hat und was seine vorgesehenen Verwendungen sind. Sie beschreiben das System, nicht die Entscheidung. Eine Modellkarte sagt einem, was das Modell ist. Sie sagt nicht, wer es wann mit welcher Eingabe verwendet hat, um welche Empfehlung zu produzieren, auf die ein bestimmter Mensch dann gehandelt hat.

ISO 42001, die internationale Norm für KI-Managementsysteme, erfordert, dass Organisationen Governance-Prozesse einrichten und Risiken bewerten. Ihr Fokus liegt auf der Organisation, nicht auf der individuellen Entscheidung. Eine Organisation kann vollständig konform sein und dennoch Entscheidungen produzieren, deren individuelle Urheberschaft nicht rekonstruiert werden kann. Das AI Risk Management Framework des NIST hat dieselbe Eigenschaft und dieselbe Grenze.

Audit-Trails und Entscheidungsprotokolle sind das nächste bestehende Analogon. Sie zeichnen Ereignisse, Zeitstempel und Handlungsabfolgen auf. Aber Audit-Trails erfassen, was geschehen ist, nicht wer der Autor des Geschehenen war. Ein Audit-Trail kann zeigen, dass eine Empfehlung von einem Werkzeug generiert, von einem Berater überprüft und von einem Kunden akzeptiert wurde. Er kann allein nicht die Frage beantworten, wer von diesen dreien der Autor war.

Von diesen kommt ISO 42001 am nächsten heran. Über seine Anforderungen an die organisatorische Governance hinaus verlangen die Annex-A-Kontrollen von Organisationen, die KI einsetzen, menschliche Aufsichtsmechanismen einzurichten und Aufzeichnungen zu führen, die belegen, dass KI-Ausgaben vor der Handlung überprüft wurden.19 Das ist der Punkt, an dem eine aktuelle Norm am nächsten an eine formale Anforderung für einen Nachweis menschlicher Urheberschaft herankommt. Aber es ist nicht nah genug. Es erfordert Belege für Überprüfung — eine Aufzeichnung, dass ein Mensch anwesend war. Es erfordert keine Belege für Überlegung — was der Mensch tatsächlich entschieden hat, auf welcher Grundlage, mit welchem Vertrauen und gegen welche Alternativen. Die Lücke zwischen diesen beiden Anforderungen ist die Lücke, um die es in diesem Artikel geht.

Jedes dieser Programme ist wertvoll. Keines ist in irgendeiner bedeutsamen Weise falsch. Sie beantworten gemeinsam oder einzeln einfach nicht die Frage, die Ghost Ownership stellt, weil sie nicht dafür entwickelt wurden. Die Arbeit, etwas zu entwickeln, das es tut, muss von der Frage selbst ausgehen.


9.

Dieser Artikel hat ein Phänomen benannt, es von benachbarten Problemen unterschieden, vier Entwicklungen nachgezeichnet, die es 2026 dringlich machen, ein historisches Muster identifiziert, das darauf hindeutet, dass die Dringlichkeit wachsen wird, die regulatorischen Rahmen untersucht und gezeigt, warum sie es noch nicht adressieren, das strukturelle Paradoxon beschrieben, das verhindert, dass bessere Technologie es löst, spezifiziert, was ein Rahmen, der es adressieren würde, tun müsste, und erklärt, warum keines der bestehenden Programme dafür erweitert werden kann.

Wenn das Argument überzeugend war, besteht der nächste Schritt nicht darin, dass eine einzelne Partei den Rahmen aufbaut. Der nächste Schritt ist, dass die Frage die Diskussion in einer Form eingeht, über die argumentiert, verfeinert und korrigiert werden kann.

Dafür ist Benennung da. Ein Phänomen ohne Namen kann nicht debattiert werden, weil jeder Sprecher es jedes Mal, wenn er darauf Bezug nimmt, von Grund auf neu rekonstruieren muss. Ein Phänomen mit einem Namen, selbst einem provisorischen, kann Gegenstand von Meinungsverschiedenheit und Fortschritt sein. Der Name muss nicht endgültig sein. Er muss nur präzise genug sein, dass zwei Menschen ihn verwenden können, ohne einander misszuverstehen.

Ghost Ownership wird in diesem Geist angeboten. Es ist ein Arbeitsname für ein Problem, das einen benötigt. Andere Namen könnten sich als besser erweisen. Andere Formulierungen der Bedingungen könnten genauer sein. Das historische Muster könnte sich nicht halten. Nichts davon würde den zugrundeliegenden Punkt entkräften: Die Frage der Urheberschaft in einer Ära KI-gestützter Entscheidungen muss mit einer Präzision gestellt werden, die das aktuelle Vokabular noch nicht unterstützt.

Für Praktiker gibt es einen konkreten ersten Schritt, der kein neues Framework, keinen neuen Standard und kein neues Werkzeug erfordert. Beginnen Sie, in Ihrer eigenen Entscheidungsfindung zu dokumentieren, welche Empfehlungen von welchen KI-Systemen stammten, was Ihr Grund war, sie zu akzeptieren, welches Ihr angegebenes Vertrauen war und welche Alternativen Sie in Betracht gezogen haben. Tun Sie es für sich selbst, nicht für die Compliance. Tun Sie es, weil der Akt des Aufschreibens Ihnen in Echtzeit sagen wird, welche Ihrer Entscheidungen Sie noch autorisieren und welche still zu denen anderer geworden sind. Das ist die kleinstmögliche Version des Rahmens, und sie kann morgen begonnen werden.

Für Praktiker in institutionellen Umgebungen sieht der erste Schritt in der Form anders aus, ist aber in der Substanz identisch. Die Frage lautet nicht, ob dokumentiert werden soll, sondern ob der aktuelle Beratungsworkflow Ihrer Organisation irgendeinen Punkt enthält, an dem die tatsächliche Überlegung des Menschen — nicht nur seine Unterzeichnung — erfasst wird. Wenn Ihr CRM die Empfehlung aufzeichnet, aber nicht die angegebene Grundlage des Beraters für die Akzeptanz der Ausgabe des KI-Werkzeugs, produziert Ihre Institution Ghost Ownership im großen Maßstab. Die Korrektur ist eher architektonisch als individuell, und sie beginnt damit, diese Lücke im Workflow zu lokalisieren. Das Responsible AI Playbook des Weltwirtschaftsforums für institutionelle Investoren (2024) und der OECD-Leitfaden für verantwortungsvolle KI-Sorgfaltspflicht (2026) zeigen beide auf die Governance-Ebene, auf der diese Arbeit hingehört.20

Was nicht länger eine Option ist, ist die Frage ungestellt zu lassen. Die nächste Welle von Beschwerden wird das Stellen unvermeidlich machen. Die Frage ist, ob das Vokabular bereits vorhanden sein wird, wenn das Stellen beginnt, oder ob es unter Druck, in Gerichtssälen und Beschwerdeverfahren, erfunden werden muss, mit all den Nachteilen, ein Problem zu definieren, nachdem der Schaden eingetreten ist.


10.

Eine Anmerkung zur Offenlegung. Der Autor dieses Artikels arbeitet an einem Framework, das versucht zu tun, was die vorherigen Abschnitte beschreiben. Es heißt Steerable und wird zunächst für zertifizierte Finanzplaner (CFP®) im deutschsprachigen Raum entwickelt — beginnend dort, wo der regulatorische Druck am konkretesten ist und wo Praktiker die Lücke am direktesten spüren, mit der Absicht, in die Unternehmens-Compliance und schließlich in die institutionelle Governance über Systeme wie die in Abschnitt vier beschriebenen zu skalieren.

Das Framework ist ein Versuch unter denen, die es viele geben sollte. Der Name Ghost Ownership wird als Beitrag zum Vokabular angeboten, nicht als proprietärer Begriff. Jeder, der ihn verwenden, verbessern oder durch etwas Besseres ersetzen möchte, ist willkommen, dies ohne Genehmigung zu tun. Das Framework selbst ist eine andere Sache; wer mehr erfahren möchte, findet es unter steerable.org.

Das ist der gesamte Pitch. Der Artikel ist die Arbeit, auf die es ankam.