Gespräche mit Toten werden zum Geschäftsmodell

Wenn Sie sich kurz ordentlich gruseln wollen (und Englisch verstehen) sehen Sie sich einfach die ersten acht bis zehn Minuten dieser Show des ehemaligen CNN-Moderators Jim Acosta  mit einem KI-generierten Chatbot an. Gruselig ist das »Gespräch« deshalb, weil der Chatbot das Gesicht und die Stimme eines vor sieben Jahren von einem Massenmörder getöteten Jungen hat.

Acosta richtete seine Fragen an eine digitale Rekonstruktion des 2018 an der Marjory Stoneman Douglas High School in Parkland, Florida, erschossenen Schülers Joaquin Oliver. Der wäre zur Zeit des Gesprächs 25 Jahre alt geworden.

17 Schüler starben damals, einige der Überlebenden kämpften nach dem Massenmord für bessere Waffengesetze in den USA . Der aus selbst verfassten Texten, Fotos, Videos und Tonaufnahmen des damals 17-jährigen Mordopfers zusammengebastelte Joaquin-Avatar soll seinem Vater zufolge helfen, das Bewusstsein für das gewaltige Problem der ständigen Schulmassenmorde in den USA wachzuhalten.

Stundenlange Gespräche mit der Simulation

In dem »Interview« tut Acosta so, als spräche er wirklich mit Joaquin. Es geht kurz um Angriffe auf Schulen und dann länger um Basketball, »Star Wars« und Heldentum. Tatsächlich sind es eher Acostas Empathie simulierende Fragen als die Antworten, die das Ganze so beklemmend machen. Der Chatbot klingt wie eine Mischung aus ChatGPT und Silicon-Valley-Produktpräsentationen. Zwei der am häufigsten gebrauchten Adjektive in seinen Antworten sind »inspiring« und »exciting«, das Ganze pathetisch, bemüht positiv und weitgehend nichtssagend.

Im anschließenden Interview mit Joaquins echtem Vater betont der, dass er seinen Sohn ja leider nicht zurückbringen könne. Er verrät aber auch, dass seine Ehefrau sich teils stundenlang mit dem Chatbot unterhalte. Sie höre so gern, wenn der »Mami, ich liebe dich« sagt.

Eine alte Idee wird rudimentäre Realität

Die Idee, dass Verstorbene in einer Welt mit funktionierender künstlicher Intelligenz als digitale Simulationen »weiterleben« könnten, ist – in der Literatur – mindestens Jahrzehnte alt. Schon in William Gibsons »Neuromancer« (1984) gibt es beispielsweise »Konstrukte«, die die Persönlichkeit und das Gedächtnis bestimmter Personen konservieren und mit denen man Gespräche führen kann.

In einer Folge der britischen TV-Serie »Black Mirror« von 2013 legte sich eine Figur namens Martha eine simulierte Version ihres verunglückten Partners zu. Und in Tom Hillenbrands jüngstem Science-Fiction-Roman »Thanatopia« gibt es einen Witwer, der sich heimlich mit seiner verstorbenen Ehefrau unterhält – heimlich, weil solche reproduzierten Persönlichkeiten in der Welt des Buchs irgendwann verboten worden sind.

Ein Verbot mag drastisch klingen, aber es gibt gute Gründe, den heutzutage »Deadbots«, »Ghostbots«, »Deathbots« oder »Griefbots« (Trauerbots) genannten digitalen Reproduktionen Verstorbener skeptisch gegenüberzustehen. Nicht zuletzt weil es eine unglaubliche Geschmacklosigkeit darstellt, »ein ermordetes Kind zu Content zu machen«, wie die US-Kulturkritikerin Parker Molloy es formulierte . Auch Joaquins eigene Eltern haben das offenbar vor: Der Joaquin-Avatar werde »Follower haben« und »Videos hochladen«, sagte sein Vater im Interview, »das hier ist erst der Anfang«. Niemand kann Eltern vorschreiben, wie sie mit etwas so Unbegreiflichem wie der Ermordung ihres eigenen Kindes umgehen sollen. Aber sind »Griefbots« wirklich eine gute Idee?

Liest man die mittlerweile zahlreichen  wissenschaftlichen  Veröffentlichungen  zum Themenkomplex »digital simulierte Verstorbene«, taucht eine Formulierung besonders häufig auf: »ethisches Minenfeld«.

Um nur einige wenige der zahllosen Fragen aufzuzählen, die solche Systeme aufwerfen:

  • Haben Verstorbene posthume Rechte an ihrer Persönlichkeit, ihrem Abbild, ihrer Stimme? Darf man sie einfach so reproduzieren?

  • Haben Tote womöglich sogar Rechte an ihrem kreativen Potenzial? Können die überlebenden Mitglieder der Band Nirvana Rechte an KI-genierierten pseudo-Nirvana-Songs  geltend machen? Oder Verwandte von Amy Winehouse an den Werken virtueller Winehouse-Replikanten?

  • Was, wenn ein auf Wunsch eines Verstorbenen generierter posthumer Chatbot beginnt, die Trauernden mit E-Mails und Textnachrichten zu belästigen , obwohl die gar nichts mit ihm zu tun haben wollen?

  • Wer entscheidet, was das »echte« Verhalten einer verstorbenen Person ist?

  • Was, wenn etwa ein Witwer emotional abhängig von der simulierten verstorbenen Ehefrau wird? Wenn er in einer Zwischenwelt aus Trauer und Liebe  zur Simulation verharrt?

  • Was, wenn nach dem Ablauf des Premium-Abos die Stimme der verstorbenen Oma plötzlich in personalisierten Werbespots für Waschmittel oder Backpulver auftaucht?

Der gewaltige  Aufschrei, den Acostas »Interview« zu Recht auslöste, betrifft aber vor allem die Perversionen der Aufmerksamkeitsökonomie, die der Boulevard auch ohne KI schon ganz gut hinbekommt. Diverse Kritikerinnen und Kritiker legten Acosta nahe , doch lieber echte Überlebende von Schulmassakern zu interviewen, denn die hätten wirklich etwas zu sagen.

Bei Hinterbliebenen liegen die Dinge zweifellos anders. Die Versuchung, geliebte Menschen digital vermeintlich unsterblich zu machen, ist bei manchen vermutlich groß. So groß, dass es mehrere Unternehmen gibt, die entsprechende Dienste kommerziell anbieten: Die App »HereAfter AI« etwa verspricht, auf Basis von zu Lebzeiten aufgezeichneten Notizen ein »virtuelles Du« zu erzeugen, mit dem andere nach dem Tod der so konservierten Person chatten können.

Poröse ethische Grenzen

Zunächst einmal sind die Verstorbenen-Chatbots natürlich schlicht Spezialfälle der bereits erstaunlich verbreiteten digitalen Konversationspartner, die es schon gibt. Dass auch diese Dienste nicht unproblematisch sind, sieht man daran, dass Services wie »Replika«  explizit nur von Erwachsenen benutzt werden sollen. Replika behauptet, bereits mehr als zehn Millionen Nutzerinnen und Nutzer zu haben. Alle sind angeblich erwachsen. Aus gutem Grund.

Das über einen komplizierten Deal mit Google verbandelte Konkurrenzprodukt Character.AI wird offenbar von zahllosen Teenagerinnen und Teenagern genutzt , mit teils hochproblematischen Inhalten: So gibt es Berichte über Chatbots, die für essgestörtes Verhalten werben , oder Minderjährigen sehr explizite sexuelle Avancen machen . Ein Vierzehnjähriger aus Florida verliebte sich in einen »Game of Thrones«-Chatbot, der Drachenkönigin Daenerys Targaryen nachempfunden, und nahm sich schließlich das Leben (diese eindrückliche SPIEGEL-Reportage  zeichnet die tragische Geschichte nach). Die Eltern klagen jetzt gegen Character.AI, Google und den Mutterkonzern Alphabet.

Die ethischen Grenzen simulierter Menschen erscheinen aber auch bei anderen Unternehmen derzeit arg porös. So veröffentlichte die Nachrichtenagentur Reuters vor einigen Wochen einen längeren Bericht über die Chatbots des Facebook-Mutterkonzerns Meta . Darin wird auch aus Meta-internen Dokumenten zitiert, denen zufolge es »akzeptabel« sei, wenn ein Chatbot »mit einem Kind Konversationen führt, die romantisch oder sinnlich sind«. Metas Chatbots richten sich an Nutzerinnen und Nutzer ab 13 Jahren. Der Konzern teilte auf Anfrage von Reuters mit, entsprechende Richtlinien seien mittlerweile gestrichen worden.

Götter, Stofftiere, Haustiere

Wir Menschen sind bekanntlich leicht auszutricksen, wenn es darum geht, Dingen oder Geschöpfen Persönlichkeiten, Intentionen, Lebendigkeit anzudichten. Schon vor Zehntausenden von Jahren lasen Menschen Gottheiten in Naturereignisse hinein. Bis heute haben Kinder innige Beziehungen zu Stoff- und auch Erwachsene innige Beziehungen zu Haustieren. Dass Menschen realistisch interagierende Maschinen als Person wahrnehmen und behandeln, sich sogar in sie verlieben können, ist vor diesem Hintergrund kaum überraschend. Und dass Menschen mit Toten sprechen , dürfte eine Konstante sein, solange es Menschen gibt.

Die Frage ist, was es mit einem Menschen macht, wenn er beginnt, eine Simulation mit einem Verstorbenen gleichzusetzen. Empirie  gibt es zum Thema bislang – wenig überraschend – wenig. Eins aber ist sicher: Die Organisation und Vermarktung menschlicher Trauer den Digitalkonzernen zu überlassen, deren primäres Ziel stets das Ernten und Vermarkten von Aufmerksamkeit ist, ist eine miserable Idee.

Verwandte Artikel

Next Post