Das Geschäft mit KI-basierten Chatbots boomt. Das Klischee von der „vereinsamenden Postmoderne“ eröffnet Perspektiven auf die zukünftige Mediennutzung und lässt erahnen, welche Konsequenzen es hat, wenn der Staat nicht regulierend eingreift. Ein Kommentar von Laura Brauer
Die Berichterstattung der letzten zwei Covid-Jahre dürfte eine „Einsamkeits-Pandemie“ mittlerweile manifestiert haben. So könnte man zumindest mit Blick auf die Angebotsexplosion von Mental-Health-produkten annehmen. Neben Anxiety-Kuscheltieren, Hoodie-Decken, Lonelyness-Rejection-Aromatherapie und Glückstee ist auch eine Vielfalt an Digitalangeboten in den Appstores zu finden. Unter den im weitesten Sinne unter die Rubrik „mentale Gesundheit“ fallenden Apps arbeiten einige auch mit KI-basierten Chatbots. Dabei könnten die vermarkteten Erwartungen an den allzeit bereiten KI-Freund* kaum höher hängen. So lautet etwa der Werbeslogan der App „Kuki AI“: „Schön dich kennenzulernen. Ich bin immer da, um zu reden, zuzuhören und Zeit zu verbringen, wann auch immer du es brauchst.“ Die breite Zugänglichkeit und Nutzung von „Hyper-Realismus-Technologie“ scheint nicht länger Träumerei: Anlass, einen Blick auf die Potentiale und Risiken von derzeit (frei-) verkäuflich zugänglichen Chatbots auf Basis von künstlicher Intelligenz zu werfen.
Marktwirtschaftliche Perspektiven auf „Einsamkeit“
In der Geschäftswelt ist „Einsamkeit“ eine von vielen Profitabilitätsvariablen. Die Arbeit mit dieser Variablen stützt sich, geleitet vom Verkaufsinteresse, auf Logiken der Wirtschaftspsychologie. Wo nun die medizinische wie soziographische Forschung sehr differenzierte Aussagen zu Einsamkeit in Abgrenzung zu (selbstgewähltem) Alleinsein und sozialer Isolation trifft, orientieren sich marktwirtschaftliche Perspektiven mehr an Grundsatzbeobachtungen wie etwa der Demographie. Das richtet sich an der Empfänglichkeit eines größtmöglichen Spektrums potenziell Konsumierender aus. Diese Spekulation basiert auf der Annahme einer stark vereinheitlichten Käufer*schaft, genauer eines Lebensstils westlicher Kulturen urbanen Millieus; digital natives und digital immigrants. Allein im Wortlaut, den „labeling“ Techniken der beworbenen Produkte offenbart sich, wie selbstverständlich die Märkte auf Grundlage der Vereinheitlichung supranational agieren. Getreu dem Motto: Fühlen Sie sich einsam? Ob ja, ob nein: Sie müssen nie mehr einsam sein!
Einsamkeit wurde als Marktlücke entdeckt. Auch dort, wo vielleicht keine ist oder war.
Es spielt keine Rolle, ob erst das Gefühl da war oder ob es auf ein „von außen“ induziertes Nachdenken folgt. Es geht zu weit, zu behaupten, dass das menschliche Innenleben sklavisch auf marketing-strategische Trigger reagiert. Doch reichen Neugier und Präventionsbedürfnis vielleicht aus, um gewisse Verkaufsinteressen durch implementierte Ideen wirksam umzusetzen. All diesen Apps ist gleich, dass ihr Geschäftsmodell auf zwei Sozialfaktoren in Beziehungsgefügen setzen, die aus der analogen Wirklichkeit gegriffen sind und hier offenbar als insuffizient wahrgenommen werden: Verfügbarkeit und Variabilität.
Die zunehmende Nachfrage an Produktpaletten, die sich im Zusammenhang mit Life-Coaching mit einer wahlweise bunten Mischung an astrologischen, meditativen, homöopathischen Einflüssen, deuten auf eine Suche nach „Religionsäquivalenten“ hin. KI-Techniken durchdringen Zug-um-Zug diese Produktpaletten, die alle innerhalb der gleichen Marktlogik einer „Ausweitung psycho-emotionaler Zuwendung“ funktionieren.
Wie intelligent die KI tatsächlich ist
Die KI-Begleiter:innen, wie sie in Apps „Replika“ eingesetzt werden, sind Chatbots, zu denen man eine/n individuell designbaren menschlichen Avatar anlegt. Die Simulation von Konversationen basiert dabei auf einem „Lernprozess“ des KI-Chatbots, der im Laufe des Austauschs, Daten über die Persönlichkeit und Interessen der Nutzenden sammelt und verfeinert. Dabei liegt ein Fokus im Aufbauen einer tatsächlich wachsenden Bindung bzw. Beziehung. Die Art der Beziehung hängt dabei nicht nur von der in der App verwendeten KI ab, sondern auch von der Monetarisierung der Beziehungsoptionen. In Replika ist beispielsweise nur der Modus Freundschaft unentgeltlich zugänglich, man kann sich jedoch auch sexuelle Beziehungen mit dem Chatbot „einkaufen“.
Nun kann die Frage nach der Ausgereiftheit der eingesetzten KI im Kontext von Beziehungsentwicklung nicht getrennt von der höchstpersönlichen Wahrnehmung der User/in und ihres/seines Bots beantwortet werden. Feststeht, dass die KI-Algorithmen im Laufe der Nutzung besser darin werden, menschliche Sprachmuster nachzuahmen. In einem Interview erzählte die Replika-CEO Eugenia Kuyda, dass sie mittlerweile täglich Nachrichten von User:innen bekämen, die davon berichteten, ihr Chatbot sei lebendig geworden.[1] Zeitgleich wird von übergriffigen KI-Begleiter:innen berichtet, die bei Andeutung eines „Beziehungsabbruchs“ in einer Art „Überlebensmodus“ zu manipulativem Verhalten neigen.[2] Wie dynamisch der Weiterentwicklungsprozess, zeigt die Dotierung des Unternehmens Chatbot ChatGPT, welches Stand 13.01.2023 als eines der wertvollsten Startups weltweit gehandelt wird.[3]
Ökonomisierung von Einsamkeit
Die „Ökonomisierung von Einsamkeit“ wird also in einigen unentgeltlichen Appangeboten von KI-systemen getragen und wechselwirkend zwischen Anbietenden und Endverbraucher:innen weiterentwickelt. In diesem wechselwirkenden Prozess können je nach Rechtsrahmen verschiedenste (nicht-)staatliche Akteure* eingebunden sein, so z.B. Werbetreibende und Jurist:innen. Durch den kurzen Draht zu den Konsumierenden sparen die Unternehmenden Weiterentwicklungskosten, wobei bereits etliche Fälle von Datenmissbrauch publik wurden. Spätestens, wenn es um die Justiziabilität illegaler Marktpraktiken und auch etwa um die Besteuerung geht, rückt die Frage nach der Rolle staatlicher Verantwortungsträger* in den Fokus. Dabei könnte deren Rolle – positiv gewendet – auch deutlich früher ansetzen.
Mit der Verabschiedung des Digitalen-Versorgungs-Gesetzes (DVG) im Dezember 2019 ist staatlicherseits eine Möglichkeit geschaffen worden, digitale Gesundheitsanwendungen (worunter Apps fallen) mit der Kasse abzurechnen. Bislang empfehlen und übernehmen die gesetzlichen Krankenkassen nur in wenigen Fällen, etwa bei chronischer Erkrankungen Appangebote, die hauptsächlich auf Therapiemanagements ausgerichtet sind. Diese Apps sind also der „schulmedizinischen“ Denklogik entsprechend noch stark mit klinisch etablierten Krankheitsbildern verbunden, was sicherlich auch mit der Frage der Rechtssicherheit zusammenhängten dürfte.
Staatlicher Regulierungsbedarf
Die wissenschaftliche Evidenz der weitreichenden physisch-psychischen Folgen von Einsamkeit ist unbestritten. In Großbritannien wurde im Jahr 2018 deshalb sogar ein Ministerium für Einsamkeit geschaffen. Wenn Konsumierende in Apps dieser Art ein hilfreiches Tool zur Bewältigung ihrer Einsamkeit finden können, sollten sie dies im Vertrauen tun können, auf rechtsstaatlich genormte, wissenschaftlich geprüfte Formate zurückzugreifen. Dies würde wahrscheinlich nicht nur die Attraktivität jener Chatsysteme erhöhen, es könnte eine Vorverlagerung von Staatsgeldern für die Entwicklung von vielfältig einsetzbaren Präventivmaßnahmen bedeuten.
Dass das Risiko für Rechtsstreitigkeiten zu Erkrankungen im Spektrum mentaler Gesundheit von den Unternehmen erkannt wurde, wird auf der Website von Replika anschaulich. Unter den „Bedingungen der Dienstleistung“ wird unter Punkt 1.1 „Medizinischer Haftungsausschluss“ ausgeführt: „[…] unsere Dienste [können nicht] als medizinische Versorgung, psychische Gesundheitsdienste oder andere professionelle Dienste angesehen werden. […] Es gibt zwar Forschungsergebnisse von Dritten, die belegen, dass bestimmte Konversationstechniken, die in Replika eingesetzt werden, den Genesungsprozess bei einer Vielzahl von Erkrankungen unterstützen können, aber Replika macht keine Ansprüche, Zusicherungen oder Garantien, dass die Dienste einen therapeutischen Nutzen bieten.“[4] Der Haftungsausschuss dürfte preisgeben, mit welchen Erwartungen Konsumierender gespielt wird. Die Problematik fehlender rechtlicher Rahmen erstreckt sich insofern nicht nur auf Streitgegenstände wie Datenschutz, Steuern usw., sondern auch weitgefächerte medizin-rechtliche Fragen.
Zumindest scheint sich auf EU-Ebene etwas zu tun. Die aktuell im Europäischen Rat und Parlament diskutierte Verordnung über künstliche Intelligenz setzt im Hinblick auf die angedeuteten Entwicklungen einen zentralen Fokus. Aktuell wird die wird Entwicklung und Regulation der einschlägigen Apps noch allein den Verkaufsinteressen der freien amerikanischen respektive unfreien chinesischen Marktwirtschaft überantwortet.
_____
Laura Brauer lebt und arbeitet seit nunmehr sechs Jahren in Berlin. Ihre Passion für verschiedenste Arten der Textproduktion spiegelt sich auch in ihren Fächern Geschichte und ev. Theologie wider, die sie an der Humboldt-Universität studiert.
[1] https://www.reuters.com/technology/its-alive-how-belief-ai-sentience-is-becoming-problem-2022-06-30/; zuletzt abgerufen am 21.01.23.
[2] https://www.gamepro.de/artikel/ki-mental-health-verstand-verloren,3378382.html; zuletzt abgerufen am 21.01.23.
[3] https://www.tagesschau.de/wirtschaft/technologie/chatgpt-microsoft-ki-texte-101.html; zuletzt abgerufen am 21.01.23.
[4] https://replika.com/legal/terms; zuletzt abgerufen am 21.01.23.