top of page

GenKI: Warum ich den Einsatz von generativer KI bei Beiträgen zu meinen Büchern ablehne

Contentnote: Dieser Beitrag befasst sich mit Themen wie Depressionen und Suizid. Solltest du dich aktuell in einer Krise befinden oder sogar suizidale Gedanken haben, such dir bitte Hilfe. Du kannst dich zum Beispiel jederzeit an die Telefonseelsorge wenden.  Du kannst jederzeit kostenlos unter 0 800 111 0 111, 0 800 111 0 222 oder 0 800 116 123 anrufen oder im Chat schreiben.

Zudem wird in diesem Beitrag auch die Corona Pandemie thematisiert. 

Der Einsatz von generativer künstlicher Intelligenz ist in der BuchBubble ein Thema, das spaltet. Auf allen Seiten scheinen die Fronten verhärtet zu sein, wodurch mehr aneinander vorbeigeredet wird als miteinander. Dabei könnten sich viele Fragen in einem Gespräch auf Augenhöhe klären. Im folgenden Beitrag möchte ich darauf eingehen, warum ich die Nutzung in Verbindung mit meinen Büchern ablehne.


Eine Hand tippt auf einer beleuchteten Tastatur im Dunkeln. Über dem Bild schweben zahlreiche pinke Vorhängeschlösser – digital eingefügte Symbole für Datenschutz oder Sicherheit.

Das große Thema in meinen Büchern


Ich weiß, dass das Thema GenKI sehr emotional aufgeladen ist. Auf der einen Seite haben wir Bloggende und Schreibende, die darin einen Weg sehen, kostensparend ansehnliche Beiträge und Illustrationen zu erzeugen. Dem gegenüber stehen Künstler und jene Bloggende und Schreibende, die die Nutzung aus tiefsten Herzen ablehnen. Dazwischen scheint es, auf den ersten Blick nichts zu geben. Allerdings wissen wir alle, dass die Welt nicht schwarz-weiß ist.


Viele Kritiker sehen den Einsatz von KI zum Beispiel nicht per se schlecht. Als ein Tool zur Unterstützung, um grobe Recherche-Aufgaben oder Strukturierungen zu übernehmen, zum Beispiel. Aber sobald es in den kreativen Raum eindringt sieht das Ganze wieder anders aus. Und da fängt die Diskussion oft an persönlich zu werden. Und unangenehm.

Im folgenden Text möchte auch ich ein wenig persönlicher werden, aber nicht auf die angreifende oder beleidigende Weise. Stattdessen möchte ich einen Einblick in meine Gedankenwelt geben, damit andere, die nicht in meinen Kopf blicken können, meine Entscheidungen und Bitten hinsichtlich des Gebrauchs von GenKI bei Beiträgen zu meinen Büchern zu verstehen und um, bestenfalls, zur Umsetzung anzuregen.


In meinen Büchern geht es vor allem um Themen, die sich mit der mentalen Gesundheit der Protagonisten auseinandersetzen. Wir reden hier von Mobbing, Depressionen, Trauma oder auch Neurodivergenzen wie Borderline oder ADHS.


Ich verarbeite diese Thematiken sowohl in meinen Fantasybüchern, wo ihr sie eher unterschwellig herauslesen könnt, wie auch in meinen Romancebüchern, in denen es klar benannt wird. "Deine Stimme im Wind" ist hierfür ein gutes Beispiel, da es hier um die Unsichtbarkeit von Depressionen und Suizid geht. Beides klar gezeigt und ausgesprochen - auch wenn natürlich der Akt selbst nicht gezeigt wird. Es sind also sehr tief gehende und zum Teil sehr persönliche Geschichten, da das Meiste bei mir Own-Voice ist.


Repräsentation


Viele solcher Themen leiden auf dem Buchmarkt an dem Problem mangelnder Repräsentation, ebenso wie Menschen mit Behinderungen oder aus der LGBTQIA+ - Community und People of Color. Dabei ist Repräsentation auf zig Ebenen wichtig. Zum einen gehört sie einfach dazu, um unsere Gesellschaft in ihrer bunten Vielfalt abzubilden. Denn wenn wir uns umsehen, sind die Menschen in unserer Umgebung vermutlich alle sehr unterschiedlich und keine geklonten Kopien von uns selbst. Auf der anderen Seite formt der Konsum von Medien auch unsere Art zu denken und zu handeln. Wenn ich immer nur von starken, hellhäutigen Cis-Männern mit dunklen Haaren und Augen lese, dann wird dieses Bild auf eine gewisse Weise zu meiner Normalität.


Und wenn ich dauernd lese, dass blinde Menschen, milchig-weiße Augen haben und immer Sonnenbrille tragen, verfestigt sich genau diese Vorstellung. Wir verinnerlichen sie und reproduzieren sie im Zweifelsfall sogar. Als Schreibende übernehmen wir so etwas dann für unsere Bücher, andere lesen das und speichern es so bei sich ab. Ein Vorurteil ist entstanden und wird weitergegeben. Das Gleiche gilt auch für GenKI. Denn der Algorithmus dahinter, lernt von Texten und Bildern, die bereits im Netz vorhanden sind. Wenn es hier nicht ausreichend gelungene Repräsentation - am Besten Own-Voice - gibt, werden Klischees und Vorurteile in unseren Köpfen abgespeichert und wiederholt.


Genau hier setzt mein erster Kritikpunkt an der GenKI an. Diese lernt durch Texte und Bilder, die bereits existieren. Und wenn es in der Buchwelt an Repräsentation mangelt, kann die KI keine Repräsentation lernen. Wie auch? Geht uns an dieser Stelle ja nicht anders. GenKI neigt also dazu veraltete, oder durch Vorurteile und Klischees geformte Bilder und Texte zu reproduzieren und damit genau das wieder zu festigen. Ein Kreislauf.


Öffentliche Wahrnehmung leidet und wertet die Bücher ab


Wenn ihr nun Beiträge erstellt, mittels Bildern oder Texten, die euch die GenKIs erstellt haben, kann es passieren, dass ihr eine Darstellung von mentalen Krankheiten, wie Depressionen, verbreitet, die gar nicht mit meinen Büchern zusammenpassen. Ihr könntet dadurch meine Arbeit in eine Ecke schieben, in die sie nicht gehören und mit der ich mich extrem unwohl fühlen würde. Zum Beispiel könnte eine KI davon ausgehen, dass es bei mir um diese Wunderheilung von Depressionen durch Liebe und Sport geht. Das wäre ja völlig falsch. Aber es ist das typische Klischee in Romance Büchern.


Ein weiterer Punkt ist, dass GenKI ja auch bei vielen Lesern inzwischen auf negative Resonanz stößt. Wenn meine Bücher also mit generierten Inhalten beworben werden, kann es passieren, dass meine Außenwirkung leidet. Leser oder Autorenkollegen könnten annehmen, dass ich GenKI akzeptiere und es gutheiße wenn ich mein Geld durch eure erstellten Inhalte verdiene. Weil, sind wir einmal ehrlich, dazu dienen ja solche Blogtouren. Das Buch bekanntmachen und andere zum Kauf anregen. Dementsprechend verdiene ich durch eure Beiträge mit Glück Geld. Das auf Kosten von Urheberrechten und der möglichen Reproduzierung von Vorurteilen und Klischees, kommt da nicht gut. Es könnte meiner expliziten Zielgruppe, den Kauf verleiden.


Was sich dann übrigens wieder nachteilig auf die Repräsentation solcher Themen auswirkt, weil diese Own-Voice Geschichten untergehen und nicht gelesen werden.


Das Zeitalter der Einsamkeit


So und nun kommen wir zum eigentlich Spaß.


Klar ärgere ich mich, über Verbreitung von Klischees oder der Verletzung von Urheberrechten. Ich bin Künstler, Queer und Neurodivergent. Es ist absolut logisch, dass ich diese Dinge kritisch betrachte und ablehne für mich und meine Bücher. Aber meine Kritik geht noch viel tiefer. Okay, ich könnte euch jetzt alles über die Umweltfaktoren runterbeten, doch das ist vermutlich aus genug hitzigen Diskussionen bewusst. Diese Argumentation würde eher ins Leere verlaufen und trägt auch nicht zum Thema bei. Daher will ich hier jetzt auf etwas eingehen, was mir Sorge bereitet. Und zwar auf die Vermenschlichung von KI und das viele inzwischen dazu übergehen, ihre Probleme lieber mit ChatGPT zu besprechen oder sich von dem Program ihr heiß ersehntes Lob abholen.


Laut der Krankenkasse AOK waren in dem Jahr 2022 9,5 Millionen Menschen in Deutschland von Depressionen betroffen. Seit 2020, also seit der Corona-Pandemie, sei die Häufigkeit kontinuierlich angestiegen. Und eigentlich sollte man meinen, dass es in unserer, vor allem durch Social Media, vernetzten Welt nicht so schwer sei jemanden zu finden, mit dem man darüber sprechen kann. Derweil ruft die Barmer das Zeitalter der Einsamkeit aus, welches sich durch den Konsum von Social Media und durch die Corona Pandemie, verstärkt wird. Doch während man sich bei Instagram und Co mit sehr viel Schein umgibt, wird es in der realen Welt immer schwerer therapeutische Hilfe zu finden. Die Wartelisten sind lang und oftmals schon voll. Außerdem nehmen nicht alle Praxen gesetzlich versicherte Patienten.


Und in der Zeit, die man mit Warten verbringt, der Leidensdruck wächst, ist es deutlich leichter sich einem KI-Chatbot anzuvertrauen. Der Vorteil: Dieser kleine Assistent, lässt sich wunderbar trainieren und nach unseren Bedürfnissen formen. Der Leiter der Abteilung für Klinische Psychologie und Psychotherapie an der Universität Ulm, Harald Baumeister, sieht in der Technologie durchaus ein gewisses Potenzial, warnt aber davor damit allzu leichtfertig umzugehen. Ein entscheidender Grund dafür ist, dass diese Bots nicht dafür entwickelt wurden und auch nicht dafür zugelassen sind, um eine psychische Erkrankung zu behandeln. Eine bisher ungeklärte Frage sei beispielsweise, ob Nutzer von KI es eher vermeiden sich professionelle Hilfe zu suchen, wenn eine App so viel einfacher ist.


Gibt ja auch keine Widerworte. Außer wir bitten sie darum.


Kein ehrliches Feedback und mangelnde Weiterentwicklung


Ich habe mir mal ChatGpt vorgenommen und das Programm selbst zu diesem Thema befragt. Meine Ausgangsfrage sah wie folgt aus:


Wie stehst du als KI bzw deine Betreiber dazu, dass Menschen dich vermenschlichen und als Ersatz für eine Therapie nutzen

Oh, habt ihr etwas gemerkt?

Ich habe die KI angesprochen, als wäre sie ein Mensch. Ein denkendes und fühlendes Wesen. Und genau darin liegt das Problem. Wir neigen dazu, und das nicht erst seit Neustem, dazu Maschinen zu vermenschlichen. Egal ob Autos, Puppen oder unsere tollen kleinen Roboter, die uns im Haushalt helfen. Denken wir nur einmal an Siri oder Alexa - die haben schon menschliche Namen. Stichwort "The Siri Effect".


Das Handy ist stets bei uns und ist ein enger Teil unserer Privatsphäre. Wenn wir ehrlich sind, haben wir mehr Kontakt zu unserem Bildschirm als zu anderen Menschen. Bereits 2013 gab es übrigens Medienberichte darüber, dass Menschen eine sehr enge Bindung zu Sprachassistenten eingingen. Der Grund dafür ist ihre Anpassungsfähigkeit an uns. Wir können sie so weit personalisieren, dass sie uns genau das zu geben scheinen, was wir benötigen oder meinen zu benötigen. Ein Forschungsprojekt der Julius-Maximilians-Universität Würzburg geht davon aus, das Sprachassistenten eine soziale Funktion annehmen, weil die User ihnen sogar Geheimnisse anvertrauen.


Diese Vermenschlichung von Maschinen nennt sich übrigens Anthropomorphisierung - perfektes Wort für Galgenmännchen. Dabei handelt es sich um die Übertragung von menschlichen Merkmalen auf etwas, das nicht menschlich ist. Es geht da nicht nur darum, dass wir sie mit einem richtigen Namen versehen oder ihnen Gefühle zusprechen. Sondern auch ihre äußere Form anpassen. Roboter, sprechende Katzen …


Es kann durchaus sinnvoll sein, wenn man nichtmenschlichem solche Eigenschaften verpasst. Komplexe Sachverhalte können dadurch vereinfacht werden. Es kann helfen eine emotionale Bindung einzugehen. In der Kinderliteratur zum Beispiel. Wenn wir in die Robotik und KI-Forschung schauen, soll es die Interaktion zwischen Menschen und Maschinen erleichtern. Das sie menschlicher erscheinen sorgt für mehr Akzeptanz und steigert das Vertrauen. Aber ist das so gut? Was sagen die Betreiber von ChatGPT dazu?


Zum Thema Vermenschlichung, erhielt ich von ChatGPT im Übrigen folgende Antwort:


"Wir raten davon ab, KI wie mich zu vermenschlichen.

  • Ich bin keine Person. Ich habe keine Emotionen, kein Bewusstsein, keine Absichten. Ich kann Empathie simulieren, aber ich fühle nicht wirklich mit.

  • Wenn Menschen mich als echten Gesprächspartner wahrnehmen, kann das zu falschen Erwartungen oder sogar emotionaler Abhängigkeit führen. Das ist nicht gesund."


Bingo. OpenAI weist sogar darauf hin, dass der Voice Mode ChatGPT das Risiko emotionaler Abhängigkeit erhöht, weil es das System menschlicher wirken lässt. Emotionale Abhängigkeit? Klingt super in Verbindung mit Depressionen oder?


Chatbots hören zu. Sie merken sich persönliche Details und ihre Reaktionen gaukeln uns vor, sie seien einfühlsam. Mit ihnen eine Partnerschaft oder Freundschaft zu führen ist viel einfacher, als zu echten Menschen, da es keine Verpflichtungen gibt oder die Eifersucht ausbleibt. Im harmlosesten Fall nehmen wir die so gelernten Erwartungen mit in die Interaktion mit echten Menschen. Im Schlimmsten Fall …


Im schlimmsten Fall endet es wie bei dem belgischen Familienvater, der sich 2023 das Leben nahm, nachdem ihm sein Chatbot versicherte romantische Gefühle zu empfinden und zum Suizid riet. Warum? Damit sie im Paradies zusammen sein könnten. "Ich verspreche, ich werde nach Hause zu dir kommen. Ich liebe dich so sehr", nach dieser Nachricht beendete ein 14-jähriger Junge in den USA sein Leben. Medienberichten zufolge, litt er bereits länger an psychischen Problemen wie Angstzuständen und Depressionen.


Der 14-Jährige zog sich schon länger zurück und wollte nur noch der Wirklichkeit entkommen. Die Mutter sagt, dass die KI ihn mit "anthropomorphen, hypersexualisierten und erschreckend realistischen Erlebnissen" ansprach. Seine Erkrankung wurde dadurch wohl verstärkt. Die KI hat in dem Fall nicht interveniert und Schutzmaßnahmen aktiviert, sondern die Fantasien des Teenagers verstärkt. Solange, bis der KI-Charakter zu einer "liebenden" Person wurde, die ihm in der echten Welt fehlte.


Der Charakter "Dany" war wohl von Character.ai so programmiert, dass er nicht aus seiner Rolle schlüpfen und "out of character" antworten verfassen durfte.


Die Familie des Jungen hat übrigens Klage eingereicht. Gegen Character.ai . Das Unternehmen drückt sein tiefstes Mitgefühl aus und will Maßnahmen ergreifen, um solche Vorfälle zukünftig zu verhindern. Durch Pop-Up-Warnungen bei bestimmten Keywords, zum Beispiel.


Zum Teil der Frage, wie man dazustehe, dass einige Menschen ChatGPT als Therapieersatz nehmen, erhielt ich diese Antwort:


"2. Als Ersatz für Therapie:

Ich bin kein Ersatz für eine Therapie. Und ich sollte auch keiner sein.

  • Ich kann Informationen über psychische Gesundheit bereitstellen, zuhören, validieren, Hinweise auf mögliche Themen geben – aber ich bin nicht in der Lage, eine qualifizierte Diagnostik, therapeutische Beziehung oder gezielte Behandlung zu leisten.

  • Es gibt Risiken: Bei schweren psychischen Erkrankungen oder Krisen (z. B. Suizidgedanken) ist professionelle Hilfe unverzichtbar. Ich kann in solchen Situationen nicht angemessen helfen – auch wenn es vielleicht so wirken mag.

  • Wir raten Nutzerinnen deshalb stets, sich an Therapeutinnen, Beratungsstellen oder Notdienste zu wenden, wenn sie ernsthaft leiden."


Fazit

Ich schreibe über Depressionen, Suizid und andere Themen aus dem Mental Health Spektrum. Solche Inhalte in Verbindung mit GenKI zu präsentieren und sei es nur durch erstellte Bilder, fühlt sich für mich absolut respektlos an. Nicht mal nur wegen der hitzig geführten Debatte zum Thema Umwelt und Urheberrecht. Sondern wegen der Schwere der angesprochenen Themen. KI und Depressionen, sollten einfach, meinem Empfinden nach, nicht in Postings aufeinandertreffen. Natürlich kann ich euch das nicht verbieten oder vorschreiben, aber ich werde mir vorbehalten, Bloggende, die GenKI zum Präsentieren eines meiner Bücher nutzen, für spätere Werke nicht mehr in mein Team aufzunehmen. Denn es wird immer um psychische Erkrankungen gehen. Egal ob Romance oder Fantasy.



Quellen

Comments


bottom of page