Jenseits des Hypes: 5 überraschende Wahrheiten über die Ära der KI-geschriebenen Bücher

Quelle: ChatGPT

Disclaimer vorab:
Ich habe mir auf Youtube vier Beiträge zu dem Thema “KI-geschrieben Bücher” herausgesucht, die das Thema von unterschiedlichen Warten beleuchten:

1. AI authors are ruining books...
2. The AI Writing Epidemic
3. The Death of the Author? AI’s Takeover of Literature
4. Writers Are Being Accused of Using AI — No Matter What They Do

Diese vier Beiträge habe ich als als Quellen in Googles Notebook LM geladen und aus der Zusammenfassung der Beiträge einen Blogbeitrag generieren lassen. Das finde ich nur konsequent (und es ist meinem zuweilen dunklen Humor geschuldet), zu diesem Thema KI-Hilfe anzufordern – dies als Disclaimer. Niemand muss den Beitrag lesen, wenn es ihr/ihm nicht behagt.

 

Jenseits des Hypes: 5 überraschende Wahrheiten über die Ära der KI-geschriebenen Bücher

Die Diskussion über künstliche Intelligenz und ihre Rolle in kreativen Berufen hat eine fieberhafte Intensität erreicht. Insbesondere in der Literaturwelt scheint die Erzählung klar zu sein: KI-Tools werden zur Massenproduktion von Büchern eingesetzt, was die menschliche Kreativität bedroht. Doch jenseits der Schlagzeilen und der allgemeinen Panik entfaltet sich eine weitaus komplexere und faszinierendere Realität. Die Auswirkungen der KI auf das Schreiben sind seltsamer, nuancierter und überraschender, als es die einfache Geschichte von „Mensch gegen Maschine“ vermuten lässt. Dieser Beitrag destilliert fünf der unerwartetsten und folgenreichsten Wahrheiten aus der aktuellen Situation und wirft einen Blick hinter den Hype, um zu verstehen, was wirklich vor sich geht.


1. Die verräterischen Spuren: Wenn Autoren ihre KI-Befehle im Text vergessen

Eines der verblüffendsten Phänomene dieser neuen Ära ist die schiere Nachlässigkeit, mit der einige Autoren KI-Tools einsetzen. Immer wieder tauchen Bücher auf, in denen die ursprünglichen Anweisungen (Prompts), die an die KI gegeben wurden, versehentlich im veröffentlichten Text stehen bleiben. Diese Fehler sind nicht nur peinlich, sondern bieten auch einen rohen, ungefilterten Einblick in den Prozess. Drei besonders eklatante Beispiele aus der jüngsten Vergangenheit illustrieren dieses Problem:

* Lena McDonald: In einem Buch ihrer Dark Hollow Academy-Reihe wurde ein verräterischer Prompt gefunden, der lautete: »Ich habe die Passage umgeschrieben, um sie stärker an den Stil von J Breeze anzulehnen, der mehr Spannung, düstere Untertöne und einen rohen emotionalen Subtext unter den übernatürlichen Elementen aufweist«. Dieser Fund deutet darauf hin, dass die KI angewiesen wurde, den Stil eines anderen Autors zu imitieren.

* Casey Crown: In ihrem Liebesroman Dark Obsession blieb eine noch direktere Anweisung im Text: »13 Sekunden nachgedacht, hier ist eine verbesserte Version Ihrer Passage.«, gefolgt von der Anweisung, eine Figur sympathischer zu gestalten und eine „kurze sexy Beschreibung“ hinzuzufügen.

* Rana Ferris: In ihrem Buch Rogue Souls fand sich der Prompt: »Das ist schon ziemlich stark, aber es kann für eine schärfere und prägnantere Formulierung gestrafft werden...«. Ferris behauptete später, eine Beta-Leserin sei schuld gewesen, was die Situation nur noch bizarrer machte.

Diese Fehler offenbaren einen beunruhigenden Fokus auf Quantität statt Qualität und einen Mangel an grundlegendem Korrekturlesen. Sie werfen eine einfache, aber tiefgreifende Frage auf, die der YouTuber Austin Green treffend formulierte:

Lesen die Leute ihre Bücher nicht, bevor sie sie veröffentlichen, oder lassen sie sie nicht von jemand anderem lesen?
— Austin Green

2. Ihr persönlicher KI-Detektor: Die drei untrüglichen Zeichen für maschinelles Schreiben

Obwohl KI-generierte Texte immer ausgefeilter werden, gibt es verräterische stilistische Muster, die oft auf ihren maschinellen Ursprung hindeuten. Der Analyst Cole Hastings hat drei der häufigsten verräterischen Muster identifiziert und analysiert, die in solchen Texten immer wieder auftauchen und als persönlicher KI-Detektor dienen können.

* 1. Die „Nicht dies, sondern das“-Struktur: KI-Modelle, insbesondere ChatGPT, neigen dazu, einen Punkt zu betonen, indem sie zuerst das Gegenteil verneinen. Ein typisches Beispiel, das durch einen Prompt generiert wurde, lautet: »KI-Schreiben ist nicht gefährlich, weil es schlecht ist, es ist gefährlich, weil es fast gut ist«. Diese Struktur wird von menschlichen Autoren selten mit solcher Häufigkeit verwendet.

* 2. Der übermäßige Gebrauch von Gedankenstrichen (M-dashes): Während Gedankenstriche ein legitimes Satzzeichen sind, setzt die KI sie auffällig oft und an Stellen ein, an denen ein einfaches Komma ausreichen würde. Es ist zwar kein alleiniger Beweis, aber in Kombination mit anderen Mustern ein starkes Indiz.

* 3. Die Dreierregel (The Rule of Threes): KI-Modelle strukturieren Informationen gerne in Dreiergruppen, wie zum Beispiel »zu roh, zu seltsam, zu wahr«. Obwohl dies auch ein menschliches rhetorisches Mittel ist, wirkt die Anwendung durch die KI oft „zu sauber und roboterhaft“.

Diese stilistischen Ticks entstehen, weil die KI nicht kreativ denkt, sondern lediglich auf der Grundlage ihrer Trainingsdaten das statistisch wahrscheinlichste nächste Wort vorhersagt. Das Ergebnis ist ein Text, der zwar grammatikalisch korrekt, aber oft formelhaft und seelenlos ist. Doch diese stilistischen Eigenheiten sind nur die sichtbaren Symptome einer weitaus tieferen und gefährlicheren Entwicklung, die im Verborgenen stattfindet: dem Kollaps der Modelle selbst.


3. Die wahre Gefahr ist nicht Ersatz, sondern „Modellkollaps“

Entgegen der landläufigen Meinung ist die größte Bedrohung durch KI-Schreiben nicht, dass Maschinen menschliche Autoren vollständig ersetzen werden. Die eigentliche, subtilere Gefahr ist der sogenannte „Modellkollaps“ – ein Prozess, bei dem die KI die Informationsquelle, auf die sie angewiesen ist, selbst vergiftet.

Eine im Jahr 2023 in der Fachzeitschrift Nature veröffentlichte Studie beschreibt den Modellkollaps als einen degenerativen Prozess. Einfach ausgedrückt: Wenn KI-Modelle überwiegend mit Inhalten trainiert werden, die von anderen KIs generiert wurden, beginnen sie, die ursprünglichen, von Menschen geschaffenen Daten zu „vergessen“. Dies führt zu einer negativen Rückkopplungsschleife: KI-generierte Inhalte, die bereits Voreingenommenheit und einen Mangel an Kreativität aufweisen, werden zur Trainingsgrundlage für zukünftige KI-Modelle. Das Resultat ist eine fortschreitende Verschlechterung von Genauigkeit, Nuanciertheit und Originalität. Die Forscher fassen es so zusammen:

…ein degenerativer Prozess, bei dem Modelle im Laufe der Zeit die wahre zugrunde liegende Datenverteilung vergessen … das passiert, wenn KI-Modelle mehr mit KI-generierten Inhalten als mit vielfältigen, einzigartigen, von Menschen generierten Inhalten trainiert werden.
— Nature

4. Die neue Hexenjagd: Wenn die Angst vor KI unschuldige Autoren trifft

Die wachsende Paranoia rund um KI hat eine unerwartete und zutiefst menschliche Konsequenz: Autoren werden zunehmend zu Unrecht beschuldigt. Egal, ob ihr Schreiben als „zu gut“ oder „zu schlecht“ empfunden wird, der Vorwurf, eine KI benutzt zu haben, ist schnell zur Hand.

Diese Atmosphäre des Misstrauens führt zu einer tiefgreifenden Ironie: Die KI lernt von menschlichen Texten und übernimmt stilistische Eigenheiten wie den Gedankenstrich. Aus Angst, wie eine Maschine zu klingen, beginnen neurotypische Autoren nun, ebendiese menschlichen Stilmittel zu meiden. Gleichzeitig werden neurodivergente Menschen, insbesondere Autisten, überproportional häufig beschuldigt, eine KI zu sein. Ihr Kommunikationsstil – der wörtlicher, formeller oder strukturierter sein kann – wird fälschlicherweise als „roboterhaft“ interpretiert. Das Meiden von Redewendungen oder die Verwendung ungewöhnlicher Satzstrukturen, beides zutiefst menschliche Ausdrucksformen, können von KI-Detektoren als verdächtig eingestuft werden, weil sie von der statistischen Norm abweichen. Die YouTuberin „Ches Is Hyperfixating“ berichtet, dass sie bereits vor 18 Jahren als „Roboter“ bezeichnet wurde, lange bevor KI ein Thema war. So entsteht eine neue Form der digitalen Diskriminierung, bei der einige Menschen ihren natürlichen Stil verleugnen müssen, während andere für ihren bestraft werden.


5. Das Fehlen der „Aura“: Warum eine Maschine niemals Dickens sein kann

Jenseits technischer Mängel und sozialer Folgen gibt es ein grundlegendes, philosophisches Argument, warum eine KI niemals große Literatur schaffen kann. Der Philosoph Walter Benjamin prägte den Begriff der „Aura“ eines Kunstwerks – sein „Hier und Jetzt“, seine einzigartige Präsenz, Geschichte und die menschliche Verbindung, die einer mechanischen Reproduktion fehlt.

Übertragen auf die Literatur besitzt ein von Menschen geschriebener Text die Aura der gelebten Erfahrung des Autors – seiner Leidenschaft, seiner Fehler und seiner Seele. Leser verbinden sich auf einer intimen Ebene mit diesem menschlichen Kern. Ein Vergleich zwischen der Eröffnung von Charles Dickens‹ David Copperfield und einer von ChatGPT generierten Version macht dies deutlich. Die KI-Version ist übermäßig dramatisch, verwendet unauthentische Floskeln wie „Ihr bescheidener Erzähler“ und es fehlt ihr die subtile, selbstreflexive Tiefe des Originals. Der KI fehlt das Verständnis für die Meta-Ebene, die Dickens meisterhaft einsetzt.

Die YouTuberin „Lady of the Library“ fasst dieses Defizit in einer treffenden Analogie zusammen:

Der Hund hat kein Verständnis für die Gefahren, die drohen, wenn er auf die Straße rennt ... Alles, was der Hund kennt, ist ein Trick: Anhalten, wenn er eine Straße erreicht. Er versteht nichts, was über diesen Trick hinausgeht. Und die KI ist, glaube ich, genauso. Sie kennt einen Stil, aber sie versteht nicht, wie man ihn anwendet.
— Lady of the Library

Abschließende Gedanken: Eine Frage der Seele, nicht nur der Worte

Die literarische Welt steht nicht einfach nur vor einem neuen Werkzeug. Sie wird mit einem einzigen, vielschichtigen Phänomen konfrontiert, dessen Facetten von peinlichen Fehlern bis zu tiefen philosophischen Fragen reichen. Die im Text vergessenen KI-Befehle, die verräterischen stilistischen Muster, die systemische Gefahr des Modellkollapses, die paranoide Jagd auf unschuldige Autoren und das Fehlen einer künstlerischen „Aura“ sind keine separaten Probleme. Sie sind die miteinander verknüpften Symptome einer Technologie, die menschlichen Ausdruck imitiert, ohne ihn zu verstehen. Letztlich offenbaren sie, dass echte Literatur eine Resonanz der menschlichen Seele ist – etwas, das eine Maschine nachahmen, aber niemals wirklich besitzen kann.

Während sich diese Technologie weiterentwickelt, lautet die wichtigste Frage vielleicht nicht: „Kann eine KI ein gutes Buch schreiben?“, sondern vielmehr: „Wollen wir in einer Welt leben, in der sie es tut?“

Quelle: Youtube (s.o.), zusammengefasst via Google NotebookLM


Mein persönliches Fazit

Ich lese Bücher seit meiner Kindheit (in den 70er Jahren). Ich kann nur sagen, dass ich um Vielschreiber mit niedrigen Qualitätsmaßstäben (siehe Wolfgang Hohlbein, die Perry Rhodan-Autoren etc.) immer eine Bogen gemacht habe – weil ich es mir wert war und bin. Wenn ich an die Romane zurückdenke, die mich am meisten beeindruckt haben, dann waren es immer die grandiosen Ideen, andersartigen Sujets und frischen Blickwinkel, die den meisten Eindruck hinterlassen haben, niemals aber das Immerselbe in der x-ten Aufwärmung via Zeilenschinderei.

Sicherlich wird KI eines Tages diesen Benchmark knacken, aber bis dahin möchte ich echte Autoren lesen und einzigartige Ideen aus erster Hand erleben.

Was denkt ihr darüber?
Schreibt es bitte in die Kommentare.

Zurück
Zurück

Ein SF-Autor, mit dem ich hadere: William “Bill” Gibson

Weiter
Weiter

Worüber ein Fantasy-Autor so nachdenkt V…