Die Auswirkungen von Künstlicher Intelligenz (KI) auf Literatur und Journalismus standen am 16. April im Fokus einer Dialogrunde im Ingolstädter Georgianum. Knapp 60 Gäste diskutierten mit Expertinnen und Experten aus Wissenschaft und Praxis. Nach einem Impulsvortrag von Autorin und Literatur- sowie Kulturwissenschaftlerin Jenifer Becker von der Universität Hildesheim wurde die Diskussionsrunde um journalistische und didaktische Perspektiven erweitert. Jenifer Becker, Dr. Michael Graßl, Wissenschaftlicher Mitarbeiter am Lehrstuhl für Journalistik mit Schwerpunkt Innovation und Transformation an der KU, Michael Häußler, stellvertretender Leiter der Donaukurier-Lokalredaktion Ingolstadt, und Prof. Dr. Cornelia Rémi, Inhaberin des Lehrstuhls für Didaktik der deutschen Sprache und Literatur an der KU sprachen über die Kreativität von KI oder den kompetenten Umgang mit KI. Thematisiert wurden außerdem die Stärken und Schwächen ihrer Anwendungen.
Zunächst zeigte Jenifer Becker eindrucksvoll, wie Künstliche Intelligenz (KI) den Literaturbetrieb zunehmend in Konzeption, Produktion und Überarbeitung von Texten beeinflusst. Lektoratsaufgaben und andere stark automatisierte oder sich wiederholende, zeitintensive Prozesse würden zum Beispiel zunehmend durch KI-Anwendungen ersetzt. KI könne hilfreich sein, um Ideen für Texte zu generieren. Im Journalismus bieten KI-basierte Tools, als technisches Assistenzsystem betrachtet, durchaus Vorteile, stimmten Michael Häußler und Michael Graßl zu. Gleichwohl würden Leserinnen und Lesern durch KI generierte Artikel im Augenblick nicht tolerieren. Es würde „dem Journalismus mehr schaden als dienen“, wenn Artikel von KI geschrieben würden, meinte Häußler. Der Faktencheck durch den Menschen bleibe unerlässlich, ergänzte Graßl. Laut Häußler nutzt der Donaukurier KI aktuell vor allem als Hilfsmittel, etwa um eine Offstimme zu einem selbst geschriebenen Text zu generieren.
Lernen und Lehren mit KI
Doch wie beeinflussen textgenerierende digitale Werkzeuge nun Lernen und Lehren in Schulen und Universitäten? Hier zeige sich, so Cornelia Rémi, dass etwa Studierende KI weitestgehend unbeschwert, durchaus fast naiv nutzen würden. An der KU sei ChatGPT für alle freigegeben – auch aus Gründen der Bildungsgerechtigkeit, um für finanziell weniger gut gestellte Studierende keine Nachteile zu erzeugen. Bislang sei eine zentrale Frage von Studierenden im Lehramt, wie Texte von Schülerinnen und Schülern später bewertet werden sollen.
Jenifer Becker ergänzte, dass es nach wie vor eine riesige Skepsis gebe. Studierende hätten erstmal Berührungsängste mit Chat GPT, die dann abnehmen würden, weil sie im Experimentieren mit KI erleben, dass KI weder Zauberei sei noch ein Bewusstsein habe. Studierende erkennen im Ausprobieren und Verstehen von KI: „Wow, ich werde nicht ersetzt!“, so Becker.
KI im Journalismus
Graßl unterstrich, in jedem Produktionsschritt kann KI assistieren, dennoch wird der Mensch nicht ersetzt: Bei einer Reportage funktioniert KI allein nicht. „Die KI kann nicht vor Ort gehen, das müssen weiter Menschen machen“, so Häußler. Die Runde war sich einig, dass sowohl in Literatur als auch im Journalismus komplexere Texte immer Menschen bbenötige, die die Verantwortung dafür übernehmen. So hätte beispielsweise der Bayerische Rundfunk ethische KI Richtlinien entwickelt. Hier sei geregelt, dass das finale Produkt immer von einem Menschen abgenommen werden muss. Eine Zuschauerin wollte darauf hin wissen, ob man die Nutzung von KI in Texten, wie Grußworten, kenntlich machen müsse. Graßl illustrierte die Praxis an der KU: Hier müsse generell jede verwendete KI in Arbeiten transparent gemacht werden und in Seminar- oder Abschlussarbeiten muss es ein eigenes Verzeichnis für verwendete Prompts (Anmerkung: Texteingaben bzw. Arbeitsauftrag für KI) geben. Becker ergänzte, dass man die entsprechenden Allgemeinen Geschäftsbedingungen der KI-Anbieter prüfen müsse, wenn mit KI erstellte Texte kommerziell genutzt werden.
Mit der Frage, ob jemand, der KI nutze, betrüge oder ein KI generierter Text weniger wert sei, wandte sich eine weitere Zuschauerin an die Expertenrunde: Wenngleich die Frage nicht abschließend beantwortet werden könne, so zeigte Becker, „dass wir umlernen“. „Es gibt auch die Frage, werde ich betrogen?“ – etwa wenn KI ganze Bücher schreibt, gab sie zu bedenken. Aktuell fehle es an verbindlichen Regeln. Selbst von Hochschule zu Hochschule sei die Praxis unterschiedlich. Am Ende müssten alle Institutionen eigene Regelungen für Ihren Bereich finden, pflichtete Graßl bei.
Gibt es kreative KI?
Zudem demonstrierte Rémi, dass die Verbindung und Neukombination von Altem mit Neuem im Grunde eine der ältesten Kreativitätstechniken sei. Daher müsse man sehr genau schauen, wenn es um die Frage ginge, ob es kreative KI gebe. Das emotionale und motivierende Erleben des Schaffens und Gestaltens, könne KI nicht ersetzen. Demgegenüber unterstrich Becker, dass die Systeme gut Sprachstrukturen erzeugen und Kommunikationsregeln verstehen können. Dennoch brauche es brauche immer den Menschen, der den ersten Impuls gibt und das Werkzeug startet.
Insgesamt zeigte die Diskussion, dass KI als Werkzeug dem Menschen assistieren kann. Das Fazit der Runde: Es braucht dennoch verantwortungsvolle Personen, die das Werkzeug bedienen können und auch reflektieren, ob das entstandene Produkt korrekt, zweckmäßig oder glaubwürdig ist. Gerade was die angemessene Bedienung der neuen digitalen Werkzeuge angeht, sind Zeit und Mut zum Experimentieren wichtig, nicht selten auch finanzielle Ressourcen, um Kompetenzen im Umgang mit KI zu entwickeln. Die Technologie wird wahrscheinlich in bestimmten Bereichen, wie der Unterhaltung, stärker eingesetzt werden als in anderen. Daran zu arbeiten, dass der Mensch im Zentrum bleibt, ist eine gesamtgesellschaftliche Aufgabe. Denn: KI darf uns nicht ersetzen, sondern sollte uns ergänzen.
Text: Ulrike Brok; Fotos: Daniel Zacher