„Der letzte Autor muss der Mensch sein“

„Talk am Turm“: Ethik für ChatGPT – Was Künstliche Intelligenz kann und was sie sollte

1. Oktober 2024

Begaben sich mit dem Thema künstliche Intelligenz aus ein weites Feld: der Referent Prof. Dr. Lukas Ohly (r). und Moderator Rainer Böhm. Foto: Seipel

 

War mit von der Partie: Liedermacher Martin Schnur. ©Seipel
War mit von der Partie: Liedermacher Martin Schnur. ©Seipel

Künstliche Intelligenz war das Thema, mit dem sich der „Talk am Turm“ des Evangelischen Dekanats Büdinger Land am Montagabend im gut besuchten Johannitersaal in der Niddaer Bahnhofstraße aus der Sommerpause zurückmeldete. Unter der Überschrift „Ethik für ChatGPT“ stellte Lukas Ohly, Professor für Systematische Theologie an der Frankfurter Goethe-Uni, vor, „was Künstliche Intelligenz kann und was sie sollte“.

 

Keine Frage, Künstliche Intelligenz kann eine Menge: selbstfahrende Autos, autonome Waffen oder Neurochips, mit denen sich die Gehirnleistung verbessern lässt, nannte Ohly als Beispiele, von denen die meisten Menschen schon gehört haben. Es ist nur ein Ausschnitt dessen, was möglich ist. „Aber“, so Pfarrer Rainer Böhm, der die Veranstaltung moderierte, „welche KI-Anwendungen sind wirklich sinnvoll und nützlich und welche nicht?“ Manipulation und Datenfang nannte er als Stichworte für die Risiken, die mit der Nutzung solcher Programme verbunden sind.

 

Ohly, dessen Forschungsschwerpunkt die Ethik der Digitalisierung, Künstlichen Intelligenz und Robotik ist, beschränkte seinen Vortag auf sogenannte KI-Textgeneratoren wie Chat GPT oder Bard. Diese Textgeneratoren wurden mit riesigen Datenmengen gefüttert: wissenschaftlichen und belletristischen Texten, Texten aus Zeitschriften, aus sozialen Medien und andere mehr. Die KI lernt damit nicht nur reine Fakten, sondern auch das Formulieren von Sätzen und typische Wörter für bestimmte Zusammenhänge und Textarten. Auf dieser Datenbasis generiert die KI einen Text, indem sie Silben aneinanderreiht, deren Folge durch Wahrscheinlichkeit errechnet wird.

 

Ohly hatte dem Sprachmodell Bard den Auftrag erteilt, eine Predigt zu einer Bibelstelle zu verfassen. Diese Predigt las er den Zuhörern vor. Dass der Text tatsächlich klang, wie von einem Pfarrer formuliert, liege daran, dass sich eben auch Predigten in der Datenbank befinden, erklärte Lukas Ohly.

 

Der Ruf aus dem Publikum „Also ich habe schon schlechtere Predigten gehört“, machte eines der großen Probleme im Umgang mit KI-Sprachmodellen deutlich: Man kann nicht mehr sicher unterscheiden, ob der Autor ein Mensch oder ob der Text maschinengeneriert ist.

 

Ohly lenkte den Blick auf die Schwächen der Maschinensprache: unverbundene Gliederungspunkte, Paraphrasierungen und kein Zusammenhang mit der Theologie des Paulus (von dem die Bibelstelle stammt). Das sei typisch, so der Wissenschaftler, weil das Sprachmodell „nicht in die Welt schaut“ und weil es Wahrscheinlichkeiten einschätze, ohne überhaupt zu wissen, worum es geht. Die Konsequenz: „Der Autor vertritt keinen Geltungsanspruch, weil sich GPT nur mit der Aneinanderreihung von Silben befasst“ - und nicht mit dem Inhalt der Bibelstelle, auf die sich der Text bezieht. Ob der Text etwas bedeute, hänge folglich von dem Rezipienten ab. „Wenn die Predigt ihnen etwas sagt, dann liegt es an ihnen, nicht an der KI“, so Ohly.

 

Im Gespräch mit dem Publikum ging es vor allem um die Aspekte Täuschung und Manipulation, weil Künstliche Intelligenz immer mehr Lebensbereiche betrifft: amtliche Dokumente, die von Maschinen ausgewertet werden, medizinische Diagnostik auf KI-Basis, KI-Systeme, die es Trauernden ermöglichen, mit dem verstorbenen Partner ein Gespräch zu führen. Gerade dieses letzte Beispiel nannte Ohly, „nicht verwerflich – ich weiß, dass es nicht echt ist, aber es tut mir gut“. Problematisch sei es, „wenn Menschen getäuscht werden, ohne es zu wollen oder zu wissen und so in eine Abhängigkeit geraten“.

 

Ohly plädierte für einen sorgsamen Umgang mit Textgeneratoren und für Regeln. „Wir müssen auch vermitteln, was gut daran ist. Ich sage nicht, dass Journalisten oder Prediger diese Programme nicht nutzen sollen, aber sie sollen sie sparsam einsetzen“ – beispielsweise, um den ersten Satz zu schreiben, weil der Einstieg ins Thema gerade nicht gelingen will. „Aber der letzte Autor muss immer der Mensch sein.“

 

Aufklärung über die Möglichkeiten und die Risiken sowie die Befähigung zu einem kritischen Umgang mit Künstlicher Intelligenz – am besten schon im Schulalter - waren die Wünsche, die das Publikum artikulierte. „Wir werden Fähigkeiten benötigen, über die wir vermutlich noch gar nicht verfügen“, äußerte eine Zuhörerin ihre Bedenken. „Big Brother ist ein Zwerglein dagegen.“ (jub)


Die Veranstaltung wird gefördert mit Mitteln der Kulturstiftung der Evangelischen Kirche in Hessen und Nassau (EKHN).