Philosophieren mit KI? – Large Language Models und Philosophiezeitschriften

08.05.2025

Philosophieren mit KI? – Large Language Models und Philosophiezeitschriften

4. Juni 2025, 16.00-17.30 online via Zoom

Link: https://tu-berlin.zoom-x.de/j/69026773422?pwd=V197wXSTAcPyDrn7vQoFbZx29vyayF.1

Es diskutieren: Suzana Alpsancar (Paderborn), Martin Hähnel (Bremen), Luise Müller (FU Berlin), Karoline Reinhardt (Passau), Moderation: Birgit Beck (TU Berlin)

KI und insbesondere Large Language Models (LLMs) wie ChatGPT oder Gemini werden bereits jetzt vielfach im wissenschaftlichen Arbeiten eingesetzt. Gerade für die Philosophie, für die das Lesen und Verfassen von Texten zentral ist, werden sie zur Herausforderung, in der Lehre genauso wie in der Forschung. Das betrifft auch das wissenschaftliche Publizieren in Fachzeitschriften. Diese Veranstaltung will sich einigen der damit verbundenen Fragen widmen: Inwiefern können LLMs den wissenschaftlichen Schreibprozess unterstützen oder gar ersetzen? Wie sollten Zeitschriften und Herausgeber:innen darauf reagieren – mit Verboten, Kennzeichnungspflichten oder affirmativ den Einsatz von LLMs befürworten? Wie geht die scientific community mit Texten um, die ganz oder teils von LLMs geschrieben wurden – schadet die Angabe der Verwendung dieser Technologien der Reputation der Autor:innen oder der Zeitschriften, die diese Texte veröffentlichen? Wird durch den Einsatz von LLMs die intellektuelle Autonomie von Autor:innen infrage gestellt? Zudem wird diskutiert, ob LLMs als Werkzeuge zur Vereinfachung des Peer-Review-Prozesses fungieren können und ob dies die Qualität und Objektivität von Begutachtungen – positiv wie negativ – beeinflussen könnte. Weitere Fragestellungen betreffen die Zukunft wissenschaftlicher Publikationen: Verändert sich durch den Einsatz von LLMs die Struktur von Philosophiezeitschriften? Besteht die Gefahr, dass traditionelle Methoden des Philosophierens in den Hintergrund rücken? Welche neuen Ungerechtigkeiten könnten LLMs und ihr Einsatz hervorbringen und wo könnte ihr Einsatz helfen, bestehende zu reduzieren? Was geht verloren, wenn LLMs großflächig in der Produktion fachphilosophischer Aufsätze eingesetzt werden, was kann dadurch gewonnen werden? Wie können ethische und rechtliche Herausforderungen, wie beispielsweise das Risiko von Plagiaten oder die Sicherstellung der Urheberschaft, aber auch Falschbeschuldigungen und Unsicherheiten bezüglich des Einsatzes von LLMs, adressiert werden?