Forschung & Lehre 11/2023

847 11|23 Forschung & Lehre KÜNSTLICHE INTELLIGENZ nicht zu unterscheiden sind. Classifier oder GPTZero sind nicht das Allheilmittel zur Erkennung von KI- Texten. Solche Erkennungsmöglichkeiten beziehen sich nur auf englischsprachige Texte. Auch funktionieren sie nur bei kleinen Dokumenten. Sie können mit einfachen Mitteln außer Kraft gesetzt werden. Classifier können auf falsche Daten trainiert werden. Wenn ein Classifier auf einem Trainingsdatensatz von KI-Texten trainiert wird, der fehlerhaft ist, kann er auch fehlerhafte Ergebnisse liefern. KI-Modelle werden letztendlich immer besser darin, KI-Texte zu generieren, die von menschlichen Texten nicht zu unterscheiden sind. Dies macht es schwieriger, KI-Texte zu erkennen, selbst mit Hilfe von Classifiern und GPTZero. Lehrende in der Verantwortung Es hilft auch nicht, den Einsatz von KI zu verbieten. Italien hat es probiert, wirkte aber sofort mit dem plumpen Versuch eines Verbotes äußerst hilflos. In der KI steckt ja auch vieles, was man positiv nutzen kann, gerade auch für Forschung und Lehre. So wird ChatGPT beispielsweise verwendet, um • Forschungsarbeiten zu unterstützen, indem es beispielsweise Hypothesen generiert oder Daten auswertet. • Lehrveranstaltungen zu gestalten, indem es beispielsweise interaktive Lernmaterialien erstellt oder Feedback zu studentischen Arbeiten gibt. • Prüfungen zu gestalten, indem es beispielsweise Aufgabenstellungen generiert oder Korrekturen vornimmt. Hier sind die Lehrenden gefordert und in der Verantwortung, KI in der Lehre und Forschung adäquat einzubauen und zu nutzen. Fachspezifische Besonderheiten Der Einsatz von generativer KI ist problematisch, vor allem in den Naturwissenschaften und den Sprachwissenschaften. Lange Zeit in der Diskussion dachte man, dass KI-Tools grundsätzlich und allumfassend ein Problem für alle Zweige der Wissenschaft sind. Es zeigt sich jetzt nach der Berührung der Diskussion, dass vor allem Naturwissenschaften von KI nachhaltig betroffen sind. Dies gilt zum einen für Prüfungen (man denke nur an Tests im Bereich Physik oder Chemie). Zum anderen gilt das für das Berufsbild des Naturwissenschaftlers generell, da KI in großen Bereichen den klassischen Physiker oder die klassische Chemikerin ersetzen kann. Ferner ist die Didaktik der Sprachvermittlung durch KI infrage gestellt. Wo immer an der Hochschule Sprachkenntnisse nachgewiesen werden müssen, wird das auf keinen Fall mehr mit schriftlichen Tests von zu Hause aus gehen. Damit kommen auf die oben erwähnten Absolventinnen und Absolventen aus China harte Zeiten zu. In all diesen Bereichen wird man nicht umhinkommen, das Prüfungswesen und die Didaktik grundlegend zu verändern - hin zu mündlichen Prüfungen oder zumindest zu Klausuren, die zentral in der Universität geschrieben werden müssen. Das dürfte auch das Ende für Seminare in diesen Bereichen sein, in denen Studierende zu Hause ausgewählte Themen vorbereiten. Anders ist die Sachlage in den Geistes- und Gesellschaftswissenschaften. Dies zeigt ein in diesem Semester stattfindendes Experiment: Ich werde zum Ende des Semesters eine allgemeine Themenliste mit zehn Themen an die Studierenden verteilen. Erste Aufgabe ist dann, zu dem gewählten Thema über ChatGPT einen Essay produzieren zu lassen. Im zweiten Teil gilt es dann, den von der Maschine erzeugten Text kritisch zu hinterfragen und Schwächen, aber auch Vorzüge aufzuzeigen. Beide Texte werden dann von mir bewertet, gerade aufgrund der Tatsache, dass Studierende so gelernt haben, kritisch mit der virtuellen Intelligenz umzugehen. Datenschutzrechtliche Bestimmungen Deutlich abgeflacht ist auch das Entsetzen mancher Juristen ob der Zulässigkeit virtueller Intelligenz, unter anderem massivste Verletzungen des Datenschutzrechts wurden befürchtet. OpenAI hat sehr schnell ihre Datenschutzeinstellungen grundlegend an das europäische Datenschutzrecht angepasst. Die von ChatGPT gesammelten Daten werden verschlüsselt, um sie vor unbefugtem Zugriff zu schützen. OpenAI hat Datenschutzrichtlinien veröffentlicht, die beschreiben, wie ChatGPT Daten sammelt und verarbeitet. ChatGPT bietet Benutzern die Möglichkeit, ihre Datenschutzeinstellungen anzupassen (zu finden unter „Einstellungen“ > „Datenkontrolle“): • Chat-Verlauf: Aktivieren oder deaktivieren Sie diese Einstellung, um Chats mit ChatGPT zu speichern. Wenn Sie den Chat-Verlauf deaktivieren, werden Ihre Eingaben und Antworten nicht gespeichert. • Trainingsdaten: Aktivieren oder deaktivieren Sie diese Einstellung, um Ihre Eingaben für das Training von ChatGPT zu verwenden. Wenn Sie diese Einstellung deaktivieren, werden Ihre Eingaben nicht für das Training von ChatGPT verwendet. • Export: Exportieren Sie Ihre Chats und Daten von ChatGPT. • Löschen: Löschen Sie Ihren ChatGPTAccount und alle damit verbundenen Daten. Urheberrecht und KI Die Content-Industrie sah darüber hinaus einen massiven Verstoß gegen Urheberrecht. Überall sprangen Plakate und Protestaktionen gegen ChatPT & Co. auf, weniger von den Urhebern als von den Produzenten insbesondere im Bereich Musik und Film. Der Streit ist inzwischen nahezu beigelegt, wie der Abschluss einer eigenen Vereinbarung zwischen Hollywooddrehbuchautoren und großen Filmstudios im Oktober 2023 zeigt. Seitdem ist spätestens klar, dass einige Eckpunkte des klassischen Urheberrechts auch für KI gelten: • Wenn ein Mensch mit Hilfe von ChatGPT einen Text erstellt, bleibt dieser Mensch der Urheber des Textes. Das Urheberrecht gilt in der Regel für den Autor oder die Autorin, es sei denn, es liegt eine spezifische Vereinbarung mit dem Anbieter des Generators vor. Ein urheberrechtlich geschütztes Werk erfordert zwingend gem. § 2 Abs. 2 UrhG eine persönliche geistige Schöpfung. Eine solche Schöpfung kann allerdings nur durch eine natürliche Person erfolgen, nicht durch eine Maschine. • Die Art und Weise, wie der generierte Text verwendet werden kann, hängt von den Bedingungen ab, die der Anbieter festgelegt hat. In einigen Fällen kann der Anbieter Nutzern ein Nutzungsrecht gewähren, um den Text zu verwenden, in anderen Fällen kann die Nutzung stark eingeschränkt sein. • In einigen Ländern gibt es den Grundsatz des „Fair Use“ oder der „Fair Dea- »Die Lehrenden sind gefordert und in der Verantwortung, KI in der Lehre und Forschung adäquat einzubauen.«

RkJQdWJsaXNoZXIy MjMxMzg=