ChatGPT im Studium – Fähigkeiten und Gefahren von KI-Modellen

In diesem Beitrag erfahren Sie anhand von Beispielen, welches Potenzial und welche Einschränkungen Sprachmodelle wie ChatGPT im akademischen Kontext haben.

Redaktion | 04.06.2025 | Lesedauer 9 min

Der Chatbot ChatGPT des Unternehmens OpenAI wird neben anderen KI-Modellen aktuell nicht nur medial, sondern auch innerhalb des akademischen Betriebs heiss diskutiert. Kein Wunder also, dass es auch Debatten um ChatGPT im Studium gibt. ChatGPT bezeichnet sich selbst als virtueller Assistent, der auf einem grossen Sprachmodell basiert und menschenähnliche Konversationen mit den benutzenden Personen führen kann. Das Programm kann dabei auf eine breite Palette von Quellen zurückgreifen, um z. B. Ideen, Problemlösungen oder Code zu produzieren. Da der Chatbot auf maschinellem Lernen beruht, wird er unter dem Schlagwort der künstlichen Intelligenz diskutiert.

Sprachmodelle oder „Large Language Models“ (LLM) sind Algorithmen, die auf Basis von Deep Learning (Teilbereich des maschinellen Lernens) Texte verarbeiten und generieren können. Die Informationen werden aus riesigen Datensätzen gewonnen, die das verschriftliche Wissen des Internets enthalten. Die Modelle lernen Worte, ihre Bedeutung und Verbindung zueinander und können so Vorhersagen zu treffen, die die gewünschten Inhalte abbilden sollen.

KI-Prompts fürs Studium – Fähigkeiten im akademischen Kontext

Die Fähigkeiten von ChatGPT sind vielseitig. Sitzt man mit Schreibblockade vor einem weissen Bildschirm, kann der Chatbot z. B. helfen, indem er eine Gliederung oder eine Idee für eine Forschungsfrage vorschlägt.

User:
Entwickle eine innovative Forschungsfrage im Bereich Politikwissenschaft, die sich mithilfe einer empirischen Untersuchung beantworten lässt.
ChatGPT:
Welche Auswirkungen haben soziale Medien und Desinformationskampagnen auf die politische Polarisierung und das Wahlverhalten in verschiedenen Demokratien? Eine vergleichende Analyse von Ländern mit unterschiedlichen politischen Systemen und Medienlandschaften.
User:
Wie könnte eine Gliederung für diese Forschungsfrage aussehen, wenn sie durch einen Studenten im 6. Semester bearbeitet wird und der Umfang der Ausarbeitung auf etwa 30 Seiten beschränkt ist?
ChatGPT:

  1. Einleitung (2 Seiten) 1.1 Hintergrund und Motivation 1.2 Forschungsfrage und Zielsetzung
  2. Theoretischer Rahmen (5 Seiten) 2.1 Politische Polarisierung 2.2 Wahlverhalten 2.3 Soziale Medien und Desinformationskampagnen 2.4 Hypothesenbildung
  3. Methodik (5 Seiten) 3.1 Forschungsdesign: Vergleichende Analyse 3.2 Auswahl der Fallstudien: Länder und politische Systeme 3.3 Datenquellen und Variablen 3.4 Empirische Methoden und statistische Verfahren
  4. Ergebnisse (8 Seiten) 4.1 Deskriptive Analyse: Polarisierung und Wahlverhalten im Ländervergleich 4.2 Bivariate Analyse: Zusammenhang zwischen sozialen Medien, Desinformation und Polarisierung 4.3 Multivariate Analyse: Kontrollvariablen und kausale Effekte
  5. Diskussion (6 Seiten) 5.1 Zusammenfassung der Ergebnisse 5.2 Theoretische und praktische Implikationen 5.3 Limitationen und Empfehlungen für zukünftige Forschung
  6. Fazit (2 Seiten)
  7. Literaturverzeichnis (2 Seiten)

Diese Gliederung orientiert sich an den Anforderungen für eine Ausarbeitung von etwa 30 Seiten und berücksichtigt die unterschiedlichen Aspekte der Forschungsfrage. Es wird darauf geachtet, dass die Kerninhalte und -abschnitte enthalten sind, während der Umfang der Arbeit überschaubar bleibt.

Auch die sprachliche Überarbeitung eines selbst geschriebenen Textes, der sich noch holprig liest, gelingt mit ChatGPT meist problemlos. Denkbar ist auch die Ausformulierung von stichpunktartigen Notizen. Entscheidend für die Verwertbarkeit der Antworten scheint eine klare, eng begrenzte Anweisung zu sein. Eine Stärke des Modells liegt also in seiner Unterstützung bei der Ideengenerierung oder kreativen Aufgaben. ChatGPT kann zwar für jede erdenkliche Anweisung eine Ausgabe produzieren, die Qualität und Verwertbarkeit variiert jedoch stark in Abhängigkeit des Nutzungsmotivs und Themas. Es wäre daher ein Trugschluss zu glauben, dass ChatGPT wie ein Alleskönner auf Knopfdruck ein makelloses akademisches Ergebnis zaubert. 

User:
Formuliere die folgenden Stichpunkte als Fliesstext aus:

  • Begriffsbestimmung Republik
  • Entspringt lat. Res publica = öffentliche Sache, gemeinschaftliches Gut der Bürger
  • Bekannteste Klassifizierung von Montesquieu (republikanische, monarchische, despotische Regierungsform)
  • Despotische Regierungsform gründet auf Terror und ist Gegenspielerin von Monarchie und Republik
  • Monarchie und Republik basieren auf rechtlicher Ordnung
  • Heute vor allem antimonarchistische Bedeutung des Republikbegriffs
  • Wiedereinrichtung einer Erbmonarchie in Deutschland verunmöglicht
ChatGPT:
Die Begriffsbestimmung der Republik geht auf das lateinische „Res publica“ zurück, was „öffentliche Sache“ oder „gemeinschaftliches Gut der Bürger“ bedeutet. Die bekannteste Klassifizierung der Regierungsformen stammt von Montesquieu, der zwischen republikanischen, monarchischen und despotischen Regierungsformen unterschied. Die despotische Regierungsform basiert auf Terror und stellt einen Gegenspieler zur Monarchie und Republik dar. Sowohl die Monarchie als auch die Republik fussen auf einer rechtlichen Ordnung. In der heutigen Zeit hat der Begriff der Republik vor allem eine antimonarchistische Bedeutung. Im Falle Deutschlands wäre die Wiedereinrichtung einer Erbmonarchie verunmöglicht, was die aktuelle Relevanz des Republikbegriffs unterstreicht.

Daneben kann man sich einige Recherchearbeit erleichtern, indem man ChatGPT längere Texte zusammenfassen lässt. Bei längeren Texten kann es allerdings notwendig sein, den Text in kleinere Abschnitte zu unterteilen und eine Zusammenfassung für die einzelnen Abschnitte anzufordern. Grund ist die Limitierung der Textlänge, die verarbeitet werden kann, sodass sich ChatGPT kaum für grosse Textmengen eignet. Entsprechend eignet sich der Chatbot z. B. nicht dazu, den Sinngehalt eines ausführlichen akademischen Textes oder gar Buches zu erfassen.

Da eine wesentliche Stärke von ChatGPT in der Verarbeitung von Programmcode liegt, kann das Modell auch die Erstellung und Überprüfung von Code für verschiedene Statistikprogramme unterstützen, z. B. für SPSS, Stata oder R.

User:
Ein Datensatz enthält die Variablen „Körpergrösse“ und „Gewicht“. Schreibe den Code für eine lineare Regression in R, die „Gewicht“ als abhängige Variable und „Körpergrösse“ als unabhängige Variable verwendet. Anschliessend soll das Regressionsmodell mittels Streudiagramm inkl. Regressionsgerade dargestellt werden.
ChatGPT:
Um eine lineare Regression in R durchzuführen und das Ergebnis in einem Streudiagramm darzustellen, können Sie den folgenden Code verwenden:
# Laden des benötigten Pakets
install.packages(„ggplot2“)
library(ggplot2)# Erstellen eines Beispiel-Datensatzes
daten <- data.frame(Körpergrösse = c(160, 170, 180, 190, 200),
Gewicht = c(60, 65, 80, 85, 100))
# Lineare Regression
modell <- lm(Gewicht ~ Körpergrösse, data = daten)
# Ergebnisse anzeigen
summary(modell)
# Streudiagramm mit Regressionsgerade
p <- ggplot(daten, aes(x = Körpergrösse, y = Gewicht)) +
geom_point() +
geom_smooth(method = „lm“, se = FALSE, color = „blue“) +
labs(title = „Streudiagramm: Gewicht vs. Körpergrösse“,
x = „Körpergrösse (cm)“,
y = „Gewicht (kg)“)
print(p)

Risiko KI: Plagiate und inkorrektes Faktenwissen

Im medialen Diskurs wird häufig suggeriert, man könne sich mithilfe einzelner Befehle eine gesamte Seminar– oder Bachelorarbeit schreiben lassen. Man stellt allerdings fest, dass ChatGPT dabei an seine Grenzen kommt. Soll ChatGPT z. B. einen wissenschaftlichen Text mit Quellen hinterlegen, funktioniert das zwar scheinbar, die Quellen sind jedoch regelmässig erfunden oder stehen in keinem inhaltlichen Zusammenhang mit den vorstehenden Aussagen, wie auch unser Versuch zeigt:

User:
Ich möchte wissenschaftlich untersuchen, wie die Social-Media-Auftritte von Politikern mit ihrer Beliebtheit in der Bevölkerung zusammenhängen. Formuliere dafür zwei Hypothesen, die mit wissenschaftlichen Quellen einschließlich Seitenzahlen belegt werden.
ChatGPT:

  • Hypothese 1: Politiker, die aktiver auf Social-Media-Plattformen sind, haben eine höhere Beliebtheit in der Bevölkerung. Begründung: Studien haben gezeigt, dass ein aktiver Social-Media-Auftritt von Politikern dazu beitragen kann, ihr Image und ihre Präsenz in der Öffentlichkeit zu stärken (Enli & Skogerbø, 2013, S. 213). Durch regelmäßige Updates und Interaktionen mit ihren Followern können Politiker ihre politischen Botschaften effektiver verbreiten und ein größeres Publikum erreichen.

Referenz: Enli, G. S., & Skogerbø, E. (2013). Personalized campaigns in party-centred politics: Twitter and Facebook as arenas for political communication. Information, Communication & Society, 16(5), 757-774.

 

  • Hypothese 2: Politiker, die auf Social Media eine positive und emotionale Kommunikationsstrategie verfolgen, haben eine höhere Beliebtheit in der Bevölkerung. Begründung: Untersuchungen haben gezeigt, dass politische Kommunikation, die positive Emotionen hervorruft und auf die persönlichen Aspekte von Politikern eingeht, eher dazu führt, dass Bürger sich mit diesen Politikern identifizieren und sie unterstützen (Nulty et al., 2016, S. 1223). Emotionale und persönliche Botschaften auf Social-Media-Plattformen können dazu beitragen, eine stärkere Bindung zwischen Politikern und ihrem Publikum herzustellen.

Referenz: Nulty, P., Theocharis, Y., Popa, S. A., Parnet, O., & Benoit, K. (2016). Social media and political communication in the 2014 elections to the European Parliament. Electoral Studies, 44, 429-444.

Dabei fallen gleich mehrere Ungereimtheiten auf. Bereits bei oberflächlicher Betrachtung wird deutlich, dass die Seitenzahlen in den belegten Textstellen nicht mit denen der unten aufgelisteten Quellen übereinstimmen. In der Folge verwundert es auch nicht, dass die belegten Textstellen in keinem Zusammenhang mit Aussagen stehen, die auf den genannten Seiten zu finden sind. ChatGPT produziert aber nicht nur formale, sondern auch inhaltliche Fehler. In der Untersuchung von Nulty et al. (2016) geht es z. B. nicht um den Zusammenhang von Kommunikationsstrategie und Wahrnehmung der Wählenden, sondern um die Beziehung zwischen von Kommunikationsstrategie und politischer Positionierung.

OpenAI versieht den Chatbot mit dem Hinweis

„ChatGPT may produce inaccurate information about people, places, or facts“.

So gut das Programm auch für bestimmte Zwecke geeignet ist, so wenig sollte man sich blind auf vermeintliche Fakten verlassen, die das Modell produziert. Ein Grund hierfür ist zunächst, dass das Modell nicht immer Zugriff auf die neuesten Informationen hat. Zudem katalogisiert das Programm korrekte und inkorrekte Fakten, die in der Produktion der Aufgabe falsch priorisiert werden können. Letztlich extrapoliert ChatGPT aus verfügbaren Informationen eine Prognose, um eine Antwort generieren zu können. Diese Vorhersage, die dem Modell wahrscheinlich erscheint, muss dabei keineswegs eine faktisch korrekte Antwort sein.

Es empfiehlt sich daher, das Generierte mithilfe unabhängiger Quellen genauestens zu überprüfen, was mit ChatGPT selbst nicht möglich ist. Zwar kann man damit rechnen, dass OpenAI und der KI-Markt in den nächsten Jahren rasante Fortschritte bei der Weiterentwicklung der Modelle machen werden, es bleibt allerdings vorläufig unklar, ob und in welcher Geschwindigkeit diese systematischen Schwächen ausgebessert werden können.

Begrenzte Ergebnisse durch falsche Nutzung von KI im Studium

Limitationen ergeben sich auch aus den nutzenden Personen selbst. Da ChatGPT keine vollständigen akademischen Texte ausgeben kann, muss die nutzende Person das wissenschaftliche Handwerk beherrschen. Nur dann ist es möglich, sich in strukturierten Schritten vom Programm helfen zu lassen. Das gilt sowohl für Literaturarbeiten, die eine aufmerksame, menschliche Validierung benötigen, als auch für den Kern empirischer Untersuchungen, wenn man sich z. B. bei der Datenanalyse unterstützen lässt. Nur die Person, die Fehler des Chatbots erkennt und den Output nachvollziehen kann, ist später in der Lage, die Ergebnisse seiner Arbeit zu rechtfertigen und alle Anhänge hinzuzufügen, die das Vorgehen replizierbar machen. Wer also ohnehin Probleme mit dem wissenschaftlichen Arbeiten hat, wird durch KI-Assistenz keine bessere Arbeit einreichen [1].

Auch die Wahl der Sprache für die Eingabe in ChatGPT spielt eine Rolle für die Qualität der Ausgabe. So basiert das Training des Modells auf einer grossen Menge von Texten, wobei englischsprachige Quellen in den Trainingsdaten am häufigsten vertreten sind. Obwohl ChatGPT also in einer Reihe anderer Sprachen antworten kann, ist die Genauigkeit und das Verständnis für englischsprachige Anfragen am höchsten. Um das volle Potenzial von ChatGPT ausschöpfen zu können, sollten die Prompts also auf Englisch formuliert werden.

Auch die monatlichen Kosten, die für die Nutzung des Sprachmodells aufgerufen werden, können für Studierende eine finanzielle Belastung darstellen. Zwar lässt sich eine abgespeckte Version des Sprachmodells GPT-4o im Rahmen des Free-Plans kostenlos nutzen, der Zugriff auf wesentliche Funktionen ist dabei aber beschränkt. Für 20 USD im Monat erhält man mit dem Plus-Plan weitere Funktionen, der Zugriff auf die neuesten Sprachmodelle und die Anzahl der Eingaben sind aber weiterhin eingeschränkt. Den vollen Funktionsumfang auf Basis der neuesten Sprachmodelle erhält man mit dem Pro-Plan für 200 USD im Monat, was den Geldbeutel der meisten Studierenden deutlich übersteigen dürfte. Das Potenzial durch das Verlagern umfangreicher akademischer Teilaufgaben an ChatGPT stösst also auch in dieser Hinsicht schnell an seine Grenzen.

Fazit und Ausblick: KI im Studium nutzen

Im Hinblick auf eine Identifizierbarkeit von KI-generierten Texten im akademischen Kontext ist zunächst zu bedenken, dass ChatGPT sowohl Prompts als auch generierte Ergebnisse speichert, unter anderem, um die Sprachmodelle mithilfe der Nutzereingaben zu trainieren. Viele Unternehmen arbeiten aktuell an Programmen, die in der Lage sein sollen, KI-generierte Texte verlässlich zu erkennen, wenngleich bisherige Software-Lösungen noch nicht verlässlich sind. Das merkt man z. B. daran, dass Texte, die noch vor Erfindung der Sprachmodelle erstellt wurden, als grösstenteils KI-generiert identifiziert werden.

Hinzukommt, dass KI-generierte Texte in der Regel einem bestimmten Charakter aufweisen. Das liegt u. a. daran, dass ChatGPT berechnet, mit welcher Wahrscheinlichkeit ein Wort auf das vorangegangene folgt. Auch dadurch ist es nicht unwahrscheinlich, dass ein KI-generierter Text erkannt wird. Daraus folgt auch, dass den generierten Texten ein persönlicher, menschlicher Schreibstil fehlt, der Pointierungen, den Bezug zu realen Lebenswelten oder aktuellen Ereignissen herstellt.

Aktuell sehen sich auch Universitäten gezwungen, sich angesichts dieser Entwicklungen zu positionieren. Ein transparenter Einsatz der Technologie als Hilfsmittel ist häufig erlaubt, solange der Kern einer Arbeit als eigenständig erstellt erkennbar ist [2]. An einigen Hochschulen entscheidet die jeweilige Lehrperson über die Regeln der KI-Nutzung [3]. Aus wissenschaftlicher Sicht bleibt jedoch vor allem die häufig unbekannte Quellenlage der Chat-GPT-Ausgabe problematisch. Da jede Antwort des Chatbots auf vorhandenen Quellen basiert, die nicht erkennbar sind, entspricht eine Übernahme von Textelementen prinzipiell nicht den Standards des wissenschaftlichen Arbeitens.

Das Aufkommen von ChatGPT erinnert also an die Anfangstage des Internets, als Wikipedia und Co. die akademische Welt aufwühlten und eine Welle von Plagiaten nach sich zogen.  Nicht nur aus diesem Grund, sondern auch im Sinne der Unverwechselbarkeit und Originalität akademischer Texte verzichtet ACAD WRITE auf die Verwendung von generativen KI-Modellen für die akademische Texterstellung.

Hinweis: Die Ausführungen beziehen sich auf die Modellversion GPT-4o, eines der aktuell leistungsfähigsten Sprachmodelle. Sprachmodelle anderer Unternehmen bewegen sich aber auf einem ähnlichen Leistungsniveau und der Markt entwickelt sich aktuell dynamisch weiter [4].

[1] https://www.welt.de/wirtschaft/article252747580/Studium-Nur-noch-ChatGPT-bei-Hausarbeiten-Die-ueberraschende-Antwort-der-Studenten.html

[2] https://www.ksta.de/koeln/uni-koeln-so-gehen-die-hochschulen-mit-ki-in-studium-und-lehre-um-733329

[3] https://uni-tuebingen.de/forschung/service/gute-wissenschaftliche-praxis/leitlinien-generative-ki/

[4] https://llm-stats.com/