Mittlerweile dürfte jede und jeder mit dem Begriff ChatGPT in Berührung gekommen sein. Angeblich ein Alleskönner! Doch was kann dieser Chatbot wirklich – und vor allem: Was kann er nicht?
Lena Enders, funky-Redakteurin
Unendliche Möglichkeiten, Texte zu erstellen, von Hausaufgaben bis hin zu wissenschaftlichen Hausarbeiten oder sogar Liebesbriefen: ChatGPT (Generative Pretrained Transformer) können nahezu jede Art von Text generieren. Dabei sind die Texte denen, die von Menschen stammen, sehr ähnlich und es ist gar nicht so einfach, sie als Texte einer künstlichen Intelligenz zu identifizieren.
KIs werden stetig weiterentwickelt und verbessert. Das wiederum kann gravierende Folgen für Berufe im Journalismus oder auch im Literaturbetrieb bedeuten. Vielmehr noch: Die Gefahr besteht, dass derart komplexe Chatbots missbraucht werden könnten, um automatisiert Fake News zu erstellen oder gezielt Desinformation zu streuen. Der bei Schülerinnen und Schülern sehr beliebte Chatbot ist eine sprachbasierte künstliche Intelligenz (KI). Doch wie arbeitet das Sprach-Tool und welche Probleme und Risiken weist ChatGPT auf?
Die Grammatik sitzt, die Informationen scheinen korrekt zu sein, das Geschriebene wirkt authentisch – sogar für Expertinnen und Experten wird es immer schwieriger, Texte von Chatbots zu entlarven. Wirklich vertrauen kann man den Antworten von ChatGPT in der Regel noch nicht. Nichtsdestotrotz klingen sie oft sehr überzeugend. Der Fortschritt in der künstlichen Intelligenz, der mit ChatGPT in der Gesellschaft bemerkbar wurde, ist ein Vorgeschmack auf das, was noch bevorsteht. Aus diesem Grund bedarf es einem besseren Verständnis für automatisch generierte Texte, um KI-Texte zu entlarven.
Reine Reproduktion
Eine künstliche Intelligenz erstellt Texte und Antworten auf Basis einer riesigen Datenbank aus eingespeisten Informationen. Das bedeutet, dass die KI-Texte eine reine Reproduktion aus einzelnen Textbausteinen, Wörtern und Versatzstücken sind. ChatGPT kann folglich die Texte nicht verstehen, die er produziert – so, wie es ein Mensch kann.
Stereotype und Rassismus
In der Vergangenheit hat sich herausgestellt, dass KIs Stereotype reproduzieren oder sogar rassistisch sein können. Chatbots werden auf Grundlage dessen trainiert, was Menschen gesagt oder geschrieben haben. Die Folge: Die KI-Modelle reproduzieren Diskriminierung, ohne das selbst reflektieren zu können.
Auffälligkeiten in der Struktur von KI-Texten
Automatisierte Schreibweise, wie z. B. viele Wort- und Phrasenwiederholungen.
Unnatürliche Satzstrukturen, die im alltäglichen Sprachgebrauch eher nicht vorkommen.
Falsche Verwendung von Artikeln oder Konjunktionen.
Die Länge eines Textes kann einen Hinweis geben: KI-generierte Texte sind oft besonders lang. Die Satzlängen hingegen sind auffallend kurz.
Seltsame Verwendung von Abkürzungen.
Auffälligkeiten im Inhalt von KI-Texten
Anzeichen für fehlende menschliche Perspektiven oder Emotionen im Text.
Fehlende Originalität oder Plagiat.
Sprichwörterund Metaphern können KIs selten im richtigen Kontext anwenden.
Die falsche Verwendung von Fachbegriffen.
Rechtschreib- und Grammatikfehler treten bei KI-generierten Texten gehäuft auf.
Insbesondere Texte, die auf Deutsch und nicht auf Englisch verfasst wurden, enthalten vermehrt grammatikalische Ungenauigkeiten – beispielsweise bei der Verwendung der „Ihr“- und „Sie“-Form.
Mittlerweile dürfte jede und jeder mit dem Begriff ChatGPT in Berührung gekommen sein. Angeblich ein Alleskönner! Doch was kann dieser Chatbot wirklich – und vor allem: Was kann er nicht?
Unendliche Möglichkeiten, Texte zu erstellen, von Hausaufgaben bis hin zu wissenschaftlichen Hausarbeiten oder sogar Liebesbriefen: ChatGPT (Generative Pretrained Transformer) können nahezu jede Art von Text generieren. Dabei sind die Texte denen, die von Menschen stammen, sehr ähnlich und es ist gar nicht so einfach, sie als Texte einer künstlichen Intelligenz zu identifizieren.
KIs werden stetig weiterentwickelt und verbessert. Das wiederum kann gravierende Folgen für Berufe im Journalismus oder auch im Literaturbetrieb bedeuten. Vielmehr noch: Die Gefahr besteht, dass derart komplexe Chatbots missbraucht werden könnten, um automatisiert Fake News zu erstellen oder gezielt Desinformation zu streuen. Der bei Schülerinnen und Schülern sehr beliebte Chatbot ist eine sprachbasierte künstliche Intelligenz (KI). Doch wie arbeitet das Sprach-Tool und welche Probleme und Risiken weist ChatGPT auf?
Die Grammatik sitzt, die Informationen scheinen korrekt zu sein, das Geschriebene wirkt authentisch – sogar für Expertinnen und Experten wird es immer schwieriger, Texte von Chatbots zu entlarven. Wirklich vertrauen kann man den Antworten von ChatGPT in der Regel noch nicht. Nichtsdestotrotz klingen sie oft sehr überzeugend. Der Fortschritt in der künstlichen Intelligenz, der mit ChatGPT in der Gesellschaft bemerkbar wurde, ist ein Vorgeschmack auf das, was noch bevorsteht. Aus diesem Grund bedarf es einem besseren Verständnis für automatisch generierte Texte, um KI-Texte zu entlarven.
Reine Reproduktion
Eine künstliche Intelligenz erstellt Texte und Antworten auf Basis einer riesigen Datenbank aus eingespeisten Informationen. Das bedeutet, dass die KI-Texte eine reine Reproduktion aus einzelnen Textbausteinen, Wörtern und Versatzstücken sind. ChatGPT kann folglich die Texte nicht verstehen, die er produziert – so, wie es ein Mensch kann.
Stereotype und Rassismus
In der Vergangenheit hat sich herausgestellt, dass KIs Stereotype reproduzieren oder sogar rassistisch sein können. Chatbots werden auf Grundlage dessen trainiert, was Menschen gesagt oder geschrieben haben. Die Folge: Die KI-Modelle reproduzieren Diskriminierung, ohne das selbst reflektieren zu können.
Auffälligkeiten in der Struktur von KI-Texten
Auffälligkeiten im Inhalt von KI-Texten
Du willst mehr? Du bekommst mehr!
Bots sind virtuelle Roboter, die eigenständig agieren können. Social Bots arbeiten auf Social-Media-Plattformen wie Instagram,…
Deepfakes sind realistisch wirkende Medieninhalte, die durch Techniken der künstlichen Intelligenz abgeändert und verfälscht werden.…