Notebookcheck Logo

Genial: ChatGPT erstellt falsche Studie zu falscher Behauptung

Was kommt zuerst: Falschinformation oder falsche Belege dafür? (Bildquelle: pixabay/Pexels)
Was kommt zuerst: Falschinformation oder falsche Belege dafür? (Bildquelle: pixabay/Pexels)
KI kann halluzinieren und falsche Behauptungen zur Untermauerung von Argumenten heranziehen. Eine neue Qualität sind scheinbar wissenschaftliche Studien, die auf den ersten Blick schlüssig das gewünschte Ergebnis belegen. Als könnte der Mensch das nicht schon selbst ganz gut.

Mithilfe von Studien, sofern sie gut vorbereitet, gewissenhaft durchgeführt und ausgewertet sind, können vor allem in der Medizin die Auswirkungen von Operationstechniken oder auch von verwendeten Medikamenten untersucht werden.

Einem Paper im JAMA Ophthalmology zufolge lässt sich dieser umständliche Weg abkürzen. Dank GPT-4, der aktuell von ChatGPT genutzten Version, und einer weiteren Software zur statistischen Datenanalyse waren nur wenige Klicks nötig, um einen Datensatz zu erstellen.

Und nicht irgendeinen Datensatz. Die zu erzeugenden Informationen sollten die Vorzüge einer bestimmten Behandlungstechnik gegenüber einer alternativen Methode belegen und genau das taten sie schlussendlich. Die tatsächlich existierenden Daten zu besagtem Vorgehen erbringen im Übrigen keinen Vorteil für eine bestimmte Seite.

Es wäre somit ohne größeren Aufwand möglich, sich das gewünschte Ergebnis per Mausklick liefern zu lassen, anstatt Monate oder Jahre nachzuforschen und schließlich ein "falsches" Resultat zu erhalten. Das klingt nach einem sehr überzeugenden Betrug, in welchem KI zu Desinformationen auch noch schlüssige Beweise liefert.

Immerhin haben die Forschenden auch Positives zu berichten, wenn man es mit der Wahrheit hält: Einen genauen Untersuchung hielten die Daten nicht stand. So passten häufig die Vornamen und das angegebene Geschlecht nicht zusammen. Außerdem hielten bestimmte Angaben einer statistischen Analyse nicht stand. Beispielsweise endeten viel zu viele Altersangabe auf "7" oder "8". Die eigentlichen Untersuchungsergebnisse sollen aber stimmig gewesen sein.

Nicht neu, nur schneller

Mittel und Wege scheint es also zu geben, um derartigen Methoden auf die Schliche zu kommen. Und klar ist natürlich auch, dass schon immer Studie falsch aufgebaut, ausgewertet und geschönt wurde, um ein gewünschtes Ergebnis zu erhalten.

Künstliche Intelligenz hat das nur ein wenig beschleunigt. Sie ist aber schlussendlich nur ein Werkzeug, mit dem sehr, sehr komplexe Aufgaben angegangen werden können.

Ein Beispiel: Riesige Datensätze aller möglichen Studien nach Unschlüssigkeiten und statistischen Anomalien untersuchen.

Alle 5 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2023-11 > Genial: ChatGPT erstellt falsche Studie zu falscher Behauptung
Autor: Mario Petzold, 23.11.2023 (Update: 23.11.2023)