KI trifft Quellenarbeit und soll Wikipedia helfen
Behaupten kann jeder und jede auf Wikipedia ziemlich viel. Mehr als die IP-Adresse muss dafür nicht verraten werden. Aber erst eine verlässliche Quelle vom Originalzitat bis zur Buchseite macht daraus einen glaubhaften Artikel, der von der Community abgesegnet wird.
Genau hier setzt einen Studie an, die am 19. Oktober in "Nature" erschienen ist. Sie bezieht sich auf "SIDE", eine von der Firma Samaya AI entwickelte KI. Die Forschungsgruppe um Fabio Petroni konnte zeigen, dass ihre künstliche Intelligenz vergleichbare beziehungsweise identische Quellen zu den Angaben in Wikipedia-Artikeln finden kann.
Das gelingt laut der Studie zwar nicht unbedingt besser als durch menschliche Autoren, aber bedeutend schneller. Und ein bisschen ironisch ist es ebenfalls, schließlich sind Programme wie Chat GPT eher durch das Erfinden passender Quellen zu eigenen Behauptungen aufgefallen (hier im Archiv des Deutschlandfunks).
Nutzen nicht unterschätzen
Grundsätzlich wird eingeräumt, dass die Erfolgsquote mit abnehmender Popularität der Themen ebenfalls schwindet. Klingt logisch, weil die Fülle an Informationen zu Randthemen gleichfalls kleiner wird.
Wirklich besser als die Autoren selbst arbeitet die KI nicht. Das zeigt die Studie gleich selbst, in der eine Befragung belegt, dass Nutzer geeignete Quellen lieber selbst nachrecherchieren. Die Gruppe der Befragten setzte sich allerdings aus Menschen zusammen, die ohnehin in ihrer Freizeit genau solche Überprüfungen von Angaben und passenden Quellen vornehmen.
Ein erster sinnvoller Einsatz scheint trotzdem gefunden zu sein: Das System kann gut erkennen, wenn Quellen fehlen und, noch wichtiger, wenn die genannten Quellen nicht zur Behauptung passen.
Schon damit ließe sich bei Wikipedia sicherlich viel bewirken und die Community entlasten. Und Unterstützung beim Belegen irgendwelcher Behauptungen kann man immer gut gebrauchen.