EPFL-Algorithmus übersetzt fehlende Wikipedia-Artikel
Objektive Maschinen
Um den Maschinen zu helfen, beispielsweise die Bedeutung einer Seite auf Rätoromanisch zu erkennen, musste errechnet werden, wie viele Abrufe ein fehlender Artikel theoretisch generieren müsste. «Die Sängerin Taylor Swift oder die Pokémon sind sicherlich beliebt, aber sind sie wirklich wichtig? Um zu vermeiden, ethnozentrische Fehler zu begehen, haben wir aufgrund aller Sprachen die Statistiken der Seiten vorausberechnet, und anschliessend mit Machine Learning Algorithmen das Gewicht jeder Sprache bestimmt. Um zum Beispiel den Einfluss einer Seite auf Chinesisch zu bestimmen, ist Japanisch wichtiger als Englisch», so West.
Nach dieser von Algorithmen so neutral wie möglich vorgenommenen Einstufung werden die Listen fehlender Themen auf der Online-Plattform Wikimedia GapFinder angezeigt. Jedem freiwilligen Autor wird je nach den von ihm beherrschten Sprachen und seinen Interessen angeboten, ein Thema zu bearbeiten. Er kann dann dank der Übersetzungshilfe auf der Plattform die Arbeit abschliessen.
Denn zurzeit kann der künstlichen Intelligenz noch nicht die ganze Aufgabe überlassen werden. «Der Mensch muss noch eingreifen, um den Bearbeitungsstandards von Wikipedia gerecht zu werden, denn die automatische Übersetzung ist noch nicht effizient genug», betont West.
Die der Öffentlichkeit zur Verfügung stehende und in Zusammenarbeit mit Stanford University und der Wikimedia Foundation entwickelte Plattform kann 200 neue Artikel pro Woche generieren. Eine bescheidene Zahl im Vergleich zu den 7000 Texten, die täglich auf Wikipedia veröffentlicht werden, aber bei den Artikeln wird auf Klasse statt Masse gesetzt.
West arbeitet übrigens an einem zweiten Projekt, bei dem dank der Auswertung grosser Datenmengen (Datamining) die wichtigsten Absätze eines Artikels bestimmt werden, um den Prozess der Erweiterung der Enzyklopädie sprachübergreifend weiter zu verfeinern.