Wikipedia-Redakteure haben kürzlich Maßnahmen ergriffen, um die Nutzung künstlicher Intelligenz auf der Plattform einzuschränken, indem sie die Verwendung großer Sprachmodelle zum Schreiben oder Umschreiben von Artikeln verbieten. Die neue Richtlinie spiegelt die zunehmende Sorge innerhalb der Wikipedia-Gemeinschaft wider, dass KI-generierter Text mit den Standards der Plattform, insbesondere hinsichtlich Überprüfbarkeit und zuverlässiger Quellen, in Konflikt geraten kann. „Von großen Sprachmodellen erzeugter Text verstößt häufig gegen mehrere der grundlegenden Inhaltsrichtlinien von Wikipedia“, heißt es in der Aktualisierung. „Aus diesem Grund ist die Nutzung von LLMs zur Erstellung oder Umschreibung von Artikeln verboten, mit den unten genannten Ausnahmen.“
Die Richtlinie erlaubt weiterhin eine begrenzte Nutzung von KI-Tools, einschließlich Vorschlägen für einfache Korrekturen am eigenen Text, vorausgesetzt, das System führt keine neuen Informationen ein. Redakteure werden jedoch aufgefordert, diese Vorschläge sorgfältig zu prüfen. Obwohl die neue Richtlinie keine Strafen für die Nutzung KI-generierter Inhalte erwähnt, gilt laut Wikipedia-Richtlinien zur Offenlegung, dass wiederholter Missbrauch ein „Muster störender Bearbeitungen“ bildet und zu Sperren oder Ausschlüssen führen kann. Wikipedia bietet Redakteuren jedoch die Möglichkeit, ihre Konten nach einem Einspruchsverfahren wiederherzustellen. „Sperren können aufgehoben werden, wenn der blockierende Administrator zustimmt, oder durch eine Überstimmung anderer Administratoren, falls die Sperre eindeutig ungerechtfertigt war, oder (in sehr seltenen Fällen) nach Berufung beim Schiedsgericht“, erklärte Wikipedia.
Laut Emily M. Bender, Professorin für Linguistik an der University of Washington, sind einige Anwendungen von Sprachmodellen in Bearbeitungstools sinnvoll, aber eine klare Abgrenzung zwischen Bearbeiten und Textgenerieren ist schwierig. „Eines der Dinge, die man mit einem Sprachmodell machen kann, ist zum Beispiel einen sehr guten Rechtschreibprüfer zu bauen“, sagte Bender gegenüber Decrypt. „Ich halte es für vertretbar, eine Rechtschreibprüfung bei Bearbeitungen laufen zu lassen. Und wenn man die nächste Stufe macht, also einen Grammatikprüfer, ist das ebenfalls in Ordnung.“ Bender erklärt, das Problem entsteht, wenn Systeme über die Korrektur von Grammatik hinausgehen und beginnen, Inhalte zu verändern oder zu generieren, wobei große Sprachmodelle die Art von Verantwortlichkeit vermissen lassen, die menschliche Mitwirkende bei kollaborativen Wissensprojekten mitbringen. „Die Nutzung großer Sprachmodelle zur Erzeugung synthetischer Texte ist eine grundlegende Eigenschaft dieser Systeme: Es gibt keine Verantwortlichkeit, keinen Bezug zu dem, was jemand glaubt oder wofür er einsteht“, sagte sie. „Beim Sprechen basieren wir auf dem, was wir glauben und wofür wir verantwortlich sind, nicht auf einer objektiven Wahrheit. Und genau das fehlt bei großen Sprachmodellen.“ Bender warnte, dass die weitverbreitete Nutzung KI-generierter Bearbeitungen auch den Ruf der Plattform beeinträchtigen könnte. „Wenn Leute stattdessen Abkürzungen nehmen und etwas erstellen, das wie eine Wikipedia-Änderung oder ein Artikel aussieht, und es dort platzieren, dann mindert das den Gesamtwert und Ruf der Seite“, sagte sie. Joseph Reagle, Associate Professor für Kommunikationswissenschaften an der Northeastern University, der die Kultur und Governance von Wikipedia untersucht, sagte, die Reaktion der Gemeinschaft spiegele langjährige Bedenken hinsichtlich Genauigkeit und Quellen wider. „Wikipedia ist vorsichtig bei KI-generierter Prosa“, sagte Reagle gegenüber Decrypt. „Sie nehmen die genauen Darstellungen dessen, was zuverlässige Quellen zu einem Thema sagen, ernst. KI hat in diesem Bereich ernsthafte Einschränkungen, wie zum Beispiel ‘Halluzinationen’ und erfundene Quellen.“
Reagle erklärte, dass die Kernrichtlinien von Wikipedia auch beeinflussen, wie Redakteure KI-Tools sehen, wobei viele große Sprachmodelle auf Wikipedia-Inhalten trainiert wurden. Im Oktober gab die Wikimedia Foundation bekannt, dass die menschlichen Zugriffe auf Wikipedia im Jahresvergleich um etwa 8 % zurückgegangen sind, da Suchmaschinen und Chatbots zunehmend direkt auf ihren Plattformen Antworten liefern, anstatt Nutzer auf die Seite zu verweisen. Im Januar kündigte die Wikimedia Foundation Vereinbarungen mit KI-Unternehmen wie Microsoft, Google, Amazon und Meta an, die es ihnen erlauben, Wikipedia-Material über das Enterprise-Produkt zu nutzen, einen kommerziellen Dienst für die großflächige Wiederverwendung ihrer Inhalte. „Obwohl die Nutzung von Wikipedia-Inhalten durch die Lizenzen von Wikipedia erlaubt ist, gibt es bei den Wikipedianern dennoch eine gewisse Ablehnung gegenüber Diensten, die die Inhalte der Gemeinschaften aneignen und dann unerwünschte Forderungen stellen, um mit der daraus resultierenden Flut an KI-Unsinn umzugehen“, sagte Reagle. Trotz des Verbots der Nutzung von LLMs erlaubt Wikipedia die Verwendung von KI-Tools, um Artikel aus anderen Sprachversionen ins Englische zu übersetzen, vorausgesetzt, die Redakteure überprüfen den Originaltext. Die Richtlinie warnt außerdem davor, sich nur auf den Schreibstil zu verlassen, um KI-generierte Inhalte zu erkennen, und empfiehlt stattdessen, zu prüfen, ob das Material den Kernrichtlinien von Wikipedia entspricht und ob die Bearbeitungshistorie des Autors dies unterstützt. „Einige Redakteure könnten einen ähnlichen Schreibstil wie LLMs haben“, heißt es in der Aktualisierung. „Es bedarf mehr Beweise als nur stilistischer oder linguistischer Hinweise, um Sanktionen zu rechtfertigen. Es ist am besten, die Einhaltung der Kerninhalte und die jüngsten Bearbeitungen des betreffenden Autors zu berücksichtigen.“