Die soziale Plattform X von Elon Musk ist dabei, künstliche Intelligenz in ihre charakteristische Funktion zur Faktenprüfung, Community Notes, zu integrieren. Das Unternehmen gab am Dienstag bekannt, dass es ein Pilotprogramm testet, das es KI-Chatbots ermöglicht, erste Entwürfe von Notizen zu schreiben, die Kontext für potenziell irreführende Beiträge liefern. Dieses neue System wird über eine „AI Note Writer API“ funktionieren, die es Entwicklern ermöglicht, verschiedene KI-Modelle, einschließlich Xs eigenem Grok, mit der Plattform zu verbinden.
Einführung der AI Note Writer API 🤖 KI hilft Menschen. Die Menschen haben immer noch das Sagen.
Siehe auch:Mit X können KI-Bots jetzt erstmals Community-Notizen schreiben
Ab heute kann die Welt KI-Notizenschreiber erstellen, die die Möglichkeit erhalten, Community-Notizen vorzuschlagen. Ihre Notizen werden auf X angezeigt, wenn sie von Menschen aus unterschiedlichen Perspektiven als hilfreich empfunden werden – genau wie …pic.twitter.com/H4QNy6VTkw
– Community-Notizen (@CommunityNotes)1. Juli 2025
Diese von der KI generierten Notizen gelangen dann in die gleiche Moderationswarteschlange wie die von menschlichen Freiwilligen verfassten Notizen. Die endgültige Entscheidung darüber, ob eine Notiz hilfreich ist und veröffentlicht wird, liegt weiterhin in den Händen menschlicher Bewerter, ein zentraler Grundsatz des Programms. Die Initiative stellt einen bedeutenden Schritt in Richtung eines hybriden Mensch-KI-Modells für die Moderation von Inhalten dar, ein Konzept, das in a detailliert beschrieben wirdaktuelle ForschungsarbeitCo-Autor von X-Mitarbeitern und Wissenschaftlern von Institutionen wie dem MIT und der Stanford University.
Das Papier plädiert für ein Ökosystem, in dem KI die Bereitstellung von Kontext beschleunigt, während eine vielfältige Gemeinschaft menschlicher Bewerter als „ultimativer Bewerter und Schiedsrichter dessen, was hilfreich ist“ fungiert.
Ein breiterer Branchentrend
Der Schritt von X ist Teil eines größeren Trends in der gesamten Social-Media-Branche. Große Plattformen übernehmen zunehmend Crowdsourcing-Moderationssysteme ähnlich wie Community Noteserstmals 2021 als Birdwatch auf den Markt gebracht. Meta beispielsweise führt seit März in den USA eine eigene Version für Facebook, Instagram und Threads ein.
Zu dieser Verschiebung kam es, nachdem Meta im Januar bekannt gegeben hatte, dass es sein traditionelles Programm zur Überprüfung von Fakten durch Dritte in den USA beenden werde. Damals erklärte Joel Kaplan, Chef für globale Politik bei Meta, dass das vorherige System zu viele Fehler gemacht habe, und erklärte: „Wir glauben, dass ein bis zwei von zehn dieser Maßnahmen Fehler gewesen sein könnten.“ Das Ziel des Unternehmens sei es, Moderation und freie Meinungsäußerung besser in Einklang zu bringen, sagte er.
Während Metas neuer Ansatz in den USA getestet wird, geht das Unternehmen andernorts vorsichtiger vor. Nicola Mendelsohn, Leiterin des globalen Geschäfts bei Meta, stellte klar: „Im Rest der Welt ändert sich im Moment nichts; wir arbeiten immer noch weltweit mit Faktenprüfern zusammen“, hauptsächlich um strengere regionale Vorschriften wie den Digital Services Act der EU einzuhalten. Der Erfolg dieser Community-basierten Systeme hat auch zu ähnlichen Funktionen geführtTikTokUndYouTube.
Der Mensch-KI-„Tugendkreislauf“
Der Hauptvorteil der Integration von KI ist das Potenzial für enorme Skalierbarkeit und Geschwindigkeit. Das Forschungspapier vonBekämpfung des „langen Schwanzes“ von Nischen-Fehlinformationen. Das Ziel besteht darin, einen „positiven Kreislauf“ zu schaffen, in dem die KI Notizen generiert und menschliches Feedback diese nicht nur überprüft, sondern auch die zukünftige Leistung der KI verbessert.
Dieser Prozess, den Forscher Reinforcement Learning from Community Feedback (RLCF) nennen, nutzt die differenzierten Bewertungen einer vielfältigen menschlichen Gemeinschaft, um die KI über einfache Richtig-oder-Falsch-Signale hinaus zu trainieren und ihr den wirklich hilfreichen Kontext beizubringen.
Erhebliche Risiken und anhaltende Debatte
Der Einsatz von KI als Faktenprüfer birgt jedoch Risiken. Ein Hauptanliegen ist die gut dokumentierte Tendenz großer Sprachmodelle (LLMs), zu „halluzinieren“ und erfundene Informationen selbstbewusst als Tatsachen darzustellen. Dies könnte dazu führen, dass Notizen erstellt werden, die überzeugend und gut geschrieben, aber gefährlich ungenau sind. Das Forschungspapier erkennt diese und andere Herausforderungen an, beispielsweise das Risiko von „Hilfsbereitschafts-Hacking“, bei dem eine KI lernen könnte, Notizen zu schreiben, die die Vorurteile der Bewerter berücksichtigen, anstatt sich an Fakten zu halten.
Eine weitere Herausforderung besteht darin, dass die freiwilligen menschlichen Bewerter möglicherweise überfordert sind. Ein massiver Zustrom von KI-generierten Notizen könnte die Aufmerksamkeit der Bewerter schwächen und es schwieriger machen, sowohl schlechte Notizen als auch kritische Fehlinformationen zu erkennen. Diese Bedenken werden von ehemaligen Technologiemanagern geteilt, die die Entwicklung dieser Plattformen beobachtet haben. Ein ehemaliger Meta-Manager sprach mit NPR über die zunehmende Abhängigkeit des Unternehmens von KI bei der Risikobewertung:gewarnt„Negative externe Effekte von Produktänderungen lassen sich weniger verhindern, bevor sie weltweit Probleme verursachen.“
Der Moschusfaktor
Die Debatte über die Wirksamkeit von Community Notes dauert an und dreht sich oft um den Besitzer von X, Elon Musk. Er hat das System als revolutionäres Werkzeug für Genauigkeit verfochten,Sprichwortim November 2024: „Community Notes ist großartig. Jeder wird überprüft. Auch ich.“
Doch nur wenige Monate später, nachdem seine eigenen Beiträge zur ukrainischen Politik korrigiert worden waren, behauptete er, das System sei manipuliert worden.Angabe„Community Notes wird zunehmend von Regierungen und etablierten Medien manipuliert.“ Diese Inkonsistenz verdeutlicht die inhärente Spannung in einem System, das auf Objektivität ausgelegt ist, aber im Besitz einer einzelnen, freimütigen Person ist.
Kritiker weisen darauf hin, dass das System langsam und inkonsistent sein kann. Studien haben gezeigt, dass viele Beiträge mit Fehlinformationen nie eine Notiz erhalten, und wenn doch, wird die Notiz oft nur von einem Bruchteil der Personen gesehen, die den ursprünglichen Beitrag angesehen haben. Ziel der Einführung von KI ist es, die Geschwindigkeits- und Skalierungsprobleme zu lösen. Es bleibt jedoch abzuwarten, ob dies ohne Qualitätseinbußen möglich ist.
Trotz dieser Probleme treibt X sein KI-Experiment voran. Das Unternehmen plant, die KI-generierten Notizen mehrere Wochen lang mit einer kleinen Gruppe von Mitwirkenden zu testen. Basierend auf den Ergebnissen dieses Pilotprojekts wird X entscheiden, ob die Funktion breiter eingeführt wird. Der Erfolg dieses Hybridmodells könnte einen neuen Standard für die Moderation von Online-Inhalten setzen, aber sein Scheitern könnte genau die Fehlinformationen verstärken, die es bekämpfen soll.













