
Wenn Algorithmen über Meinungsfreiheit richten: Der DOSB setzt KI gegen unliebsame Kommentare ein

Was einst als Schutzschild gegen echte Bedrohungen gedacht war, entwickelt sich zunehmend zu einem Instrument der digitalen Meinungskontrolle. Der Deutsche Olympische Sportbund (DOSB) hat nach eigenen Angaben bereits 1.300 vermeintliche Hasskommentare durch eine Künstliche Intelligenz herausfiltern lassen – und einige davon direkt an die Staatsanwaltschaft weitergeleitet. Was auf den ersten Blick wie ein vernünftiger Schutz von Athleten klingt, wirft bei genauerem Hinsehen fundamentale Fragen auf.
Wo endet Kritik, wo beginnt der „Hass"?
DOSB-Vorstand Olaf Tabor erklärte gegenüber der dpa, dass es während der Winterspiele „wieder zahlreiche Zuschriften und Kommentare" gegeben habe, die „deutlich unter der Gürtellinie" seien. Doch die Beispiele, die Sportler selbst anführen, lassen aufhorchen. Skispringer Philipp Raimund schilderte dem Bayerischen Rundfunk das Spektrum der beanstandeten Kommentare – und dieses reicht von tatsächlichen Beleidigungen bis hin zu Aussagen wie „die Teamleistung ist absolut unterirdisch" oder „der deutsche Ski-Sport geht unter". Solche Äußerungen mögen hart klingen, doch sind sie nicht schlicht das, was man früher als sportliche Kritik bezeichnete?
Raimund selbst lieferte eine bemerkenswerte Einschätzung: „Ich glaube, dass jeder Idiot seit Social Media eine Stimme bekommt und dies auch kundtut." Ein Satz, der in seiner Pauschalität ironischerweise selbst an der Grenze dessen kratzt, was manch einer als herabwürdigend empfinden könnte. Doch offenbar gilt die Empfindlichkeit nur in eine Richtung.
KI als Richter über 30 Sprachen und 25 Kategorien
Technisch betrachtet analysiert das System in Echtzeit Kommentare in bis zu 30 Sprachen anhand von 25 verschiedenen Kategorien. Gefiltert werden sollen Inhalte, die als rassistisch, sexistisch oder bedrohlich eingestuft werden. Die Sportler können den Filter freiwillig auf ihren Social-Media-Profilen aktivieren. Zusätzlich arbeitet der DOSB eng mit der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) des Bundeskriminalamts zusammen. Rechtlich relevante Inhalte würden umgehend an die Ermittlungsbehörden weitergeleitet.
Bereits während der Olympischen Sommerspiele 2024 in Paris kam das System zum Einsatz. Damals wurden 61.000 Kommentare durchleuchtet, von denen 4.000 – also rund 6,5 Prozent – als Hassnachrichten eingestuft und automatisch ausgeblendet wurden. Man muss sich diese Zahl auf der Zunge zergehen lassen: Eine Maschine entschied über Zehntausende von Meinungsäußerungen, welche davon das Licht der Öffentlichkeit erblicken durften und welche nicht.
Vom Schutzschild zum Zensurwerkzeug?
Niemand wird ernsthaft bestreiten, dass echte Drohungen und schwerwiegende Beleidigungen strafrechtlich verfolgt werden sollten. Wenn Sportler tatsächlich Personenschützer benötigen – wie Tabor es andeutete, ohne Details zu nennen –, dann ist eine Grenze zweifellos überschritten. Doch die entscheidende Frage lautet: Wer definiert, was „Hass" ist? Eine Künstliche Intelligenz, die nach vorprogrammierten Kategorien urteilt? Ein Algorithmus, der nicht zwischen berechtigter Frustäußerung eines enttäuschten Sportfans und einer echten Bedrohung unterscheiden kann?
Die Skifahrerin Emma Aicher teilte einen Kommentar, in dem es hieß: „Mit der blamieren wir uns bei Olympia!" Ist das bereits ein Hasskommentar? Oder ist es nicht vielmehr Ausdruck jener leidenschaftlichen Anteilnahme, die den Sport seit jeher begleitet? Wer einmal in einem Fußballstadion gestanden hat, weiß, dass dort seit Jahrzehnten Dinge gerufen werden, die jeden KI-Filter zum Glühen bringen würden. Sport lebt von Emotionen – auch von negativen.
Ein Vorgeschmack auf die digitale Zukunft?
Was beim DOSB als Pilotprojekt zum Schutz von Athleten begann, könnte sich als Blaupause für eine weit umfassendere Überwachung der digitalen Meinungsäußerung erweisen. In einem Land, in dem die Grenzen zwischen Meinungsfreiheit und strafbarer Äußerung ohnehin zunehmend verschwimmen, sendet dieses Vorgehen ein bedenkliches Signal. Wenn eine KI darüber entscheidet, welche Kommentare „unter der Gürtellinie" liegen, und diese Einschätzungen dann direkt bei der Staatsanwaltschaft landen, bewegen wir uns auf einem schmalen Grat.
Die Biathlon-Sportlerin Vanessa Voigt zog ihre eigenen Konsequenzen und kündigte an, während der Wettkämpfe keine sozialen Medien mehr zu nutzen. „Während viele wieder kritisch über meine Laufzeit und Schießzeiten sprechen, stehe ich hier – und bin verdammt stolz", schrieb sie auf Instagram. Eine nachvollziehbare Reaktion. Doch wäre es nicht der einfachere und vor allem freiheitlichere Weg, wenn Sportler, die sich von Kommentaren belastet fühlen, schlicht den Ausknopf drücken – statt einen ganzen Überwachungsapparat in Gang zu setzen?
Deutschland hat in den vergangenen Jahren einen besorgniserregenden Hang entwickelt, Meinungsäußerungen zu kriminalisieren, die noch vor wenigen Jahren als völlig normal gegolten hätten. Das Netzwerkdurchsetzungsgesetz, der Digital Services Act, und nun KI-gestützte Filterung im Sport – die Tendenz ist eindeutig. Man fragt sich unwillkürlich: Wenn schon „die Teamleistung ist absolut unterirdisch" als potenzieller Hasskommentar gilt, was darf der Bürger dann überhaupt noch sagen, ohne Gefahr zu laufen, von einem Algorithmus gemeldet zu werden?
Die Freiheit der Meinung stirbt nicht mit einem lauten Knall. Sie stirbt leise – Kommentar für Kommentar, Filter für Filter, Algorithmus für Algorithmus.
Es bleibt zu hoffen, dass die Verantwortlichen beim DOSB und in den Ermittlungsbehörden den Unterschied zwischen einer echten Bedrohung und einer unflätigen, aber letztlich harmlosen Frustäußerung nicht aus den Augen verlieren. Denn eine Gesellschaft, in der Maschinen darüber richten, was gesagt werden darf, hat ein weit größeres Problem als unhöfliche Kommentare unter Sportlerpostings.

- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik











