Direkt zum Inhalt
Online-Medien: „Zur Nachricht verpflichtet?“
Warum verbindliche Nachrichtenquoten für soziale Medien und Suchmaschinen keine Zugkraft entfalten

Ende Juni 2017 publizierte der Deutschlandfunk einen Beitrag unter der Überschrift „Zur Nachricht verpflichtet“. Darin berichtet Christoph Sterz von politischen Bestrebungen, bestimmten Online-Angeboten, wie Facebook oder Google, eine Art Nachrichtenquote vorzuschreiben.

Hier geht es zu dem angesprochenen Beitrag.

So etwas gab es schon einmal – als nämlich die Landesmedienanstalten Ende der 1980er-Jahre die ersten Sendelizenzen an private Radiomacher verteilten. Um sicherzustellen, dass die Privatanbieter einen relevanten Beitrag zur Informationsvielfalt leisten und nicht nur Musikkonserven abspielen, empfahlen die Medienforscher die Fokussierung auf den Wortanteil der Sendungen: Ein hoher Wortanteil wurde als Indiz dafür gewertet, dass die Medien ihren Informationsauftrag erfüllen.

Der Schuss ging allerdings nach hinten los! Denn der Wortanteil ist zwar als quantitatives Kriterium leicht messbar, er sagt allerdings nichts über die (qualitative) Relevanz der Informationen aus. Der verbale Content kann auch reine Zungen-Gymnastik sein. Dementsprechend wurde die „Qualitätswährung“ ad absurdum geführt: Eingespielte Höreranrufe („Ich grüße meine Freundin Erna, die gerade neben mir sitzt ...“) wurden ebenso dem Wortanteil zugeschlagen, wie redaktionell verpackte Product-Placements. (Heute würde man das als Native Advertising bezeichnen.) Selbst die Werbeblöcke sollten nach dem Willen der kommerziellen Radiomacher darauf angerechnet werden.

Der verordnete Wortanteil hat weder zur Informationsvielfalt beigetragen, noch die Boulevardisierung der privaten Hörfunkprogramme verhindert. Mit jedem Hörer, den die etablierten Platzhirsche an die neuen Wettbewerber verloren, wuchs der Druck auf die öffentlich-rechtlichen Programmmacher. Denn auch diese finanzieren einen Gutteil ihres Budgets aus Werbeeinnahmen und hatten folglich ein Interesse daran, diese Werbeblöcke so profitabel wie möglich zu vermarkten. Im Ergebnis fingen sie an, die Konzepte der Privaten zu kopieren. Der Kampf um Hörer wurde immer weniger über die Qualität der Programme ausgetragen, sondern verstärkt über Gewinnspiele und Events. Letztendlich hat sich das Radio so ein Stück weit als Träger relevanter Informationen entbehrlich gemacht – lange bevor Online-Angebote als weitere Player auf den Plan traten!

Vor diesem Hintergrund wirkt es einigermaßen unbegründet, den Versuch der „Volkserziehung“ ein weiteres Mal in den sozialen Medien und bei Suchmaschinen zu wiederholen. Die skizzierte Problematik gilt prinzipiell auch für eine – wie auch immer zu messende – „Nachrichtenquote“. Um nur einige Fragen aufzuzeigen:

  • Welche Inhalte fallen unter diese Definition?
  • Wie werden sie gemessen?
  • Müssen dies manuell kuratierte Inhalte sein oder können sie auch über automatisierte Aggregationsprozesse zusammengetragen, gebündelt und verteilt werden? Und welche Folgen hat das für die etablierten Medienanbieter?

 

Gut gemeint ist nicht gut gemacht!

 

Hochwertige Inhalte zu erzeugen, kostet Zeit, Energie und Geld. Auch Online-Anbieter müssten also entsprechende Infrastrukturen aufbauen. Gleichzeitig würden sie so als Wettbewerber der gebeutelten klassischen Nachrichtenanbieter in den Ring steigen.

Wahrscheinlicher ist ein anderes Szenario: Die Online-Anbieter würden diesen Aufwand mittelbar oder unmittelbar durch automatisierte Verfahren im Sinne einer „Algorithmischen Entscheidungsfindung“ (kurz ADM für „algorithmic decision-making“) vermeiden: Online verfügbarer Content wird neu zusammengestellt dargeboten, um die Nachrichtenquote zu erfüllen.

Update: Dass diese Annahme nicht unrealistisch ist, zeigt Facebook gerade beim Umgang mit unerwünschten Inhalten: Zwar verkündete Facebook, dass man für die Prüfung von reklamierten Inhalten kurzfristig zahlreiche Menschen in Tieflohnländern einstellen möchte. Dennoch forciert das Unternehmen dabei mittelfristig auf ADM-Prozesse. Hier mehr dazu.

Die Befürchtung, dass soziale Medien verstärkt zu Quellen der Desinformation werden, würde durch automatisch generierte „Nachrichten“ und deren Filterung vermutlich nicht gebannt – im Gegenteil: Sie erhöhen allenfalls das „Grundrauschen“ im System und erschweren damit die Wahrnehmung kuratierter Nachrichten.

  • Wenn man berücksichtigt, dass vor allem negative und emotional aufgeladene Inhalte besonders schnell und intensiv geteilt werden, kann man sich ausmalen, was dies (als Feedback für die automatisierte Nachrichtenaggregation) bedeutet: Gerade „Fake News“ nach diesem Strickmuster werden bevorzugt. Gerätetaucher kennen ein ähnliches Phänomen bei der Atemluft-Versorgung: Mit zunehmender Tauchtiefe erhöht sich der Partialdruck der einzelnen Gase in der Atemluft, und der ohnehin schon dominante aber nutzlose Stickstoff verdrängt immer stärker den lebenserhaltenden Sauerstoff.
  • Schon heute ist sichtbar, dass gerade Empörungswellen sehr schnell nachhaltigen Schaden anrichten. Selbst solide journalistische Arbeit oder die Öffentlichkeitsarbeit Betroffener kann solche Fehlentwicklungen kaum korrigieren oder in ihren Auswirkungen abmildern. Denn Journalismus, also Recherche, Cross-Check und inhaltliche Bewertung von Informationen – kostet Zeit.
  • Hinzu kommt, dass der deutsche Gesetzgeber den Suchmaschinen-Betreibern vor wenigen Jahren erschwert hat, mehr als nur ein paar Wortschnipsel honorarfrei aus dem redaktionellen Content indizierter Webseiten abzubilden. De facto verengte er deren Handlungsrahmen damit in die entgegengesetzte Richtung. Insofern sind Forderungen, die auf eine verbindliche Nachrichtenquote zielen, zumindest widersprüchlich und damit wohl auch ein dankbares Betätigungsfeld für Juristen.

 

Eine Nachrichtenquote für soziale Medien und Suchmaschinen wäre demnach mindestens wirkungslos, vielleicht sogar kontraproduktiv.

Ein anderer Vorschlag, der gerade propagiert wird, zielt auf eine zwangsweise Offenlegung der Algorithmen, nach denen diese digitalen Dienstleistungen funktionieren. Jedoch: Dieses Wissen können Interessierte vermutlich auch auf anderen Wegen erlangen, etwa über Reverse Engineering.

Überdies drängt sich ein wenig der Eindruck auf, dass die Angst vor der Übermacht der Algorithmen auch im Interesse der etablierten Intermediäre (etwa der klassischen Medien) geschürt wird. Zudem zeigt die aktuelle Diskussion um das „Hatespeech-Gesetz“, dass der Grat, auf dem der Gesetzgeber zwischen individuellen Schutzbedürfnis und Gewährleistung der Meinungsfreiheit wandelt, ziemlich schmal ist.

Vielleicht liegt die Lösung in einer europäischen Charta der digitalen Kommunikation? Einer Art „Verkehrsordnung“, welche die „Do's“ und „Don'ts“ auf ähnliche Weise regelt wie beispielsweise ein Pressekodex. Die aber flexibel genug ist, um auch aktuellen Entwicklungen gerecht zu werden. Denn auch für das Versagen „übergründlicher“ Regelungen gibt es ein trauriges Beispiel: das Bundesdatenschutzgesetz. Das hinkt der technischen Entwicklung seit drei Jahrzehnten hinterher. Und wirkt darum ungewollt als Freibrief für alle jene, die nach dem Motto verfahren: Was geht, das geht.