Entmachtung traditioneller Medien


Regulatorische Eingriffe im Kampf gegen Fake News, Social Bots, Hacks und Hate Speech
"Wahrheit ist nicht widerspruchsfrei" - Vieles, was wahr erscheine, stelle sich später als Lüge heraus und umgekehrt




Experten stehen regulatorischen Eingriffen im Kampf gegen Fake News, Social Bots, Hacks und Hate Speech eher skeptisch gegenüber. Das wurde bei einem öffentlichen Fachgespräch des Ausschusses Digitale Agenda am Mittwoch deutlich. Zugleich wiesen sie darauf hin, dass es sich um relativ neue Probleme handle, die von Seiten der Wissenschaft noch nicht ausreichend untersucht worden seien.

Die Themen seien empirisch sehr schwer zu erfassen, sagte Professor Simon Hegelich von der Hochschule für Politik München. Der Experte sprach sich dafür aus, die Bedrohungsszenarien sogenannter Social-Bots-Programme, bei denen der Eindruck erweckt wird, Menschen würden massenhaft Kommentare in sozialen Netzwerken abgeben, und Fake News, die lange Zeit über alle möglichen sozialen Netzwerke hinweg ausgebaut und zu glaubwürdigen Geschichten würden getrennt voneinander zu betrachten. Es sei gefährlich, Inhalte politisch regeln zu wollen, statt sich für Strukturen einzusetzen, die eine offene und pluralistische Diskussionskultur fördern. "Wahrheit ist nicht widerspruchsfrei", sagte Hegelich. Vieles, was wahr erscheine, stelle sich später als Lüge heraus und umgekehrt.

Die aktuellen Entwicklungen würden durchaus Anlass zur Sorge geben, sagte Daniel Fiene, Leiter redaktionelle Digitalstrategie der Rheinischen Post in Düsseldorf und Moderator des wöchentlichen Medienmagazins "Was mit Medien" auf Deutschlandradio Wissen. Aus seiner Sicht ist der Begriff Fake News unbrauchbar. So sei beispielsweise nicht alles was auf der populistischen Seite Breitbart News stehe falsch. Gleichwohl zielten die Beiträge darauf ab, Zweifel zu säen. "Was nicht den eigenen Maßstäben entspricht, wird dort als Fake News benannt", sagte Fiene. So lenke der Begriff von der eigentlichen Problematik ab, die darin bestehe, dass durch gezielte Falschinformationen versucht werde, Strukturen zu destabilisieren.

Auf die derzeitige teilweise Entmachtung traditioneller Medien machte Professor Christian Stöcker von der Hochschule für angewandte Wissenschaften Hamburg aufmerksam. Durch die gesunkenen Transaktionskosten würden sich "alternative Medien, die nach anderen oder gar keinen Standards arbeiten und die zum Teil sehr eindeutig propagandistische Absichten verfolgen, relativ leicht aufbauen lassen". Trolle und Bots, so Stöcker weiter, würden aber nur deshalb funktionieren, weil in Teilen der Bevölkerung das Vertrauen in traditionelle Medien und Institutionen gesunken sei. Das beträfe nicht nur den rechten Rand, fügte der ehemalige Spiegel-Online Redakteur hinzu. Auf die Problematik der Bots und Fake News müsse die Gesellschaft reagieren. Nicht aber primär und ausschließlich mit regulatorischen Maßnahmen, betonte Stöcker.

Nach Ansicht von Markus Reuter, Redakteur bei der Plattform Netzpolitik.org, gibt es über die Wirkungen und Effekte von Fake News und Social Bots auf die politische Meinungs- und Willensbildung bislang weder in den USA noch in Deutschland ausreichende und ergiebige Studien, weswegen eine Regulierung zum jetzigen Zeitpunkt ohne eine empirische Grundlage stattfinden würde. Außerdem hätten manche der vorgeschlagenen Maßnahmen "weitreichende und schädigende Auswirkungen auf die Grundrechte der Presse- und Meinungsfreiheit". Andere Vorschläge privatisierten hingegen laut Reuter die Rechtsdurchsetzung, in dem sie eigentlich Gerichten vorbehaltene Entscheidungen an große Plattformen auslagern und diese zu Ankläger, Richter und Henker gleichermaßen machten.

Statt auf die technischen Möglichkeiten im Kampf gegen Bots zu blicken müssten die Nutzer inhaltlich und medial stärker hinterfragen, was sie sehen, posten und liken, forderte Christina Dinar von der Amadeu Antonio Stiftung. Medienbildung sei hier das Stichwort. Es gelte zu erkennen, was einen Fakt von einem Gerücht unterscheidet und welche Interessen die jeweiligen Quellen verfolgen. Unwahre Nachrichten, Gerüchte und Meldungen würden dazu beitragen, dass sich das Kommunikationsklima in den sozialen Netzwerken wandle. Als Antwort auf Hate Speech empfahl Dinar eine digitale demokratische Debattenkultur, "die auch überzeugende Gegenrede praktiziert und einen kommunikativen Klimawandel fördert". (Deutscher Bundestag: ra)

eingetragen: 01.02.17
Home & Newsletterlauf: 03.03.17


Meldungen: Bundestag, Bundesregierung, Bundesrat

  • Stand zum Emissionshandel für Gebäude und Verkehr

    Die Bundesregierung wird ein neues Klimaschutzprogramm vorlegen, das im Zeitraum bis zum Jahr 2030 auch Maßnahmen zur Treibhausgasminderungsquote im Bereich der durch die EU-Lastenverteilungsverordnung (ESR) erfassten Sektoren Gebäude und Verkehr enthalten wird. Die Maßnahmen für das Programm werden derzeit entwickelt. Das geht aus der Antwort (21/1072) der Bundesregierung auf eine Kleine Anfrage (21/762) der Fraktion Bündnis 90/Die Grünen hervor.

  • Fluggastrechteverordnung für reformbedürftig

    Die Bundesregierung lehnt die Erhöhung von Zeitschwellen für Entschädigungen in der Fluggastrechteverordnung der EU ab. Sie stellt sich damit gegen einen entsprechenden Beschluss des Rates der EU-Verkehrsminister, wie aus einer Antwort (21/962) auf eine Kleine Anfrage der Fraktion Bündnis 90/Die Grünen (21/749) hervorgeht. Eine solche "Abschwächung des Verbraucherschutzniveaus" lehne die Bundesregierung ab. Sie trete für einen "ausgewogenen Ausgleich der Interessen der Fluggäste und der Luftfahrtunternehmen sowie der Reisewirtschaft" ein.

  • Digitalisierung des Gesundheitswesens

    Der Petitionsausschuss hält mehrheitlich an der Widerspruchslösung (Opt-out-Lösung) bei der elektronischen Patientenakte (ePA) fest. In der Sitzung verabschiedete der Ausschuss mit den Stimmen der Koalitionsfraktionen CDU/CSU und SPD die Beschlussempfehlung an den Bundestag, das Petitionsverfahren zu der Forderung, die elektronische Patientenakte nur mit ausdrücklichem Einverständnis der Betroffenen anzulegen (Opt-in-Lösung), abzuschließen, weil keine Anhaltspunkte für parlamentarische Aktivitäten zu erkennen seien.

  • Angaben zu Cum-Cum-Geschäften

    Derzeit befinden sich 253 Cum-Cum-Verdachtsfälle mit einem Volumen in Höhe von 7,3 Milliarden Euro bei den obersten Behörden der Länder und dem Bundeszentralamt für Steuern (BZSt) in Bearbeitung. Diese Angaben macht die Bundesregierung in ihrer Antwort (21/915) auf eine Kleine Anfrage (21/536) der Fraktion von Bündnis 90/Die Grünen zu den rechtswidrigen Steuergeschäften.

  • Konformitätsbewertung von Produkten

    In einer Kleinen Anfrage (21/946) möchte die AfD-Fraktion von der Bundesregierung wissen, wie die EU-Maschinenverordnung (EU/2023/1230) im Hinblick auf KI-basierte Sicherheitssysteme angewendet und begleitet werden soll. Die Verordnung, die ab dem 20. Januar 2027 gilt, stellt laut Vorbemerkung der Anfrage neue Anforderungen an Maschinen mit eingebetteter Künstlicher Intelligenz.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen