Maas´ Zensurgesetz kommt diese Woche – in den Medien sucht man nach diesem Sturmangriff auf die Meinungsfreiheit vergeblich.

Still und heimlich soll heute das von Bundesjustizminister Maas initiierte „Netzwerkdurchsetzungsgesetz“ zur Abschaffung der Meinungsfreiheit in den Fraktionssitzungen durchgewunken werden. Bereits am Freitag, den 19. Mai 2017 soll dann unter Punkt 38 der Tagesordnung die erste Lesung im Bundestag dazu stattfinden.

Die Öffentlichkeit soll keinen Ansatz für einen Aufschrei haben. Auch in den „Qualitätsmedien“ sucht man nach diesem Sturmangriff auf die Meinungsfreiheit vergeblich. Still und leise schlittern wir in ein System à la DDR 2.0.

maas1

Rechtsdurchsetzung in sozialen Netzwerken

a) Erste Beratung des von den Fraktionen der CDU/CSU und SPD
eingebrachten Entwurfs eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG)
Drucksache 18/…

b) Beratung des Antrags der Fraktion BÜNDNIS 90/DIE GRÜNEN
Transparenz und Recht im Netz – Maßnahmen gegen Hasskommentare, „Fake News“ und Missbrauch von „Social Bots“
Drucksache 18/11856

maas

Deutscher Bundestag Drucksache 18/11856 18. Wahlperiode 04.04.2017

Antrag der Abgeordneten Dr. Konstantin von Notz, Renate Künast, Tabea Rößner, Dieter Janecek, Luise Amtsberg, Katja Keul, Monika Lazar, Irene Mihalic, Özcan Mutlu, Ulle Schauws, Hans-Christian Ströbele und der Fraktion BÜNDNIS 90/DIE GRÜNEN.

Transparenz und Recht im Netz – Maßnahmen gegen Hasskommentare, „Fake News“ und Missbrauch von „Social Bots“ Der Bundestag wolle beschließen: I. Der Deutsche Bundestag stellt fest: Hass und Hetze, Beleidigung und Bedrohung, das Schüren von Vorurteilen und Feindbildern scheinen seit geraumer Zeit auch im Internet zuzunehmen. Die Grenzen des Zulässigen sind aber in der digitalen wie der analogen Welt im Grundsatz dieselben: Grund- und Menschenrechte gelten für alle sich im Internet bewegenden Menschen. Persönlichkeitsrechte, Kommunikationsfreiheiten und Rechte auf Privatheit sind gleichermaßen schützenswerte Grundrechte unserer freiheitlichen Ordnung. Die Rechte anderer dürfen nicht verletzt und gegen die verfassungsmäßige Ordnung darf nicht verstoßen werden. Die bestehenden Straftatbestände (zum Beispiel hinsichtlich Beleidigung, übler Nachrede, Verleumdung, Volksverhetzung, falscher Verdächtigung, Bedrohung, Aufforderung zu und Billigung von Straftaten) sind ausreichend. Das gilt grundsätzlich auch für die Rechtsschutzmöglichkeiten bei Verletzungen der Persönlichkeitsrechte (zum Beispiel Unterlassungs-, Beseitigungs- und Schadensersatzansprüche, Störer- und Verbreiterhaftung). Verletzungen von Persönlichkeitsrechten müssen stets mit der durch Artikel 5 Grundgesetz geschützten Meinungs- und Informationsfreiheit abgewogen werden. Dies darf nicht den Diensteanbietern überlassen werden, sondern ist im Streitfall Sache der Gerichte. Angesichts der Massenhaftigkeit und der schnellen Verbreitung im Netz liegen das Problem und die rechtspolitische Aufgabe aber darin, die tatsächlich wirksame Durchsetzbarkeit bestehender individueller Rechte und des staatlichen Strafanspruchs zu gewährleisten. Betroffene von Hassreden und die Integrität der Kommunikation im Netz müssen besser geschützt werden. Jede/jeder dritte Internetnutzer ist minderjährig. Gleichzeitig sind Kinder und Jugendliche besonders gefährdet, Opfer von Hate Speech, Cybermobbing oder Cybergrooming zu werden und dabei nachhaltig in ihrer Entwicklung gestört zu werden. Frauen und Mädchen sind überdurchschnittlich häufig von Hass und Gewalt im Netz, „digitaler Gewalt“, betroffen. Diese Form von Gewalt gegen Frauen, die erhebliche seelische und psychische Beschwerden und häufig auch den Rückzug aus der Netzöffentlichkeit zur Folge hat, muss stärker berücksichtigt werden. Die Bundesregierung ist hier jahrelang nicht ernsthaft tätig geworden. Berechtigte Schutzansprüche laufen unter der Großen Koalition bisher ins Leere. Ebenso fehlt es seit langem an Informationspflichten bei der Verwendung von Computerprogrammen, die menschliche Identität und Kommunikation vortäuschen („Social Bots“) und zu Zwecken der Manipulation oder Desinformation eingesetzt werden können. Eine effektive Verhinderung der intransparenten Beeinflussung demokratischer Willensbildungsprozesse und der missbräuchlichen Nutzung von Social Bots erfordert eine gesetzliche Verpflichtung zur Offenlegung einer automatisch ausgelösten Kommunikation und Verbreitung von Information. Hierdurch soll eindeutig zu erkennen sein, ob Mensch oder Maschine agiert. Die Wahrung von Verantwortung, Freiheit und Recht im Netz bedarf ständiger Achtsamkeit sowie aktiven Engagements für demokratischen Diskurs und Respekt. Dies setzt zunächst eine möglichst hohe Medienkompetenz möglichst aller voraus. In einer Zeit, in der alle möglichen Akteure problemlos publizieren und weiterverbreiten können, ohne dass sichergestellt ist, dass Publiziertes durchweg anerkannten journalistischen Sorgfaltspflichten entspricht, muss die Fähigkeit und die Bereitschaft gefördert werden, Inhalte kritisch zu hinterfragen und bewusst verfälschte und persönlichkeitsrechtsverletzende Nachrichten und Straftaten als solche zu erkennen. Daher bleibt im digitalen Zeitalter der Erwerb von Medien- und Datenschutzkompetenz – möglichst lebenslang – eine zentrale Herausforderung. Der Erwerb dieser Kompetenzen kann die notwendige Verbesserung der Rechtsdurchsetzung aber nicht ersetzen, sondern muss sie ergänzen. II. Der Deutsche Bundestag fordert die Bundesregierung auf, einen Gesetzentwurf vorzulegen, mit dem 1. das Melde-und Abhilfeverfahren („Notice and take down“) bei rechtswidrigen Informationen für Diensteanbieter von Telemedien ab einer festzulegenden Grö- ßenordnung verbindlich strukturiert wird, damit eine sorgfältige Prüfung unter Einbeziehung der Beteiligten erfolgt, bei der die Rechte beider Seiten gewahrt bleiben, 2. die Diensteanbieter von Telemedien ab einer festzulegenden Größenordnung verpflichtet werden, auf ihre Kosten a) zur Gewährleistung effektiver Strafverfolgung und Durchsetzung zivilrechtlicher Ansprüche aa) benutzerfreundliche und altersgerechte Möglichkeiten bereitzuhalten, um rechtswidrige Inhalte zu melden, bb) innerhalb von 24 Stunden den Meldenden sowie den für den Inhalt der als rechtswidrig gemeldeten Information Verantwortlichen über den Verfahrensstand zu informieren und offensichtlich rechtswidrige Inhalte spätestens innerhalb von 24 Stunden nach Meldungszugang zu löschen, cc) auf Anfrage innerhalb von 24 Stunden den Strafverfolgungsbehörden und Gerichten Auskunft über die Herkunft einer als rechtswidrig gemeldeten Information zu erteilen, dd) einen inländischen empfangs- und zustellungsbevollmächtigten Verantwortlichen bei den Diensteanbietern für Meldungen, Beschwerden und Löschungsforderungen bei rechtswidrigen Inhalten zu bestellen und leicht erkennbar, unmittelbar erreichbar und ständig verfügbar bekannt zu machen,
ee) Vorkehrungen zur Dokumentation rechtswidriger oder streitiger Inhalte und die fachgerechte Bearbeitung der Meldungen zu treffen, sowie im Falle eines erfolgreichen Widerspruchs des Inhalteanbieters gegen die Löschung eine zeitnahe/unverzügliche Wiederzugänglichmachung zu gewährleisten, b) zur Gewährleistung von Transparenz bei Social Bots aa) von ihnen bereitgestellte eigene Informationen, die in einem automatisierten elektronischen Kommunikationssystem erzeugt werden (sogenannte Social Bots), leicht erkennbar, unmittelbar erreichbar und ständig verfügbar als auf diese Weise erzeugt zu kennzeichnen, bb) ihre Nutzer zu verpflichten, von ihnen bereitgestellte Informationen, die durch ein automatisiertes elektronisches Kommunikationssystem erzeugt werden (sogenannte Social Bots), leicht erkennbar, unmittelbar erreichbar und ständig verfügbar als auf diese Weise erzeugt zu kennzeichnen, cc) benutzerfreundliche Meldewege bereitzuhalten, über die Nutzerinnen und Nutzer mutmaßlich missbräuchlich eingesetzte Social Bots melden können, dd) den Meldungen nachzugehen und den Meldenden sowie den für den Account Verantwortlichen über den Verfahrensstand zu informieren, c) regelmäßig öffentlich über die Anzahl von Meldungen rechtswidriger Inhalte, die Art der Erledigung der Meldungen, die für das Melde- und Abhilfeverfahren eingesetzten Ressourcen und die der Erledigung zugrundeliegenden Kriterien zu berichten (Transparenzbericht), 3. effektive Sanktionen für den Fall des Verstoßes gegen die vorstehend unter 2. benannten Verpflichtungen und gegen diesbezügliche Organisations- und Aufsichtspflichten der Diensteanbieter zu ermöglichen durch Bußgelder, die die wirtschaftliche Lage solcher Anbieter angemessen erfassen, festgelegt werden, 4. die Pflicht zu unabhängiger externer Evaluierung der Neuregelung vorgeschrieben wird. III. Der Deutsche Bundestag fordert die Bundesregierung darüber hinaus auf, 1. durch Ergänzung und Konkretisierung der Richtlinien für das Strafverfahren und das Bußgeldverfahren (RiStBV) Regelungen zu schaffen, durch die die Staatsanwaltschaft in Fällen des Verdachts strafbarer Online-Äußerung (bzw. Information) a) wegen Schnelligkeit und Reichweite der Verbreitung der ehrverletzenden Äußerungen das öffentliche Interesse annehmen kann und b) auch im Falle der Verweisung auf das Privatklageverfahren jedenfalls zuvor die Herkunft von pseudonymen und anonymen Äußerungen, gegebenenfalls auch unter Auskunftseinholung vom Diensteanbieter, ermittelt; 2. attraktive und altersgerechte Angebote zu schaffen, die die Fähigkeit und die Bereitschaft der Bürgerinnen und Bürger fördern (z. B. in schulischen und außerschulischen Institutionen), über Medien (Internet, Rundfunk, Print) verbreitete Inhalte kritisch zu hinterfragen, bewusst verfälschte Inhalte als solche zu erkennen, sie für persönlichkeitsrechtsverletzende Inhalte zu sensibilisieren (Medienkompetenz) und das zivilgesellschaftliche Engagement und die Kultur der Gegenrede zu unterstützen; 3. unabhängige und kostenfreie Informations- und Beratungsstellen zum Umgang mit Hate Speech, Fake News, Cybermobbing, Cyberstalking, Cybergrooming, Doxing (Medienkompetenz) zu fördern und dabei eine (Teil-)Finanzierung eines unabhängigen durch eine verpflichtende Abgabe von Diensteanbietern von Telemedien ab einer festzulegenden Größenordnung zu prüfen. Dabei muss sichergestellt sein, dass die Informations- und Beratungsstellen auch Kindern und Jugendlichen zur Verfügung stehen, diese entsprechend ansprechen und Berater und Beraterinnen in Jugendschutzfragen geschult sind; 4. Diensteanbieter von Telemedien ab einer bestimmten Größe zu verpflichten, Jugendbeauftragte einzusetzen, die Jugendschutzprogramme umsetzen und dafür verbindliche Kooperationen für den digitalen Kinder- und Jugendschutz mit dem Zentrum für Kinderschutz im Internet (I-KiZ) einzugehen; 5. sich dafür einzusetzen, dass die einfache Online-Anzeige von Beschwerden oder rechtswidriger Inhalte per polizeilicher „Internetwache“ in allen Bundesländern möglich ist; 6. in Zusammenarbeit mit den Ländern darauf hinzuwirken, dass die Strafverfolgungsbehörden und Gerichte personell und technisch so ausgestaltet werden, dass sie die Strafrechtsverstöße im Netz adäquat und in angemessener Zeit bearbeiten können; 7. auf europäischer und internationaler Ebene Regulierungen mit großer Reichweite und Einheitlichkeit voranzutreiben und die rechtliche Zusammenarbeit zu intensivieren; 8. die Forschung zur Wirkung von Hate Speech, Fake News und missbräuchlich eingesetzten Social Bots auf die demokratische Debattenkultur im Netz zu unterstützen; 9. die unabhängige und selbstverwaltete Überprüfung von online veröffentlichten Fakten nach journalistischen Standards („Fact-Checking“) durch beispielsweise Nichtregierungsorganisationen oder Zusammenschlüsse von Medien zu unterstützen und dabei zu prüfen, ob eine (Teil-)Finanzierung eines unabhängigen Recherche-Fonds durch eine verpflichtende Abgabe von Diensteanbietern von Telemedien ab einer festzulegenden Größenordnung zu prüfen ist; 10. eine Selbstverpflichtung der im Netz werbenden Wirtschaft zu initiieren, auf die Schaltung von Werbung auf solchen Webseiten zu verzichten, deren Geschäftsmodell ganz überwiegend auf die Verbreitung von zu definierenden Falschmeldungen (Fake News) ausgerichtet ist; 11. gemeinsam mit den Ländern zu prüfen, ob es zwecks Gewährleistung effektiven Jugendmedienschutzes sinnvoll erscheint, den Landesmedienanstalten (bzw. deren Kommission für Jugendmedienschutz) weitere Auskunftsrechte einzuräumen; 12. gemeinsam mit den Ländern die Sachgerechtigkeit und Konsistenz der BundLänder-Kompetenzverteilung im Bereich der Telemedien insgesamt angesichts der Entwicklungen des Internets grundlegend zu überprüfen und notwendige Ver- änderungen aufzuzeigen, insbesondere gegenüber den Ländern anzuregen, Sanktionsmöglichkeiten bei Verstößen von Telemedienanbietern mit journalistischredaktionell gestaltetem Angebot gegen journalistische Sorgfaltspflichten zu schaffen.
Berlin, den 28. März 2017 Katrin Göring-Eckardt, Dr. Anton Hofreiter und Fraktion
Begründung:
Die einbringende Fraktion BÜNDNIS 90/DIE GRÜNEN hat am 13. Januar 2017 ein umfassendes Konzept „Verantwortung, Freiheit und Recht im Netz“ vorgelegt. 1 Die Fraktion der CDU/CSU hat in einem am 20. Januar 2017 beschlossenen Positionspapier2 das Konzept weitgehend aufgegriffen. Ebenso die Fraktion der SPD mit einem Positionspapier vom 07. März 20173. Angesichts dieser Einmütigkeit sollte die Bundesregierung in der Lage sein, unverzüglich eine Änderung des Telemediengesetzes mit folgenden Kernpunkten vorzulegen: Bei Verletzungen des Persönlichkeitsrechts und Straftaten Konkretisierung des Notice-and-take-down-Prinzips und der Informationspflichten einschließlich der Kennzeichnung von Social Bots – ähnlich wie die gesetzlichen Informationspflichten bei kommerziellen Kommunikationen – in Verbindung mit der Schaffung verbindlicher Regeln für effiziente, rasche und beweissichernde Kommunikation zwischen Diensteanbietern wie insbesondere Plattformbetreibern einerseits sowie Verletzten und Strafverfolgungsbehörden andererseits. Ermöglichung der Sanktionierung von Verstößen gegen diese Regeln oder diesbezüglicher Organisations-und Aufsichtspflichten durch Bußgelder und gegebenenfalls Gewinnabschöpfungen, die die wirtschaftliche Lage solcher Unternehmen angemessen erfassen und damit ökonomisch spürbar sind. Festlegung einer Relevanzschwelle (Größenordnung der Diensteanbieter), ab der diese Pflichten gelten, durch eine Mindestnutzerzahl. Die Konkretisierungen dienen zugleich besserem Schutz der Nutzerinnen und Nutzer. Darüber hinaus sind zivilgesellschaftliches Engagement zahlreicher Menschen und Organisationen, wie die Kampagne „No Hate Speech“ und die „grüne Netzfeuerwehr“ zu begrüßen und unterstützen. Die Bundesregierung und die sie tragenden Fraktionen tolerieren bis heute, dass sich milliardenschwere Unternehmen mit teils monopolartigem Charakter nicht an geltendes deutsches und europäisches Recht halten. Sie missachten mit lapidaren Hinweisen auf die eigene Multinationalität, allgemeine Geschäftsbedingungen und sich selbst gegebene „Gemeinschaftsstandards“ klare rechtliche Vorgaben. Das muss ein Ende haben. Selbstverpflichtungen und die bisherigen Bemühungen der Bundesregierung reichen bei Weitem nicht aus. Mit medienwirksamen „Task Forces“, offenen Briefen und immer neuen, folgenlosen Fristen hat Bundesjustizminister Maas bislang nichts Wesentliches zur Beseitigung der skizzierten Probleme beigetragen. Das gilt gleichermaßen für bislang folgenlose Positionspapiere der Koalitionsfraktionen. Ein im Anwendungsbereich limitiertes Netzwerkdurchsetzungsgesetz kann nicht über den Reformbedarf im Telemedienrecht insgesamt hinwegtäuschen. Digitale Gatekeeper müssen entschlossen dazu gebracht werden, ihrer Verantwortung nachzukommen und geltendes Recht zu beachten. Digitale Bürgerrechte laufen bisher unter der Großen Koalition ins Leere. Zu II 1. ( Melde- und Abhilfeverfahren) Das sogenannte Notice-and-take-down-Verfahren erfolgt derzeit ohne konkrete gesetzliche Regelungen. Das Notice-and-take-down-Verfahren ist im Artikel § 14 (1) b) der Richtlinie über den elektronischen Geschäftsverkehr (Richtlinie 2000/31/EG) und in § 10 Satz 1 des Telemediengesetzes grundsätzlich angelegt. In einer Vielzahl von Fällen bleibt zunächst offen, ob es sich um klar rechtswidrige Postings handelt. Es bleibt damit den Providern selbst überlassen, auf welche Art und Weise sie ihren, aus der Kenntnis von Hinweisen auf mutmaßlich rechtswidrige Inhalte erwachsenden Obliegenheitspflichten nachkommen. Der Bundesgerichtshof hat in einer Reihe von Entscheidungen zu unterschiedlichen Fallkonstellationen die von Providern zu beachtenden Aspekte wie etwa die Kontaktaufnahme zu den Inhalte einstellenden Personen und die Einräumung einer knappen Erwiderungsfrist lediglich umrissen. Es obliegt dem Gesetzgeber, die zunehmende Anzahl von Auseinandersetzungen zwischen den durch rechtswidrige und missbräuchliche Postings mutmaßlich Geschädigten und den Inhalteanbietern so zu strukturieren, dass sowohl die effektive Durchsetzung des Persönlichkeitsschutzes gewährleistet wird, als auch die ebenfalls grundrechtlichen Schutz genießenden Kommunikationsfreiheiten der Inhalteanbieter im Verfahren des Umganges mit den Verdachtsmeldungen gewahrt bleiben.
Da das Melde- und Abhilfeverfahren bereits im TMG angelegt ist, bietet es sich an, eine Neuregelung ebenfalls innerhalb des TMG zu treffen. In jedem Fall darf ein Regulierungsvorschlag nicht dazu führen, dass mehrere Beschwerdeverfahren parallel bestehen und dadurch das Verfahren verkompliziert wird anstelle die Rechtsdurchsetzung vereinfacht. Zu II 2. a) (Gewährleistung effektiver Rechtsdurchsetzung) Die E-Commerce-Richtlinie überlässt den Mitgliedsstaaten ausdrücklich die Möglichkeit, ein Verfahren für die Entfernung einer Information oder die Sperrung des Zugangs zu ihr festzulegen. Bei offensichtlich rechtswidrigen Informationen bedarf es keiner intensiven Abwägung über den Inhalt seitens des Diensteanbieters, sodass eine kurze Reaktionsfrist zur Sperrung oder Löschung angemessen ist, um die Möglichkeit einer Weiterverbreitung der Informationen zu minimieren. Von einer offensichtlichen Rechtsverletzung ist erst dann auszugehen, wenn diese so eindeutig ist, dass eine ungerechtfertigte Belastung des Diensteanbieters ausgeschlossen erscheint. Um Missbrauch vorzubeugen, kann die Rechtswidrigkeit einer Information nicht nur behauptet werden, sondern sie muss glaubhaft gemacht werden. Für die Glaubhaftmachung genügt es jedoch, dass der Meldende die Tatsachen vorträgt, die das Zutreffen der Behauptung überwiegend wahrscheinlich erschienen lassen. Eine Beschränkung auf bestimmte rechtswidrige Handlungen durch die Begrenzung der Anwendbarkeit des konkretisierten Verfahrens ausschließlich auf Hasskriminalität ist weder notwendig noch zweckmäßig. Obwohl das Vorgehen der Diensteanbieter z. B. im Bereich der Pornographiedelikte bereits deutlich effektiver funktioniert als im Bereich der Hasskommentare, sollten Inhalte von sexualstrafrechtlicher Relevanz nicht vom Anwendungsbereich der neuen Regelungen ausgeschlossen sein. Über die Melde- und Abhilfeverfahren hinaus bedarf es auch einer verbesserten Mitwirkung der Diensteanbieter bei der Aufklärung von Straftaten durch die Behörden. Die Praxis bemängelt den Umgang der Plattformbetreiber mit Anfragen seitens der Staatsanwaltschaft, die entweder gar nicht oder mit erheblicher Zeitverzögerung beantwortet werden. Um die Ermittlungen zu beschleunigen soll auch hier eine kurze Frist zur Bearbeitung der Anfragen von Strafverfolgungsbehörden und Gerichten gegenüber den Diensteanbietern festgelegt werden. Für eine effektive Rechtsdurchsetzung ist die Bestellung eines inländischen empfangs-und zustellungsbevollmächtigten Verantwortlichen bei den Dienstanbietern unabdingbar. Damit ist auch Verkehr in deutscher Sprache sichergestellt. Der inländische Zustellungsbevollmächtigte muss ebenso leicht erkennbar sein wie der Name, die Anschrift des Diensteanbieters und der Vertretungsberechtigte (vgl. § 5 TMG und § 55 Abs. 2 Rundfunkstaatsvertrag). Eine Benennung des Ansprechpartners erst im Verfahren gegenüber den Behörden genügt nicht. Außerdem sollten benutzerfreundliche Melde-Tools bereitgehalten werden. Die für die Diensteanbieter außerdem geforderten Dokumentationspflichten und Vorkehrungen zur fachgerechten Bearbeitung von Beschwerden etc. dienen der Effizienz und der Beweissicherung. Geltende Datenschutzstandards müssen dabei gewahrt bleiben. Zu II 2. b) (Social Bots) Es gibt sinnvolle Anwendungen von Social Bots: Sie können dazu beitragen, sich tausendfach wiederholende Abläufe zu automatisieren und Menschen zu entlasten. Sie können dabei helfen, Hilfesuchende auf Fundstellen aufmerksam zu machen, Nutzerinnen und Nutzer können in sozialen Netzwerken auf neue journalistische Artikel hingewiesen werden oder Haterinnen und Hater automatisiert auf geltende Diskussionsregeln verwiesen werden. Genauso können Social Bots bei entsprechender Programmierung aber auch missbräuchlich eingesetzt werden und demokratische Diskurse vergiften. Mit Social Bots können vermeintliche Mehrheitsverhältnisse und die gesellschaftliche Bedeutung von Themen vorgetäuscht werden. Diskussionen können inhaltlich verzerrt beziehungsweise Desinformationen verbreitet werden. Social Bots können so das Vertrauen in öffentliche (politische) Debatten und damit in den demokratischen Diskurs untergraben. Der Einsatz von Social Bots hat nicht nur für die demokratische Debattenkultur gravierende Auswirkungen. Social Bots werden beispielsweise auch zur Manipulation des Kaufverhaltens von Kundinnen und Kunden eingesetzt oder durch Falschmeldungen zur kurzfristigen Beeinflussung von Aktienmärkten („Influencer Marketing“) genutzt. Social Bots können auch zum gezielten „Phishing“ und „Social Engineering“ gegenüber Privatpersonen und Unternehmen und als Bestandteil von internationalen Desinformationskampagnen eingesetzt werden. Mit abnehmenden Kosten und technischem Aufwand steht zu befürchten, dass Social Bots zukünftig vermehrt auch als Instrument des Mobbings gegen Einzelpersonen eingesetzt werden.
Die Verbreitung von durch Algorithmen ausgelöster automatischer Kommunikation und Information nimmt absehbar weiter stark zu. Dem Staat kommt eine wichtige Schutzverantwortung zu. Er sollte Risiken für den demokratischen Diskurs, mögliche Manipulationen, Verzerrungen oder gar Zersetzung von gesellschaftlichen Meinungsbildungs- und politischen Entscheidungsprozessen bis hin zu Wahlentscheidungen frühzeitig entschlossen begegnen und eine mögliche Transparenz in der digitalen Welt sicherstellen. Den Einsatz von Social Bots per se zu verbieten, wie es in den vergangenen Wochen wiederholt gefordert wurde, würde allerdings der skizzierten Ambivalenz nicht gerecht werden. Selbstverpflichtungen, das hat die Vergangenheit gezeigt, reichen auch nicht aus. Zu II 2. c) (Transparenzbericht) Die Berichtspflichten dienen der Transparenz. Es ist vor allem Interesse der Nutzerinnen und Nutzer, beim Eingehen eines Rechtsverhältnisses mit einem Diensteanbieter erkennen zu können, welche Kriterien die Diensteanbieter bei Meldungen rechtswidriger Informationen für ihre Entscheidung zugrunde legen und in welchem Zeitraum Meldungen tatsächlich bearbeitet werden. Zu II 3. (Sanktionen) Vorsätzliche und fahrlässige Verletzung der Kennzeichnungspflichten, der Verfahrens- und der Berichtspflichten von Diensteanbietern sollen als Ordnungswidrigkeiten wirksam sanktioniert werden können. Der bisherige Ahndungsrahmen von bis zu 50.000 Euro des Telemediengesetzes ist angesichts der wirtschaftlichen Lage der großen Diensteanbieter unverhältnismäßig niedrig und muss deutlich erhöht werden. Zukunftsfähige Unternehmensverantwortung erfordert angemessene und wirksame Sanktionen bei Rechtsverstößen von Unternehmen (siehe dazu den Antrag der einbringenden Fraktion BÜNDNIS 90/DIE GRÜNEN auf Drucksache 18/10038). Die die Bundesregierung tragende Koalition hatte sich zwar 2013 vorgenommen, mit Blick auf Rechtsverstöße im Unternehmensbereich das Ordnungswidrigkeitenrecht auszubauen. Geschehen ist aber bislang nichts. Zu II 4. (Evaluation) Angesichts der rasanten Entwicklung des Internets ist eine qualifizierte externe unabhängige Evaluation der Neuregelungen unabdingbar. Zu III 1. (Richtlinien für das Strafverfahren und das Bußgeldverfahren) Die Richtlinien für das Strafverfahren und das Bußgeldverfahren (RiStBV) stammen bei den hier einschlägigen Nummern 86 und 87 aus der Zeit vor der Verbreitung des Internets. Sie bedürfen deshalb der Ergänzung. Zwar wurde 2015 in der Folge der NSU-Taten und der Forderungen des ersten NSU-Untersuchungsausschusses bereits eine Ergänzung in Nummer 86 Absatz 2 Satz 1 eingefügt, die aber nicht das Ziel des vorliegenden Antrages erfasst (siehe dazu bereits die Anträge der Fraktion BÜNDNIS 90/DIE GRÜNEN „Demokratie stärken – Dem Hass keine Chance geben“ auf Drucksache 18/7553 und „Hasskriminalität wirkungsvoll statt symbolisch verfolgen“ auf Drucksache 18/3150). Delikte wie Beleidigung oder Bedrohung sind als Privatklagedelikte ausgestaltet, d. h., die Staatsanwaltschaft hat hier zu prüfen, ob ein öffentliches Interesse an der Verfolgung von Amts wegen besteht. Die RiStBV sollen deshalb künftig die Anweisung enthalten, dass die Staatsanwaltschaft bei der Feststellung des öffentlichen Interesses bei Privatklagedelikten, das die Verfolgung der möglichen Straftat von Amts wegen auslösen würde, die Umstände der Reichweite der im Internet verbreiteten Äußerungen verstärkt zu berücksichtigen hat. Außerdem soll die Staatsanwaltschaft im Falle einer Verweisung auf den Privatklageverfahren verpflichtet sein, zuvor die Herkunft einer im Internet anonym oder pseudonym gemachten strafverdächtigen Äußerung (Information) nach den einschlägigen strafprozessualen Bestimmungen zu ermitteln. Die Diensteanbieter sind aufgrund von § 14 Abs. 2 i. V. m § 15 Abs. 5 Satz 4 TMG befugt, auf Anordnung der zuständigen Stellen über Bestands- und Nutzungsdaten Auskunft zu erteilen. Zu III 2. (Medienkompetenz) Zur Prävention von Hassreden im Netz und einem kompetenten Umgang mit Informationen und Nachrichten im Netz ist das Angebot von Medien- und Datenschutzkompetenzvermittlungen deutlich auszuweiten. Die Vermittlung von Medien- und Datenschutzkompetenz muss in den Schulen, der politischen Bildung und als Aufgabe der Jugendhilfe gestärkt werden. Hierzu braucht es entsprechende Fortbildungsprogramme für die Fachkräfte. Netzund Medienkompetenz führt ebenso zu einer Verbesserung der technischen und sozialen Fähigkeiten der Mediennutzung und Medienkritik, die insbesondere Mädchen und Frauen darin stärken, sich sicher und selbstbewusst im Netz zu bewegen und an Online-Prozessen und Diskursen mitzuwirken. Zu III 3. (Unabhängige Informations- und Beratungsstellen) Betroffene von Hassreden finden bisher kaum Informationen und Beratung, wie sie individuelle und rechtlich mit diffamierenden Inhalten umgehen sollen. Diensteanbieter ab einer zu definierenden Größenordnung sollen auch durch eine (Teil-)Finanzierung ihrer Verantwortung für eine demokratische Debattenkultur nachkommen. 92 Prozent aller Kinder und Jugendlichen zwischen 12 und 17 Jahren verfügen über ein Smartphone, mit dem sie regelmäßig online sind (JIM-Studie). Sie sind in besonderem Maße gefährdet, Opfer von Hate Speech, Cybermobbing oder Cybergrooming zu werden und dabei nachhaltig in ihrer Persönlichkeitsentwicklung gestört zu werden. Informations- und Beratungsstellen müssen deshalb niedrigschwellig auch für Kinder und Jugendliche erreichbar und in Jugendschutzfragen kompetent ausgestattet sein. „Digitale Gewalt“ nimmt mit der wachsenden Bedeutung von digitaler Kommunikation immer stärker zu. Frauen und Mädchen sind hiervon überproportional stark betroffen. Der bff – Bundesverband Frauenberatungsstellen und Frauennotrufe berichtet von einem Anstieg der Beratungsanfragen zu digitalen Gewaltformen. Cybergewalt umfasst Cybermobbing, -grooming, -stalking, -sexismus und Doxing. Cybermobbing beschreibt das Schikanieren einer Person im Internet, oft auch durch Ver- öffentlichung von Bildern und tritt in vielen Fällen in Schul- oder Arbeitszusammenhängen auf. Cybergrooming ist die Anbahnung von sexualisierter Gewalt gegenüber Kindern durch Erwachsene im Netz. Zu einem großen Anteil handelt es sich hier um männliche Täter, Betroffene sind häufig weiblich. Cyberstalking bedeutet, dass einer Person durch eine andere online nachgestellt wird. Cybersexismus richtet sich gezielt gegen netzaktive Frauen und es wird versucht, feministische Äußerungen im Netz zu unterdrücken. Schwere beleidigende OnlineBotschaften, Androhung von Vergewaltigung etc. erleben besonders Bloggerinnen und (Online-)Journalistinnen sowie Politikerinnen und Wissenschaftlerinnen. Frauen und Mädchen wird es durch systematische anonyme Drohungen erschwert, das Internet gleichberechtigt zu nutzen, ihre Meinung frei zu äußern und damit eine Gegenöffentlichkeit im Netz herzustellen. Doxing ist abgeleitet von der englischen Abkürzung „dox“ für Dokumente und bezeichnet das Veröffentlichen personenbezogener Daten im Internet, zumeist mit bösartigen Absichten gegen- über den Betroffenen. Zu III 4. (Jugendschutzbeauftragte und Jugendschutzprogramme bei Diensteanbietern von Telemedien) Gemäß § 7 Abs. 1 Satz 2 Jugendmedienschutz-Staatsvertrag haben geschäftsmäßige Anbieter von allgemein zugänglichen Telemedien, die entwicklungsbeeinträchtigende oder jugendgefährdende Inhalte enthalten, sowie Anbieter von Suchmaschinen bereits die Pflicht, einen Jugendschutzbeauftragten zu bestellen. Diese Pflicht muss entsprechend umgesetzt und bekannt gemacht werden. Im Zentrum für Kinderschutz im Internet (I-KiZ) beschäftigt sich ein Bündnis von Expertinnen und Experten aus Bund und Ländern, Jugendschutz und Strafverfolgung, von Anbietern, Plattformbetreibern, Verbänden und Initiativen sowie aus Technik und Wissenschaft mit den Rahmenbedingungen und Möglichkeiten eines zeitgemäßen Schutzes von Kindern und Jugendlichen im Internet. Zur effektiven Umsetzung von Jugendschutzprogrammen sollte eine Kooperation der Jugendschutzbeauftragten bei Diensteanbietern von Telemedien mit dem I-KiZ verbindlich sein. Zu III 5. (Online-Anzeige) Eine einfache, schnelle und zeitgemäße Online-Anzeigenerstattung ist noch nicht in allen Bundesländern möglich. Dies gilt für Bayern, Bremen, Rheinland-Pfalz, Saarland und Thüringen. Zu III 6. (Personal und Ausstattung für Strafverfolgungsbehörden und Gerichte) Mangel an Personal oder mangelhafte Ausstattung darf nicht dazu führen, dass Täterinnen und Täter nicht ermittelt werden können und die Verfahren aus diesem Grunde eingestellt werden müssen. Die Justiz muss technisch und personell gemeinsam mit den Ländern dem digitalen Zeitalter angemessen ausgestattet werden. Zu III 7. (Europäische und internationale Ebene) Angesichts der internationalen Dimension des Netzes sind europäische und internationale Regulierungsansätze und die rechtliche Zusammenarbeit zu stärken.
Zu III 8. (Forschung) Die wissenschaftliche Forschung und empirischen Erkenntnisse zur Auswirkung von Hate Speech, Fake News und Social Bots auf die öffentliche Debattenkultur stehen noch am Anfang. Die Sachverständigen der Anhörung „Fake News, Social Bots, Hacks und Co. – Manipulationsversuche demokratischer Willensbildungsprozesse im Netz“ des Ausschusses Digitale Agenda am 25. Januar 2015 bekräftigten, dass eine Ausweitung der Forschung dringend geboten sei. Zu III 9. (Unabhängiges Fact-Checking) Es werden derzeit bereits erste, teilweise von Diensteanbietern von Telemedien selbst finanzierte, Versuche unternommen, Nachrichten/Fakten durch externe Rechercheeinheiten nach journalistischen Standards überprüfen zu lassen. In diesem Zusammenhang sollten Standards etabliert werden, die eine verlässliche, dauerhafte und vor allem unabhängige Faktenüberprüfung sicherstellen, die sich an Modellen wie etwa denen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter, Unterhaltungssoftware Selbstkontrolle und Freiwilligen Selbstkontrolle der Filmwirtschaft orientieren. Eine entsprechende Organisation nach dem Modell der Freiwilligen Selbstkontrolle sollte nur solche Rechercheeinheiten einsetzen, die bestimmte Qualitätskriterien erfüllen und diese Einhaltung auch regelmäßig überprüfen. Zudem wäre eine Kontrolle der Organisation durch etwa die Landesmedienanstalten und außergerichtliche Beschwerdemöglichkeiten sinnvoll. Dabei ist zu prüfen, inwiefern dieses Modell über eine Verpflichtung der Diensteanbieter von Telemedien ab einer bestimmten definierten Größe, eine bestimmte Abgabe in einen Recherche-Fonds einzuzahlen, zumindest (teil-)finanziert werden kann. Zu III 10. (Werbeschaltung im Kontext von Fake News) Es sind bereits erste internationale Fälle bekannt, bei denen gezielt Falschmeldungen insbesondere zu gesellschaftlich relevanten, politischen Ereignissen veröffentlicht wurden, um verstärkt Klickzahlen zu generieren, dadurch werbliche Attraktivität zu steigern und Gewinne zu erzielen. Um diesen Trend zu unterbinden, wäre eine Selbstverpflichtung der Wirtschaft sinnvoll, auf die Werbung auf solchen Webseiten zu verzichten. Dabei ist allerdings eine rechtssichere Definition notwendig, was genau unter „gezielten Falschmeldungen“ (sogenannten Fake News) verstanden werden soll. Zu III 11. (Auskunftsrecht der Landesmedienanstalten) Die Landesmedienanstalten haben für Verstöße im Bereich Hate Speech (wie etwa Rassenhass, Volkverhetzung u. Ä., siehe § 4 JMStV) im Rahmen des Jugendmedienschutzstaatsvertrages eine klare gesetzliche Zuständigkeit, die häufig neben der Zuständigkeit der Strafverfolgungsbehörden besteht (§ 20 JMStV). Dabei sind ihnen Untersagung oder auch Bußgelder als Maßnahmen möglich. Allerdings fehlen den Landesmedienanstalten Auskunftsrechte, so dass sie häufig ihre Aufgaben nicht durchsetzen können. Gerade zur Entlastung der Strafverfolgungsbehörden, für Fälle, bei denen das Interesse an der Strafverfolgung nicht gesehen wird und zur Stärkung der Rechtsdurchsetzung könnte eine Ergänzung der Landesmedienanstalten als Auskunftsberechtigte für die Zwecke der Verfolgung von Verstößen gegen den Jugendmedienschutzstaatsvertrag sinnvoll sein. Zu III 12. (Aufsicht über journalistisch-redaktionelle Telemedien) Die Regelungen nach Telemediengesetz und Rundfunkstaatsvertrag sind nicht zweckmäßig aufeinander abgestimmt. Telemedien mit journalistisch-redaktionellen Angeboten können mittlerweile eine der Presse und dem Rundfunk vergleichbare Breitenwirkung entfalten und damit erheblich auf die öffentliche Meinungsbildung einwirken. Diese Angebote können unter dem Deckmantel eines seriösen Journalismus gezielt Falschmeldungen verbreiten, aus politischen oder auch gewinnorientierten Absichten. Diese Telemedien sind bereits jetzt journalistischen Sorgfaltspflichten unterworfen (§ 54 Abs. 2 Rundfunkstaatsvertrag), im Falle des Verstoßes können aber keine Aufsichtsmaßnahmen ergriffen werden. Hier sollte sich die Bundesregierung mit den Ländern ins Benehmen setzen, um zu prüfen, ob Änderungen vorgenommen werden sollten, um beispielsweise den zuständigen Landesmedienanstalten die Sanktionsmöglichkeiten des § 59 Absatz 3 Rundfunkstaatsvertrag im Falle von Verstößen gegen journalistische Sorgfaltspflichten zu eröffnen.