Gibt es im Zeitalter von Web 2.0 überhaupt noch Mittel und Wege, digitaler Blamage oder gar Demontage zu entgehen? Ist die Macht großer kommerzieller Online-Dienste wie Google oder Facebook inzwischen so groß, dass ihre Regulierung nötig, sinnvoll und möglich ist? Wie können Nutzer die Hoheit über ihre Online-Kommunikationsinfrastrukturen erlangen? Welche Chancen bieten Ansätze wie die Transparenz von Algorithmen, offene Standards und Interoperabilität? Muss der Staat die Öffentlichkeit vor Netzmonopolisten schützen? Mit welchen Mitteln könnte dies geschehen und wie realistisch ist ihre Durchsetzbarkeit? Hat die Einführung neuer Adressendungen im Internet wie .hamburg, .bio oder .bmw tatsächlich eine „Revolutionierung“ des Web ausgelöst, wie von den Betreibern versprochen, und haben sich die Erwartungen der Nutzer erfüllt?
Thesen, Prognosen und Antworten auf diese und andere brandaktuelle Fragen unter dem Motto „Netz in Bewegung“ lieferte der jährliche Fachkongress Domain pulse, dessen zwölfte Auflage am 26. und 27. Februar in Berlin stattfand. Mehr als 350 Fachbesucher folgten den Vorträgen und Podiumsdiskussionen internationaler Experten bei dem etablierten Branchentreffen, das sich zur alljährlich bedeutendsten Veranstaltung für Themen, Tendenzen und Trends rund um Internetdomains im deutschsprachigen Raum entwickelt hat. Gemeinsam mit den Registrierungsstellen der Länderdomains von Österreich (nic.at) sowie der Schweiz und Liechtenstein (SWITCH) führt die DENIC eG, Betreiberin der deutschen Länderkennung .de im Internet, als diesmalige Ausrichterin die zweitägige Expertentagung Domain pulse im jährlichen Wechsel durch.
Kontrollversuch und Kontrollverlust im digitalen Zeitalter
Zum Auftakt der Tagung am 26. Februar 2015 sezierte Keynote-Speaker Prof. Dr. Bernhard Pörksen – einer der international profiliertesten Kommunikationsforscher von der Universität Tübingen – in einem pointenreichen philosophischen Diskurs über die Grundprinzipien des Reputationsmanagements anhand vieler erhellender Fallbeispiele, wie der Ruf von Privatpersonen, aber auch von Unternehmen und politischen Organisationen sich heute in Rekordzeit dirigieren lässt. Jeder Einzelne, jedes Unternehmen und jede Institution brauche unterdessen eine Strategie für das mediale Zeitalter: „Die Mitmach-Medien der Gegenwart haben völlig neue Möglichkeiten der Skandalisierung geschaffen. Es reicht schon, dass sich jemand empören will – und dass er irgendwie sein Publikum findet“, machte Pörksen klar, der seinen Zuhörern auch konkrete Handlungsempfehlungen mit auf den Weg gab.
Digitale Schwergewichte: Kontrolle oder Laissez-faire?
In einem verbalen Schlagabtausch zum Thema „Digitale Schwergewichte und Gesellschaft: Kontrolle oder Laissez-faire?“ lieferten sich Peter Schaar, Bundesbeauftragter für Datenschutz und Informationsfreiheit a.D., und Thomas Knüwer, Gründer der Digitalstrategie-Beratung kpunktnull, eine hitzige Debatte darüber, wie in einer Zeit, die geprägt ist vom Strukturwandel des Privaten, umzugehen ist mit der Machtfülle von Netzmultis wie Google und Facebook, deren Monopolstatus Totalität statt Pluralität zur Folge hat. Lockin-Effekte, die sich durch mangelnde Interoperabilität sozialer Netzwerke ergeben, sichern Monopole zusätzlich ab, da waren sich die Experten einig, nicht aber darin, wie dies zu bewerten sei.
Knüwer sieht die gegenwärtige Diskussion, die sämtliche Netzunternehmen per se unter Generalverdacht der Datenhortung für unlautere Zwecke stelle, als überzogen an; aus Nutzersicht sei die Existenz etwa mehrerer sozialer Netzwerke nicht sinnvoll, da sie keine bruchfreie Kontaktpflege zulasse. Für ihn stellt sich die Big-Brother-Frage eher im Zusammenhang mit öffentlichen Institutionen, deren zunehmender Pre-Crime-Ansatz zur Verbrechensprävention die verdachtsunabhängige Massensammlung von Daten legitimieren solle.
Peter Schaar dagegen sieht angesichts der erdrückenden Dominanz der Netzmonopolisten, die Wettbewerber im großen Stil aufkaufen und Nutzerdaten aus verschiedensten Diensten extrahieren, zusammenführen und feingranular personalisieren, dringenden staatlichen Regulierungsbedarf. Der Gesetzgeber müsse dafür sorgen, dass durch die Transparenz von Algorithmen und eine Öffnung der Standards bei bestimmten Dienstleistungen Nutzersouveränität herbeigeführt werde. Das geltende Wettbewerbs- und Kartellrecht müsse weiterentwickelt werden, eine neue Definition von Monopolen, die die Nutzersicht ebenso berücksichtige wie die Auswirkungen von Suchmaschinen und sozialen Netzwerken auf den Werbemarkt sei überfällig.
Kritisiert wurde in der Diskussion auch die weitgehend unbefriedigende Haltung der deutschen Politik; im Gegensatz zu anderen Ländern wie beispielsweise den USA gebe es hierzulande kaum Politiker mit einer klaren Meinung in netzpolitischen Fragen. Auch ein echter Diskurs, in welcher digitalen Gesellschaft wir künftig leben wollen, finde so gut wie nicht statt. Die Politik sei schlicht überfordert und kompetenzbildende Maßnahmen, die in die breite Öffentlichkeit getragen werden, ein Gebot der Stunde.
Internet Governance: Die Karten werden neu gemischt – von Fallstricken und Begehrlichkeiten
Auch der zweite Kongresstag des Domain pulse widmete sich intensiv netzpolitischen Themen. Im Mittelpunkt stand zunächst die Großwetterlage im Kontext von Internet Governance: Was ist von der NetMundial-Konferenz, der großen Multistakeholder-Konferenz mit Einbindung aller Interessensgruppen von der Politik über die Wirtschaft und technische Community bis hin zur Zivilgesellschaft 2014 in Brasilien übrig geblieben? Was sollte davon weiterverfolgt werden? Wie ist die NETmundial Initiative (NMI) einzuschätzen, die stark vom Weltwirtschaftsforum vorangetrieben wird? Ist sie ein sinnvolles Follow-Up zur NetMundial? Steht sie in Konkurrenz zum Internet Governance Forum (IGF), wie manche munkeln? Wie steht es um das IGF? Ist die Verlängerung des Mandats durch die UNO in trockenen Tüchern? Wie stabil ist diese Institution? Wie stellt sich die Aussicht auf eine Multi-Stakeholder-Organisation ohne den "Schatten des Staates" dar, wie er mit der geplanten Aufgabe der Kontrollfunktion über die grundlegenden Internetressourcen, die sogenannte IANA-Transition, durch die USA im September 2015 vor der Tür steht? Braucht es eine Aufsichtsinstanz außerhalb von ICANN? Können wir vom Prinzip der Gewaltenteilung in modernen Demokratien etwas lernen für die IANA-Nachfolge?
Eine hochkarätig besetzte Expertendiskussion mit Professor Wolfgang Kleinwächter, ICANN-Direktoriumsmitglied, Thomas Schneider, Vorsitzender des ICANN-Regierungsbeirats GAC, Christoph Steck, Direktor Public Policy von Telefónica als privatwirtschaftlichem Vertreter der NETmundial Initiative, Thomas Rickert vom eco-Verband der deutschen Internetwirtschaft und DENIC-CEO Jörg Schweiger unternahm den Versuch, Akteure, Rollen und Gemengelagen einzuordnen.
Tenor des Forums: Mit der NetMundial-Konferenz haben die verschiedenen Interessengruppen unter Beweis gestellt, dass der Multistakerholder-Ansatz auf Augenhöhe konsensfähig sei und eine gemeinsame Deklaration verabschieden könne. Es müsse jedoch klar sein, dass es sich dabei ausschließlich um die Verständigung auf gemeinsame grundlegende Werte handle, die ein solides Fundament für gemeinsam zu erarbeitende Lösungen auf internationaler Ebene darstellten.
Die NETmundial Initiative verstehe sich ausdrücklich nicht als Parallelorganisation der Wirtschaft, die den Multistakeholder-Ansatz mit seinem im Vergleich zu zwischenstaatlichen Verträgen unverbindlicheren Charakter für sich instrumentalisieren wolle. Vielmehr sei die NMI zurzeit gleichsam noch eine Beta-Version, die in einem offenen Konsultationsprozess die Meinungen verschiedener Communities einhole und ihr Arbeitsfeld als verbindendes Element zwischen verschiedenen Initiativen verstehen will. Da das UN-Mandat des Internet Governance Forum derzeit keine Entscheidungskompetenzen vorsehe, müsse auf anderen Ebenen versucht werden, die im IGF-Rahmen identifizierten Frage- und Problemstellungen des zukünftigen Managements der Internetressourcen und aller damit einhergehenden Dienste und Anwendungen umsetzungsorientiert voranzutreiben.
Digitale Agenden für Deutschland und Europa – eine kritische Bestandsaufnahme
In der sich anschließenden Diskussionsrunde „Wie die Alte der Neuen Welt IT-Paroli bieten will: Digitale Agenden für Deutschland und Europa - eine kritische Bestandsaufnahme“ trafen mit Christian Flisek, Sprecher der SPD-Bundestagsfraktion für den NSA-Untersuchungsausschuss und Mitglied im Ausschuss Digitale Agenda des Deutschen Bundestages, sowie Sabine Verheyen, Mitglied des Europäischen Parlaments für die CDU und stellvertretendes Mitglied im Ausschuss für Binnenmarkt und Verbraucherschutz, deutsche und europäische Netzpolitiker auf Volker Tripp von der Digitale Gesellschaft e.V., der die Kritikpunkte der Zivilgesellschaft an den Agenden geltend machte.
Flisek verteidigte die von der Öffentlichkeit vielfach geschmähte Digitale Agenda der Bundesregierung insofern als erfolgreichen Schritt in die richtige Richtung, als dass damit erstmals eine Fokussierung von Querschnittsthemen gelungen sei; auch die oft kritisierte Verteilung auf drei federführende Ministerien (BMI, BMWi und BMVI) wertete er eher als sich gegenseitig belebende Konkurrenz mit dem Ziel sinnvoller Ausgestaltungen. Klaren Verbesserungsbedarf sieht er aber aus Sicht des Untersuchungsausschusses im Grundrechtschutz durch Technikeinsatz und fordert die institutionelle Verankerung eines permanenten Monitorings, auch durch eine Reformierung der existierenden parlamentarischen Kontrollgremien.
Sabine Verheyen verwies darauf, dass der europäische Ansatz des Digitalen Binnenmarktes aufgrund der herrschenden Kompetenzübertragung an die EU in erster Linie auf die wirtschaftliche Zusammenarbeit ausgerichtet sei und wegen der nationalstaatlichen Souveränität in Themen von gesamtgesellschaftlicher Relevanz diese nur begrenzt adressieren könne. Ziel sei es, die unterschiedlichen Interessen aus den Mitgliedsstaaten zum Zwecke einer stärkeren Harmonisierung zu bündeln. Tripp kritisierte dabei, dass positive Impulse bisher ausschließlich aus dem Bereich der Rechtsetzung gekommen seien, wie etwa das EuGH-Urteil zum Recht auf Vergessenwerden.
Dass Code Law oft versuche, als Ersatzgesetzgeber die Interessen von Plattformen gegenüber demokratisch legitimierten Regeln quasi auszuhebeln, ist für Christian Flisek nicht tragbar. Da die bestehenden Rechtsgrundlagen allesamt territorial begrenzt seien, bewegten sich Unternehmen im globalen Kontext fortlaufend in Jurisdiktionskonflikten, und eine internationale Verständigung auf Spielregeln zur Nutzung des Internet sei daher dringend geboten. Man dürfe aber die eigene Regelungskompetenz nicht aufgeben und müsse die europäischen Standards mindestens auf transatlantischen Kontext anheben.
Volker Tripp forderte mehr Selbstbewusstsein in der Vertretung der europäischen Grundrechtsposition; auch übte er Kritik an der aus seiner Sicht fundamental angstgesteuerten, auf diffusen Befürchtungen basierenden Entscheidungen der deutschen Politik. Er vermisst eine Kultur von Möglichkeitsräumen und Chancen; die gemeinhin als Einfallstor für anonyme Internetkriminalität angeprangerte WLAN-Störerhaftung beispielsweise solle abgeschafft und ein Jahr später eine Evaluation durchgeführt werden, inwieweit die damit verbundenen Befürchtungen sich als begründet erwiesen hätten.
Generell stelle sich aber die Frage, so Sabine Verheyen, ob eine Problemlösung über oder über Verhandlungen die bessere sei, etwa bei der öffentlich stark kontrovers diskutierten Übermittlung von Fluggastdaten. Es müsse aber anerkannt werden, wie schwierig ein Konsensprozess ist, und man könne nicht so tun, als ob das deutsche Grundrechtsverständnis der Maßstab aller Dinge sei.
Dem hielt Tripp entgegen, dass sich jeder zwar einen Diensteanbieter danach aussuchen könne, ob einem dessen Regeln gefielen oder missfielen, an die Regeln des hoheitlich agierenden Staates aber müsse man sich halten, sodass sehr wohl zwischen unternehmerischen und staatlichen Datensammlern zu unterscheiden sei.
Einigkeit bestand bei allen darin, dass deutsche Regierungsstellen erheblich stärkere Präsenz auf der internationalen netzpolitischen Bühne zeigen müssten.
Weitere Kongressthemen
Weitere Kongressthemen befassten sich damit, inwiefern die vor einem Jahr an den Start gegangenen neuen Adressendungen im Internet sich im Markt etablieren und dem Erwartungsdruck – auch unter dem Gesichtspunkt der Suchmaschinenrelevanz – gerecht werden konnten, wie es um die Sicherheit telematischer Systeme, mobiler Endgeräte und kritischer Infrastrukturen bestellt ist, und wie Domaininhaber und Markeninhaber sich im Falle von Verstößen gegen Kennzeichen- oder Urheberrechten durch Domains auseinandersetzen.
Domain pulse im Internet
Das Gesamtprogramm der Expertentagung mit sämtlichen Akteuren findet sich auf der Veranstaltungs-Website www.domainpulse.de. Etwa eine Woche nach Veranstaltungsende werden Interessierten dort Livemitschnitte des Kongresses als Retrospektive zur Verfügung stehen. Der nächste Domain pulse wird am 1. und 2. Februar 2016 in Lausanne in der Schweiz stattfinden.