Von Frank Pasquale. Die Allgegenwärtigkeit des Internets – vor allem in Form sozialer Mediennetzwerke und großer Suchmaschinen – hat die Art und Weise, wie wir Inhalte produzieren und rezipieren, stark verändert. So sind wir heute mit einem ganz neuen gesellschaftlichen Verständnis von Meinungs- und Pressefreiheit konfrontiert. Öffentlich getroffene Aussagen finden weltweite Verbreitung, ohne dass die Verfasser ihre Anonymität aufgeben müssten. Neonazistische Inhalte, gegen die in Europa strafrechtlich vorgegangen werden kann, sind auf US-amerikanischen Servern weitgehend sicher, geschützt durch den ersten Zusatz der US-amerikanischen Verfassung. Hinzu kommt, dass die Algorithmen, die den Zugang zu Inhalten des Internets regeln, Unternehmensprofite maximieren. So spielen sich Debatten um das Grundrecht auf freie Meinungsäußerung vor einem vollkommen neu strukturierten Verhältnis von Produktion, Verteilung und Konsum von Inhalten ab.
Die Automatisierung, die heute auf alle Bereiche der Produktion übergegriffen hat, wirft damit auch das Problem ethischer Konsequenzen auf. Dies betrifft insbesondere Diskussionen, bei denen sich die Digitalisierung auf den Prozess der öffentlichen Meinungsbildung auswirkt. Die Automatisierung von Entscheidungsprozessen in sensiblen Bereichen, wie der Bearbeitung, Moderation, Bewerbung und Verbreitung von Informationen durch digitale Plattformen, ist die Quelle zahlreicher Kontroversen. Sind jedoch die Wege, auf denen Inhalte und Meinungen produziert und gestreut werden, erst einmal offen für Manipulation, müssen wir die Konsequenzen tragen. Das Internet ist heutzutage eine weitgehend deregulierte Plattform. Sie unterliegt der gleichen kapitalistischen Logik, die auch viele andere Bereiche unserer zivilgesellschaftlichen Ordnung untergräbt.
In dieser neuen Veröffentlichung argumentiert Frank Pasquale, Autor von The Black Box Society und derzeit Fellow am Information Society Project der Yale Law School, dass mächtige Interessensgruppen ihre Durchsetzungskraft mit Hilfe eines Regulierungssystems ausbauen, das Geheimhaltung garantiert und auf Unübersichtlichkeit setzt. Die Studie beschäftigt sich mit den Geschehnissen rund um die jüngsten US-Wahlen sowie mit weiteren Fällen, in denen Online-Eingriffe vorgenommen (oder auch verhindert) wurden, die die Verbreitung hasserfüllter Ideologien in breiten Teilen der Öffentlichkeit ermöglichten. Der Autor schlägt eine Reihe an rechtlichen Schritten und Bildungsmaßnahmen vor, die den pathologischen Auswirkungen der automatisierten öffentlichen Domäne entgegenwirken könnten.
Geheimgehaltene Unternehmensstrategien aufzudecken, die Konzentration von Einfluss und Geld in den Händen Einzelner zu verhindern und mehr Eingriffsmöglichkeiten für den Menschen zu schaffen – dies sind allesamt Maßnahmen, die die Macht von großen IT-Konzernen regulieren sollen. Solche Mittel bringen jedoch auch ethische Probleme mit sich: Wie etwa können wir garantieren, dass Regulierung nicht zu Zensur und Unterdrückung führt und somit lediglich ein weiteres Werkzeug zur Manipulation und Kontrolle unsere Gesellschaft darstellt?
Als progressive Akteure, die sich selbst oft digitaler Überwachung oder Belästigungen im Internet ausgesetzt sehen, wollen wir Regulierungsmaßnahmen weder bedingungslos unterstützen noch grundsätzlich ablehnen. Vielmehr geht es darum, unsere Strategien und Methoden unter geänderten Bedingungen neu zu denken. Wie kann Regulierung fair und transparent gestaltet werden? Können wir Nutzer, die schließlich eine zentrale Rolle in der Produktion und Verteilung von Inhalten spielen, kontrollieren ohne damit harschen Zensurmaßnahmen Vorschub zu leisten? Und sind dies wirklich erstrebenswerte zukunftsorientierte Konzepte oder lediglich verzweifelte Reaktionen auf eine zunehmend digitalisierte Welt? Letztlich müssen wir uns auch fragen, welche Rolle das Internet in unserer heutigen Gesellschaft spielt und wie wir die digitalisierte Umwelt für alle positiv verändern können.