14:45 - 15:45
D, Live Translation
Discussion
Everyone
Vielfalt statt Filter. Digitale Plattformen im Fokus der Regulierung

Kurzthese

Ein großer Teil der Inhalte, die wir täglich im Internet konsumieren, werden von den Algorithmen der marktmächtigen Plattformen und sozialen Netzwerken zusammengestellt und sortiert. Künstliche Intelligenz spielt bei der Auswahl der Inhalte in den Feeds der Nutzer eine immer größere Rolle. An welcher Stelle können Regulierungsmaßnahmen und Verbraucherschutz ansetzen, um Nutzerautonomie, Transparenz und Zugang zu sichern? Wie können wir Meinungsvielfalt und Auffindbarkeit gewährleisten? Sollen Plattformen die Entscheidungen allein treffen oder müssen Datenschutz, Kartellrecht und Rundfunkrecht Grenzen setzen? Kann man Algorithmen überhaupt regulieren? Müssen wir etwas gegen Filter Bubbles tun?

Beschreibung

Facebook, You Tube und Co. schaffen einen anderen Zugang zu Inhalten. Das hat Auswirkungen. Unternehmen optimieren ihre Inhalte so, dass sie möglichst oft und breit geteilt werden. Klicks werden zum Maßstab der Aufmerksamkeit, die Verlängerung der Verweildauer der Nutzer auf den Plattformen ist das höchste Ziel. Intermediäre nutzen Algorithmen und KI, um den Nutzern nach Möglichkeit Inhalte anzubieten, die ihren Vorlieben entsprechen und sie in eine „Wohlfühlumgebung“ aus passenden und bestätigenden Meinungen hüllen. Dieses algorithmische Mood Management soll die Nutzer länger in den jeweiligen Angeboten halten.

Für dieses Ziel werden Daten über Nutzer, die durch Klicks und Likes von Trackern oder Cookies gesammelt werden, analysiert. Diese Daten werden wiederum von Maschinen interpretiert und fließen zurück in den Algorithmus des News Feed. Sind die Prozesse transparent? Können die maschinengeschriebenen Algorithmen überhaupt noch von Menschen verstanden und kontrolliert werden?

Wo muss die Gesetzgebung ansetzen, um Nutzerautonomie, Transparenz und Meinungsvielfalt zu sichern? Und wer beaufsichtigt die Einhaltung der Gesetze? Ist es eine wünschenswerte und demokratische Lösung, wenn marktstarke Plattformen ihre Inhalte selbst regulieren? Geben ihre AGBs am Ende den Rahmen vor?

Das Diskussionspanel wird moderiert von Miriam Janke.

----------------------------------------

PLURALITY OVER FILTERS. DIGITAL PLATFORMS TARGETED BY REGULATIONS

Short thesis:
A large share of the content we consume every day on the Internet is being compiled and sorted by the algorithms of the platforms and social networks with a large market share. Artificial intelligence is playing an ever-increasing role in the selection of the content in users' feeds. Where can regulatory measures and consumer protection intervene in order to ensure user autonomy, transparency and access? How can we ensure diversity of opinion and findability? Should platforms make the decisions by themselves or do data protection, antitrust law, and broadcasting law have to set limits? Can one even regulate algorithms? Do we have to do something about filter bubbles?

Description:
Facebook, YouTube and Co. create different access to content. That has a variety of impacts. Companies optimize their content such that it can be shared as often and widely as possible. Clicks become the metric of attention; extending the time the users stay on the platforms is the prime objective. Intermediaries utilize algorithms and AI in order to present users, if possible, with content that caters to their preferences and wraps them in a "feel-good environment" consisting of fitting and confirming opinions. This algorithmic mood management is intended to keep the user longer within the respective offers.

For this objective, data about the user is being analysed that is collected via the clicks and likes of trackers or cookies. This data, in turn, is being interpreted by machines and flows back into the algorithm of the news feed. Are the processes transparent? Can the machine-written algorithms even still be comprehended and controlled by human beings?

Where does the legislative have to intervene in order to ensure user autonomy, transparency, and diversity of opinion? And who is going to monitor compliance with the laws? Is it a desirable and democratic solution if market-leading platforms regulate their content themselves? Do their General Terms & Conditions ultimately provide the framework for this?

The discussion will be moderated by Miriam Janke.