Bundesregierung will Algorithmen regulieren – wirklich?
Heute schreibt Patrick Beuth in der Zeit unter dem Titel “Bundesregierung will mehr über Googles Algorithmus wissen” von einem Positionspapier der Regierung zum Thema Offenlegung von Algorithmen, das offenbar an die EU-Kommission geschickt wurde um eine stärkere Regulierung von Algorithmen bei grossen Digital-Konzernen zu erreichen.
Hört sich erstmal ganz gut an, und auch ich habe diese Forderung ja vor langer Zeit (2012) in der FAZ formuliert. Die Idee dort war in drei Stufen zu verfahren, zum einen Stellen wo Algorithmen Entscheidungen treffen oder Filterungen vornehmen zu kennzeichnen (1), dann Möglichkeiten der Einsicht anzubieten, also wie der Algorithmus in diesem Fall konkret funktioniert (2), und idealerweise das ganze auch abschaltbar zu machen (3). Das würde im Falle einer News-Website z.B. bedeuten, dass man einen ungefilterten Stream sieht – so wie man bei Facebook mit etwas Mühe eine chronologische Sortierung des News-Feeds aktivieren kann anstelle der algorithmisch gefilterten.
In der Premium-Klasse würde man dann auch noch die Algorithmen selbst offenlegen.
Diese Forderungen und Ideen sind also nicht neu, auch auf der re:publica 2013 haben wir dazu ein Panel gemacht und intensiv darüber diskutiert. Aber es gab auch zahlreiche andere Initiativen und Vorträge in die Richtung.
Jetzt könnte man sagen – ja ja, steter Tropfen hölt den Stein, ist doch gut, dass darüber gesprochen wird und jetzt endlich auch in der Bundesregierung. Nun ja. Wirklich interessant finde ich, dass es jetzt so ein Papier gibt, wo doch vor wenigen Wochen die Datenschutz-Grundverordnung nach jahrelanger Arbeit endlich beschlossen wurde. Denn in dieser Verordnung gibt es einen Paragraphen zum sog. “Profiling” (Artikel 22), in der Verordnung heisst es auch “automatisierte Entscheidungen inkl. Profiling”. Dieser Paragraph sollte Fälle wie z.B. das vieldiskutierte Scoring regeln (also Schufa & Co), aber hätte theoretisch eben auch problemlos andere Fälle automatisierter Entscheidungen regeln können – eben solche wie sie im obigen Positionspapier der Bundesregierung behandelt werden. Man hätte z.B. ohne Schwierigkeiten hier eine allgemeine Kennzeichnungspflicht unterbringen können. Aber auch Auskunftsrechte wären denkbar gewesen. Allerdings hätte man dafür den Wirkungskreis des Paragraphen nicht dermassen einschränken dürfen, dass nur noch solche automatisierten Entscheidungen betroffen sind, die “eine rechtliche Wirkung entfalten” oder “erheblich einschränkend sind” (in älteren Fassungen der VO war das nicht so eingeschränkt). Denn damit dürften ziemlich sicher Anzeigen von Suchergebnissen, Filterungen von News-Artikeln und diverse andere algorithmische Filterungen aussen vor sein. Insofern finde ich es ziemlich scheinheilig, jetzt von einer Initiative zur Regulierung von Algorithmen zu sprechen – das hat man gerade erst sträflich unterlassen.
Soviel zur Bundesregierung. Im Artikel wird auch gesagt, eine Offenlegung von Algorithmen käme einer Offenlegung von Geschäftsgeheimnissen gleich, und wäre damit praktisch unmöglich. Nun ja. Das wird natürlich immer wieder von den Unternehmen so vorgetragen und ist in der Tat schweres juristisches Geschütz. Aber es gibt auch in anderen Fällen schöne Beispiele dafür, wie trotzdem Auskunftsrechte und Eingriffsmöglichkeiten für User realisiert werden konnten, ohne den Unternehmen den garaus zu machen, z.B. im Fair Credit Reporting Act der FCC aus dem Jahre 1970, der regelt wie BürgerInnen Einsicht in Algorithmen, Daten und Verfahren im Rahmen von Kreditentscheidungen bekommen können. Warum sollte es nicht möglich sein, etwas ähnliches für Algorithmen im Netz hinzubekommen, zumal dort die technischen Möglichkeiten eigentlich noch viel einfachere und elaboriertere Auskünfte direkt im Kontext ermöglichen würden? Überdies müssten dafür eben nicht zwangsläufig die Algorithmen im Quelltext offengelegt werden (mal abgesehen davon, dass viele Unternehmen eh Verfahren einsetzen, die in der scientific community weithin bekannt sind) – eine lesbare Beschreibung der generellen Verfahrensweise würde in vielen Fällen auch reichen, und wenn dann noch die konkret beteiligten Daten angezeigt würden wäre die Transparenz für Internet-UserInnen schon um ein vielfaches höher als heute (das kürzlich gelaunchte Projekt algorithmwatch geht in eine ähnliche Richtung).
Ein anderes Modell, das Pate stehen könnte für eine Veröffentlichungspflicht bei gleichzeitiger Wahrung von Geschäftsgeheimnissen könnte das Handelsregister sein. Hier müssen Kapitalgesellschaften schon immer heikle Informationen aus ihrem Geschäftsbetrieb in standardisierter Form veröffentlichen – das Ziel ist hier ein vertrauensvolles Wirtschaften der Unternehmen untereinander zu ermöglichen. Bilanzen, wichtige Änderungen in der Leitungs-Struktur oder neue Beteiligungen müssen hier der Öffentlichkeit kundgegeben werden, und können mittlerweile sogar über ein Online-Portal eingesehen werden. Könnte das nicht ein Modell für Veröffentlichung von Informationen zu eingesetzen Algorithmen sein? In der aktuellen Blockchain-Hype-Debatte wird ja auch schon thematisiert, dass es zukünftig evtl. Firmen geben wird, die komplett nur aus einem in der Chain abgelegten smart contract bestehen (also einem Algorithmus) – so abwegig ist der Gedanke also vielleicht wirklich nicht.
Jedenfalls sollte man weitere Schritte in die Richtung unternehmen, ohne sich von Blender-Aktivitäten wie dem o.g. Positionspapier in die Irre führen zu lassen.