Anfang Juni legten die SPD-geführten Ministerien – BMWi, BMAS und BMJV – ein gemeinsames Positionspapier zur Digitalpolitik vor. In diesem wurde erstmals die Überprüfbarkeit von Algorithmen hinsichtlich ihrer Einhaltung des Diskriminierungsverbots und lauterkeitsrechtlicher Vorgaben durch eine Kontrollinstanz gefordert. Der Fokus liegt dabei auf Algorithmen, die Prognosen über menschliches Verhalten treffen und Entscheidungen beeinflussen oder vorbereiten.

Worum geht es?

Anfang Juni legten die SPD-geführten Ministerien – BMWi, BMAS und BMJV – ein gemeinsames Positionspapier zur Digitalpolitik vor. In diesem wurde erstmals die Überprüfbarkeit von Algorithmen hinsichtlich ihrer Einhaltung des Diskriminierungsverbots und lauterkeitsrechtlicher Vorgaben durch eine Kontrollinstanz gefordert. Der Fokus liegt dabei auf Algorithmen, die Prognosen über menschliches Verhalten treffen und Entscheidungen beeinflussen oder vorbereiten.

Was ist die neuste Entwicklung?

Auf einer BMJV-Konferenz konkretisierte Bundesjustizminister Heiko Maas gestern den Vorschlag und forderte ein „digitales AGG, ein digitales Antidiskriminierungsgesetz […] – gegen digitale Diskriminierung und für vorurteilsfreies Programmieren“. Die Aufgabe behördlichen Kontrolle könne dabei eine neu zu gründende Digitalagentur übernehmen.

Weiterhin sprach Maas von der Schaffung eines Transparenzgebots für Algorithmen. Dieses soll Nutzer ermächtigen, verlässlich einschätzen zu können, ob „das Netz versucht, sie zu beeinflussen“ und selbstbestimmt entscheiden zu können, „welche Filter und Personalisierungen sie in der digitalen Welt akzeptieren wollen und welche nicht“.

Mit den Vorschlägen sollen die Selbstbestimmung und Handlungsfreiheit des Einzelnen geschützt werden. Als Anwendungsfälle von algorithmischen Entscheidungen wurden auch Beispiele aus dem Handelsumfeld angeführt: Einschätzung der Kreditwürdigkeit, Preissetzung, Betreuung im Call-Center und Differenzierung der Lieferbereiche nach Postleitzahl.

Generell muss zwischen der externen Kontrolle von Algorithmen und algorithmischen Entscheidungen hinsichtlich Rechtsverstößen durch eine Aufsichtsbehörde (Stichwort „Algorithmen-TÜV“) auf der einen Seite und der (zumindest teilweisen) Offenlegung dieser Algorithmen gegenüber Verbrauchern auf der anderen Seite differenziert werden. Während das Positionspapier Digitalpolitik nur auf die erste Form der Regulierung eingeht, scheint Maas mit der Referenz des „Transparenzgebots“ den Fokus der Regulierung zu erweitern.

Analyse

Das hohe Bußgeld, das letzte Woche gegenüber Google für seinen Produktvergleich verhängt wurde, zeigt den allgemeinen Bedarf einer Kontrolle markt- und datenbeherrschender Unternehmen in der Digitalwirtschaft auf. Diese wettbewerbsrechtliche Kontrolle setzt einen Missbrauch der Marktstellung voraus. Eine staatliche Überprüfung oder Zwang zur Offenlegung von Algorithmen würde Unternehmen jedoch einer allgemeinen a priori Kontrolle unterwerfen und somit einen übermäßig starken Eingriff in die Geschäftsautonomie eines jeden Unternehmers bedeuten.

Algorithmen sind entscheidend an der Gestaltung moderner Handelsunternehmen beteiligt: Sie ermöglichen eine Anpassung des Produktangebots an die individuellen Bedürfnisse und Wünsche der Kunden, erlauben eine Abschätzung des Zahlungsausfallrisikos und optimieren Absatzprognosen und Lieferrouten. Die dahinter stehenden Entscheidungen sind nicht neu. Auch im klassischen Tante-Emma-Laden schlägt der Händler Stammkunden ihre Lieblingsprodukte vor und lässt nur vertrauenswürdige Kunden anschreiben – diese Entscheidungen sind Teil der unternehmerischen Freiheit und integrativer Teil der Unternehmensstrategie.

Besonders schlimm scheinen dabei die Konsequenzen eines Transparenzgebots, dass jegliche Innovation zum Erliegen bringen würde. Gerade im Handel sind Algorithmen zum wichtigen Differenzierungsmerkmal geworden. Derzeit können neue Geschäftsmodelle vielfach mit besseren Mess- und analysemethoden von Daten überzeugen. Wenn die Kerninhalte von Algorithmen wie Kriterien und deren Gewichtungen offengelegt werden müssen, verschwindet der Anreiz für Weiter- und Neuentwicklungen. Ganz richtig hat der BGH 2014 in seiner Entscheidung zur SCHUFA die Scoreformel als „Geschäftsgeheimnis“ deklariert und zur Sicherung der Wettbewerbsfähigkeit geschützt. Zudem macht Transparenz Algorithmen manipulierbar, sodass beispielsweise irrelevante aber algorithmisch optimierte Webseiten auf den Top-Rankingplätzen von Suchmaschinen landen können.

Eine staatliche Überprüfung der Algorithmen bzw. ein Algorithmen-TÜV bedeutet vor allem einen immensen bürokratischen Aufwand – sowohl für Unternehmen als auch für die entsprechende Behörde. Zum einen werden international agierende Digitalunternehmen kaum einen nationalen Eingriff in ihren Unternehmenskern zulassen und Deutschland somit von der digitalen Landkarte verschwinden. Zum anderen sind Algorithmen oft vielschichtig, ändern sich häufig und enthalten Zufallszüge, sodass eine effektive Überprüfung, selbst bei Ausstattung mit weitreichenden Ressourcen, in Frage gestellt werden kann. Nicht zuletzt scheint es fraglich, woher die Behörden die große Zahl an benötigten IT-Experten rekrutieren möchte.

Bei den platzierten Forderungen bleiben dabei viele Fragen offen: Ab wann „diskriminiert“ ein Händler? Eine Strategie kann gerade darin liegen, z.B. Produkte für junge Mütter zu vertreiben. Ganz natürlich wird dann nach der Zielgruppe diskriminiert, wenn gezielt Werbung geschaltet und Rabatte vergeben werden. Welche Art von Algorithmen soll reguliert werden? Hier muss nach der Sensibilität und Eingriffstiefe der Entscheidungen differenziert werden. Selbstverständlich hat Diskriminierung im Bereich Predictive Policing gravierendere Folgen als die algorithmische Auswahl des passenden Sommerkleids.

Bewertung

Schon jetzt werden Verbraucher vor jeglicher ungerechtfertigten Diskriminierung (AGG), sowie vor unlauterem Verhalten und Irreführungen (UWG) geschützt. Dies gilt sowohl in der analogen Wirtschaft mit menschlichen Entscheidungen, als auch in der digitalen Wirtschaft mit datenbasierten Entscheidungen. Auch das Datenschutzrecht gewährleistet, dass Kundendaten nicht unbefugt für algorithmische Entscheidungen verwendet werden. Somit sind Verbraucher durch den aktuellen Rechtsrahmen ausreichend geschützt und es besteht kein gesetzgeberischer Handlungsbedarf.