Wenn der Algortihmus zum Unterdrücker wird
Die Verbreitung von Kameras, Smartphones und RFID-Chips hat es unvermeidbar gemacht, laufend von Sensoren erfasst zu werden. Wenn Technologie Teil der natürlichen Umgebung ist, wird Bewusstseinsbildung für einen kritischen Umgang notwendig. Besonders zu beachten ist das Ausmaß der Datensammlung, ob die Daten mit Einverständnis der Betroffenen gesammelt werden, und für welchen Zweck sie verwendet werden. Überwachung ist nicht nur das Sammeln von Daten, sondern ihre Nutzung, um unser Leben zu beeinflussen bzw. zu kontrollieren. Jedenfalls auch in der Legislatur gilt der Grundsatz der „Datensparsamkeit“: Personenbezogene Daten sollten nur gesammelt werden, wenn es wirklich notwendig ist. Sehr persönliche Informationen können jedoch auch indirekt über im Internet hinterlassene „Datenspuren“ ermittelt werden: Welche Artikel ich öffne bzw. teile, lässt womöglich Rückschlüsse auf meine politische Ausrichtung, sexuelle Orientierung, mein Konsumverhalten und mehr zu.
„Secondary Use“ passiert.
Gesammelte Daten können auch abweichend von ihrem ursprünglichen Zweck genutzt werden. Volkszählungen sind zB. dazu gedacht, Aussagen über die Entwicklung einer Gesellschaft zu treffen. Allerdings halfen solche Daten den Nazis, die jüdische Bevölkerung der Niederlande systematisch zu verfolgen. Weniger krass, aber immer wieder aktuell sind Polizeibeamt_ innen, die privat Abfragen von persönlichen Daten durchführen, etwa über deren Ex-Partner_in. Die österreichische Regierung will Zugriffsprotokolle für solche Abfragen ausdünnen und kürzer speichern – und das, obwohl mit der neuen Regierung nun möglicherweise recht(sextrem)e Personen vereinfacht Zugang zu sensiblen Daten haben. Wie an sich unverdächtiges Verhalten falsch interpretiert und zur Überwachung weiterer Unschuldiger führen kann, erzählte etwa Anne Roth im Interview mit Brigitte Theißl für die an.schläge: „Darunter waren etwa private Gespräche mit meiner Mutter – obwohl ich selbst nicht einmal als Verdächtige geführt wurde.“ Ebenfalls besteht die Gefahr des Datendiebstahls. In der Informatik gilt: Es gibt keine absolut sicheren Systeme. Sicherheit bedeutet, „Kosten“ für eine Attacke sind so hoch, dass sie sich nicht rentiert. Es hat sich hat gezeigt, dass selbst große Unternehmen sich nicht ausreichend schützen können, und Expert_innen befürchten in den nächsten Jahren eine Explosion von Angriffen durch neue Artificial Intelligence (AI)-Technologien. Eine unbedarfte Sammlung von Daten kann auch Probleme mit sich bringen. In Boston wird etwa seit einigen Jahren mithilfe der „Street Bump“ App versucht, Schlaglöcher durch Meldungen von Bewohner_innen zu finden. Es wird dafür ein Smartphone benötigt, Ältere und Ärmere besitzen so etwas jedoch oft nicht. Forscherin Kate Crawford meint dazu, dass zu großes Vertrauen in den Output der App dazu führen würde, dass Schlaglöcher vor allem in jungen, technikversierten, reichen Gebieten repariert würden. Die Stadt ist sich des Umstands zum Glück bewusst und arbeitet daran, Ungleichheiten nicht zu verstärken. Automatisierte Weiterverarbeitung von Daten durch Computerprogramme kann ebenfalls Probleme mit sich bringen. In Medien und Popkultur wird künstliche Intelligenz bzw. AI oft als Sammelbegriff für neue, scheinbar intelligente Technologien verwendet, jedoch sind es ausgewählte Algorithmen (innere Logik/Ablauf von Programmen), verfügbare Hardware und verarbeitete Daten, die die Funktionsweise festschreiben. Im Lauf der Zeit ändert sich, was als „intelligent“ beschrieben wird, z.B. durch neue Entwicklungen, die alte verdrängen. Die Zuschreibung verleiht Autorität und sollte kritisch gesehen werden. Die großen Mengen an verfügbaren Daten und neue Option zur effizienteren Verarbeitung (bessere Hardware, optimierte Algorithmen) haben es ermöglicht, mit eigentlich alten Techniken für das Erlernen von Mustern sehr gute Ergebnisse zu erzielen. Im Alltag sind diese sichtbar in Anwendungen wie Google Translate, Apple Siri oder dem Facebook Newsfeed. Aus Daten lernende Algorithmen werden meist als „Machine Learning“ (ML), bzw. bei sehr großen Datenmengen als „Big Data“-Technologien bezeichnet und können in zwei große Kategorien geteilt werden: „Unüberwachtes Lernen“ wird explorativ auf Datensätze angewendet, um z.B. in einem sozialen Freundschaftsnetzwerk Untergruppen zu ermitteln. Die Ergebnisse sind dabei stark abhängig von gewählten Parametern.
Es gibt keine neutralen Daten.
Die zweite Kategorie, „überwachtes Lernen“, nutzt manuell etikettierte Daten zum Lernen und ermöglicht die vorherig genannten Produkte von großen Unternehmen. Ein populäres Beispiel ist etwa das Erkennen von Menschen auf Bildern. Dafür werden eine große Menge an Bildern und zu jedem Bild eine Etikettierung, welche Koordinaten zu den Positionen von Menschen in den Bildern angibt, als Inputdaten verwendet. Das ML-System lernt Muster, wie Menschen in Bildern aussehen („Stereotypen“), und kann anhand dieser in neuen Bildern Menschen erkennen. Ähnlich wurde von einem Team der Stanford Universität anhand von Profilfotos einer Dating- Plattform versucht, zu erlernen, sexuelle Orientierung von Personen zu „erkennen“. Dabei wurden die Bilder von Personen mit deren angegebener Orientierung etikettiert. Ein Report von Google hat gezeigt, dass vermutlich (sub)kulturelle Merkmale, wie etwa der Winkel, in dem ein Foto gemacht wurde und ob die Person rasiert ist, für die relativ gute Klassifikation in diesem Experiment verantwortlich waren. In Boulevard-Medien wie der Kronen Zeitung wurde jedoch berichtet, dass nun anhand von Gesichtern AI etwa Homosexualität feststellen könne. Eine Richtigstellung ist nie erschienen.
Lernende Algorithmen.
Die Etikettierung, Auswahl der Daten und gewählten Parameter geben vor, was gelernt wird. Somit können unvermeidbare Ungenauigkeiten und Mehrdeutigkeiten drastische Auswirkungen auf Ergebnisse haben. In verschiedenen sich im Einsatz befindlichen ML-Systemen wurden in den letzten Jahren Formen von Diskriminierung, wie etwa Klassismus, Rassismus oder Sexismus, basierend auf erlernten Korrelationen entdeckt. Dieses Lernen von Vorurteilen oder anderen ungewollten Mustern wird als „Algorithmic Bias“ bezeichnet und sowohl die großen IT-Unternehmen, als auch (US-)Behörden sind davor nicht gefeit. Googles Objekterkennungssystem klassifizierte Schwarze Personen auf Bildern etwa oft als Gorillas, ähnliche Fehler sind bei Bildern von Weißen Menschen nicht aufgetreten. Der Grund dafür ist, dass dem ML-System mehr Bilder von Gorillas als Schwarzen Menschen zur Verfügung gestellt wurden, wodurch dieser lernte, in Bildern eher Gorillas zu erkennen. Die späte Entdeckung solcher Fehler kann auf ein Diversitäts-Problem in der Informatik zurückgeführt werden, da noch immer kaum Frauen, People of Colour, Menschen mit Behinderung und andere Marginalisierte vertreten sind. Es ist außerdem aufgrund der großen Menge an Daten und Komplexität der algorithmischen Systeme oft nicht einfach, nachzuvollziehen, was genau erlernt wurde. Es wird hierbei von „Black Box“-Systemen gesprochen, deren innere Funktionsweise nicht ersichtlich ist und bloß durch Experimente untersucht werden kann. Gefährlich wird es, wenn algorithmischen Systemen unkritisch Objektivität, Neutralität oder Intelligenz zugesprochen wird. Das Erlernen problematischer Biases wurde von John Giannandrea, dem Leiter der Google AI-Forschung, als größte Gefahr durch AI bezeichnet.
Algorithmen lernen Vorurteile.
US-Behörden haben zur optimierten Bereitstellung von Polizeieinheiten bereits ML-Systeme für die Vorhersage von Kriminalität in spezifischen Regionen bzw. von Personen eingesetzt („Predictive Policing“). Die Daten, eine ausführliche Geschichte von polizeilichen Einsätzen mit Örtlichkeit, enthalten die menschlichen Vorurteile der Polizei, etwa, dass eher nichtweiße Menschen kontrolliert und verhaftet werden. Durch die scheinbare Objektivität und Autorität des „intelligenten“ Systems befeuert, patrouillieren Polizist_innen mit einer gewissen Erwartungshaltung, Kriminelle zu finden und zu beamtshandeln. Die Systeme sind schwer hinterfragbar und fokussieren Einsätze auf Regionen mit vielen Schwarzen und ärmeren Menschen, wodurch diese stärker kontrolliert werden und der Anteil der Festnahmen im Verhältnis zur Gesamtbevölkerung sich weiter erhöht. Vorurteile von Polizist_innen können diesen Effekt weiter verstärken. Das Ergebnis ist, dass sich der zugrundeliegende rassistische Bias in den Daten verstärkt. „Predictive Policing“ wird bereits in Deutschland erprobt und in Österreich erforscht. In US-Gerichten wurden auch bereits Systeme, ebenfalls rassistisch, zur Ermittlung einer Rückfallswahrscheinlichkeit von Entlassenen eingesetzt.
Automatisierung kann Ungleichheit verschlimmern.
In einem Interview zu ihrem Buch „Automating Inequality“ warnt Virginia Eubanks davor, dass Algorithmen eine emotionale Distanz erzeugen, die es ermöglicht, unmenschliche Entscheidungen zu automatisieren. Es fehlen die Menschen, die Verantwortung übernehmen und Unmenschliches hinterfragen. Im Buch stellt sie eine Reihe von Systemen vor, die Ungleichheiten reproduzieren oder sogar verstärken, z.B. ein Bias zum Nachteil armer Menschen in einem Prüfsystem für Kindesmisshandlung in der Familie, das eigentlich als Vorzeigebeispiel gilt.
Es ist noch nicht aller Tage Abend.
Durch ML-Systemen konnten bereits etwa diskriminierende Stereotype in Artikeln sichtbar gemacht werden. Jedoch sind ein bewusster Umgang und breiter Diskurs rund um die Ausgestaltung der Technologien notwendig. Im Koalitionsvertrag der neuen deutschen Regierung befinden sich bereits einige Passagen, um ein besseres Leben für alle mit Algorithmen zu ermöglichen. „Open Schufa“, eine Initiative aus Deutschland, zeigt vor, wie Algorithmen, die etwa für Kredite und Wohnungsvergaben herangezogen werden, durch kollektive Datenspenden rekonstruiert werden können um Überprüfbarkeit zu ermöglichen.
Österreich hat Aufholbedarf.
In Österreich hingegen scheint es FPÖ und ÖVP beim Thema Digitalisierung und ihren Implikationen für die Gesellschaft an Kompetenz zu fehlen. So hat die ÖVP kürzlich die Einführung von E-Voting gefordert. Weiters ist der Bundestrojaner nun beschlossen. Beide Projekte sind aus technischer Sicht nicht gefahrlos umsetzbar. Ebenso gab es bis jetzt kaum Engagement für Rechte von Benachteiligten. In Konsequenz heißt das: Wir müssen selbst aufstehen und uns organisieren, um unsere Rechte und Menschlichkeit in dieser digitalen Transformation zu verteidigen. Organisationen wie die Datenschutz- NGO NOYB, epicenter.works, ÖH, Arbeiter_innenkammer, Gewerkschaften, SOS Mitmensch, Frauen*Volksbegehren und viele andere brauchen unsere Unterstützung.