Ethik und Big Data – (k)ein Widerspruch?! (Teil 1/3)

Ethik und Big Data – (k)ein Widerspruch?! (Teil 1/3)

Ein Plädoyer für Aufklärung und Transparenz UND für den Einsatz von Big Data-Technologien

Der Einsatz von Big Data ist technologisch heutzutage mit ein wenig Aufwand und entsprechenden Rechenzentren und Datenbanken für jedes Unternehmen möglich. Dass Big Data-Analysen und -Vorhersagen auch wirtschaftlich sinnvoll sind, machen nicht nur Großkonzerne wie Amazon deutlich, die permanent neue datenbasierte Geschäftsmodelle entwickeln und gewinnbringend einsetzen.

Für Datenschützer im Speziellen, aber letztendlich für jedermann, stellt sich jedoch die Frage nach Datensicherheit, Datenhoheit, Privatsphäre und eben auch: Ist der Einsatz von Big Data eigentlich ethisch vertretbar, wenn zukünftiges menschliches Verhalten berechnet und beeinflusst wird? Wer trägt die Verantwortung für den Schutz personenbezogener Daten? Hallo? – Ist da jemand? Kümmert sich irgendjemand darum?

Big Data ist in aller Munde – aber spaltet die Gemüter

Die einen wollen dabei sein, wenn neue Ufer erreicht werden, wollen die Grenzen des Machbaren austesten, sehen sich als Trendsetter und erkennen die Chancen. Entdecker, Pioniere, Teckis. Sie treiben die Entwicklung von Big Data voran. Durch ihren Einsatz, ihr Knowhow und ihre Visionen schreitet die digitale Transformation unaufhaltsam weiter.

Die anderen möchten zwar auch nicht auf die Vorteile der Digitalisierung verzichten, doch machen sie sich so ihre Gedanken über Risiken und Auswirkungen und führen ethische Bedenken ins Feld, insbesondere wenn es darum geht, dass der Nutzer – ohne sein Wissen – beurteilt und eben auch beeinflusst wird.

Viele sind aus Unwissenheit erstmal dagegen

Je weniger Einblick man in die dahinterliegenden technologischen Abläufe, wie die algorithmische Entscheidungsfindung, hat, desto kritischer wird der Einsatz von Big Data oft beäugt. Dies gilt insbesondere für diejenigen, die sich bewusst machen, in welchem Umfang heutzutage Daten, sowohl von Maschinen als auch von Menschen – und zwar durchaus sensible, personenbezogene Daten – gesammelt, gespeichert und verarbeitet werden.

Sie erahnen die Macht der Daten, fühlen sich jedoch ausspioniert und Großkonzernen wie Google, Amazon oder Facebook machtlos ausgeliefert. Sie haben Angst vor Kontrollverlust, Manipulation, dem gläsernen Menschen und vor festgelegten Standards und Normen, an denen jeder gemessen wird. Dabei stellt sich erstmal die Frage: Was steckt eigentlich genau hinter dem Schlagwort Big Data?

Big Data = Volume, Variety, Velosity, Value

Diese vier Vs fassen Big Data zusammen: Riesige, meist unstrukturierte Datenmengen aus unterschiedlichen Datenquellen werden in Echtzeit miteinander in Beziehung gesetzt, um Muster und Zusammenhänge zu erkennen. Aus dieser Analyse erlangt man Erkenntnisse über die Vergangenheit und kann Prognosen für die Zukunft erstellen, um dadurch einen Wissens-Mehrwert zu erzielen. Durch den Einsatz von Big Data erfährt man: Was ist passiert? Warum ist es passiert? Was wird in Zukunft passieren, wenn man die analysierten Daten „weiterspinnt“ und welche Handlungsempfehlungen gibt es?

Wer will DARAUF verzichten? – Darauf KANN ein Unternehmen heutzutage nicht mehr verzichten. Der Mehrwert durch Wissensvorsprung ist nicht zu leugnen. Die Frage ist aus diesem Grund lediglich: WIE setzen Unternehmen Big Data ein? Ein sinnvoller Ansatz, um die erhitzten Gemüter zu beruhigen, ist in jedem Fall Aufklärung und Transparenz. Woher kommen die gefürchteten Vorhersagen eigentlich? – Es ist die algorithmische Entscheidungsfindung.

Algorithmen – Grundlage künstlicher Intelligenz

Big Data-Analysen und -Vorhersagen basieren auf Algorithmen. Dabei handelt es sich – kurz gesagt – um eine Rechenvorschrift. Diese wird programmiert und der Programmierung liegt verständlicherweise stets ein bestimmtes Interesse zugrunde – wirtschaftlicher oder politischer Art. Anders ausgedrückt: Algorithmen werden von „interessierten Vorannahmen gelenkt“. (Stegemann) Durch die Analysen wird eine statistische Normalität konstruiert und somit auch mit Vorannahmen und letztendlich mit Werturteilen gefüttert.

Das Besondere bei Big Data-Algorithmen liegt – neben den beschriebenen vier Vs – in der Nutzung Neuronaler Netze. Mit ihrer Hilfe bringt man dem Computer bei, unvoreingenommen wie ein Kind zu lernen. Ein hoch entwickelter Algorithmus (Deep Learning) kann sich dabei sogar selbst optimieren, das heißt, er lernt selbständig dazu. Dadurch werden ganz neue Verknüpfungen zwischen Informationen hergestellt, die es zuvor noch nicht gab.

Dies bringt jedoch folgende Verantwortung mit sich: Wenn ein Algorithmus selbständig Entscheidungen trifft, sollten diese unseren ethischen Vorstellungen entsprechen. Das bedeutet, dass der Algorithmus unsere ethischen Standards kennen muss. Programmierer müssen dem Algorithmus somit auch ethisches Verhalten beibringen. Dies sollte allen Beteiligten bewusst sein und bei der Softwareentwicklung von Anfang an berücksichtigt werden.

Brauchen wir eine Algorithmen-Ethik?

Seit längerem gibt es eine interessante Kontroverse um digitale Ethik und die sogenannte Algorithmen-Ethik. Ob die algorithmische Entscheidungsfindung nach ethischen Parametern erfolgt, kann man nur beurteilen, wenn die Parameter der Entscheidungsfindung bekannt sind. Diesen Einblick haben aber zumeist nur die sie entwickelnden und einsetzenden Unternehmen selbst. Eine Selbstverpflichtung der Unternehmen, Algorithmen offenzulegen, wird als unrealistisch eingestuft. Und selbst wenn man Einblick in die Algorithmen hätte: Wer versteht die kryptischen Programmierzeilen? Unternehmen müssten sie erst einmal für jeden verständlich „übersetzen“.

Ähnlich verhält es sich mit den ellenlangen Datenschutzerklärungen, die man als Nutzer akzeptieren muss, dessen Inhalt aber nur die wenigsten wirklich begreifen. Hier klaffen Theorie und Praxis auseinander, denn dem Internetnutzer ist auch nicht wirklich damit geholfen, dass er gesetzeskonform darüber informiert wird, was mit seinen Daten geschieht, wenn eigentlich offensichtlich ist, dass er es überhaupt nicht versteht. Nur die wenigsten setzen sich wirklich damit auseinander, was sie bereitwillig – weil notwendig – durch Anklicken bestätigen.

Fazit

Big Data ermöglicht einen Wissensgewinn in einer Bandbreite, die kein Mensch erfüllen kann. In den letzten 50 Jahren standen die Analyse- und Vorhersageverfahren, die Speicherkapazitäten, Datenquellen und Rechnerleistungen nur einem kleinen Kreis auserwählter Spezialisten zur Verfügung. Dank Open Source und Infrastructure as a Service (IaaS) ist der Einsatz von Big Data-Technologien heutzutage nicht nur für Großkonzerne, sondern für jedes Startup und Pilotprojekt zugänglich und nutzbar.

Hier liegt eine große Chance, nicht nur für Unternehmen, die ihre Geschäftsprozesse optimieren und neue Geschäftsmodelle entwickeln können, sondern für jedermann: Individualisierte Suchergebnisse erleichtern den Umgang mit der unendlichen Informationsflut im Netz und neue Produkte sind auf die Lebensgewohnheiten und Ziele der Menschen abgestimmt. Die Softwarearchitekten und Entwickler kommt durch den Einsatz von Big Data eine tragende Rolle zu. Eine offene Debatte über die Verantwortung der programmierenden Entwickler ist deshalb notwendig.

Es gilt das Bewusstsein der Entwickler für die Folgen algorithmischer Entscheidungen zu sensibilisieren, gegebenenfalls zu schaffen und dies dann auch in einer verständlichen, transparenten Form zu kommunizieren. Insgesamt sollten sich alle an Big Data-Einsätzen Beteiligten mit ethischen Fragen auseinandersetzen. Bei der sogenannten Algorithmen-Ethik geht es letztendlich um nichts Geringeres, als „um eine Demokratisierung von Wissen und Kontrolle“ und darum, mitzuentscheiden, „was und wer unser Leben berechnet und kontrolliert“. (Stegemann)

Welche Handlungsmacht sprechen wir Algorithmen zu? Und daraus ergibt sich auch die Frage: Wer hat das letzte Wort: Mensch oder Maschine? – Diese provozierende Frage kann jedoch insofern entschärft werden, als dass bedacht werden muss: Die Maschine – also die Software – ist vom Menschen programmiert. Wenn dabei von Anfang an ethische Maßstäbe berücksichtigt werden, beruhen die vom Algorithmus getroffenen Entscheidungen immer auf menschlichen Kriterien. Und es bleibt auch stets die Entscheidung von Menschen, ob die Software am Ende eines Entscheidungsprozesses eingesetzt wird, oder „Vorarbeiten“ leistet.

Lesen Sie auch Teil 2/3: „Trägt der Gesetzgeber die Verantwortung für einen ethischen Einsatz von Big Data?“ und Teil 3/3: „Schützen Unternehmen unsere Privatsphäre oder müssen wir das selber tun?“ Die Artikel thematisieren die rechtliche Seite, die Verantwortung jedes Einzelnen im Umgang mit persönlichen Informationen sowie die Unternehmensseite der Software entwickelnden, aber auch der Software einsetzenden Unternehmen.

Durch Big Data werden Visionen Wirklichkeit! Unsere neueste Vision ist die AUTONOME STELLENANZEIGE. Lassen Sie sich begeistern und nehmen Sie mit uns Kontakt auf, wenn auch Sie sich für Data Driven Recruiting und für unsere Recruiting-Software persy oder die Dienstleistungen unserer Recruiting-Agentur pergenta interessieren!

Quellen

Gummadi: Herstellung von Transparenz für algorithmische Entscheidungen in Social Computing-Systemen

Stegemann: Algorithmen sind keine Messer

v. Heyl: Entscheidungsmacht von Algorithmen: Mensch versus Algorithmus

Friederike von Hülsen
Friederike von Hülsen betreut Marcos Recruiting Blog von GermanPersonnel und unterstützt das Social Media Team. Neben dem Schreiben eigener und dem Redigieren fremder Texte plant die Geisteswissenschaftlerin auch die Blog-Themen und organisiert Beiträge von Gastautoren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.