Meinungsmacher und Datensammler
Digitalisierung gestalten

"Lassen Sie nicht andere Ihre Welt gestalten"

Die Veranstaltung "Meinungsmacher und Datensammler – Wie beeinflusst das Netz unsere Gesellschaft?" informierte und rüttelte auf.

Das Netz beeinflusst unser aller Leben in einem Ausmaß, das vielen gar nicht bewusst ist. Diese Tatsache führten Bürgerrechtlerin, Publizistin und Ökonomin Katharina Nocun und Prof. Dr. Angelika Beranek von der Hochschule München eindrücklich vor Augen. Aber: Wir dürfen Digitalisierung nicht einfach geschehen lassen, sondern sollten sie aktiv gestalten. Diesen Appell von Prof. Beranek nahmen die Gäste am 29. März 2019 aus der Münchner Landesgeschäftsstelle mit.

Digitaler Wandel bietet viele Chancen, hat aber auch Gefahren

"Die Digitalisierung steht nicht erst am Anfang, sondern ist auch in der Sozialen Arbeit schon gelebte Realität", betonte Margit Berndl, Vorstand Sozial- und Verbandspolitik des Paritätischen in Bayern, in ihrer Begrüßung. Es sei wichtig, sich umfassend zu informieren, um den Wandel mitgestalten und für sich nutzen zu können. Einen Beitrag dazu will das Projekt "Digitalisierung gestalten" leisten, in dessen Rahmen die Veranstaltung stattfand.

Der digitale Wandel bietet viele Chancen, etwa für vereinfachte und schnellere Kommunikation, Vernetzung und Organisation – auch für den Bereich der Sozialen Arbeit. Aber er birgt auch Gefahren, zum Beispiel dadurch, dass Algorithmen und "Nudging" (Stupsen von User*innen in eine bestimmte Richtung), auf der Basis von Datenanalysen Entscheidungen beeinflussen – in der Regel unbemerkt. Dies kann gezielt eingesetzt werden, um Menschen zu manipulieren, in ihren politischen Einstellungen, aber insbesondere auch im Hinblick auf ihr Konsumverhalten.

Digitale Souveränität als Bildungsziel

Sich des Einflusses von Algorithmen und digitalen Medien, die unser ganzes Leben durchdringen, bewusst zu sein und deren Funktionsweise zu verstehen, sei eine wichtige Voraussetzung dafür, selbstbestimmt leben und die Gesellschaft mitgestalten zu können, erläuterte Prof. Dr. Angelika Beranek in ihrem Vortrag "Meinungsfreiheit im Netz – Algorithmenbasierte Entscheidungen vs. Psychologische Effekte". Dies müsse auch in der Bildung berücksichtigt werden, indem digitale Souveränität vermittelt und nicht nur Informatiker*innen für die Industrie ausgebildet würden.

Stattdessen sei eine interdisziplinäre Herangehensweise erforderlich: "Programmierer sprechen nicht die Sprache der Sozialen Arbeit. Wir brauchen in der Sozialen Arbeit selbst 'Code Literacy'. Bei der Fallanalyse könnten beispielsweise Algorithmen helfen, die auf Erfahrungen von Sozialarbeiter*innen basieren. Diese Algorithmen müssten dann aber eben auch gemeinsam mit Expert*innen aus der Sozialen Arbeit programmiert werden. Die so genannte 'Predictive social work' wird auf uns zukommen. Wir sollten selbst bestimmen, wie sie ausgestaltet wird."

Es müsse das Motto gelten "Keine Bildung ohne Medien", forderte Prof. Beranek. Bei der Vermittlung von Programmierkenntnissen müssten immer ethische und rechtliche Aspekte mitgedacht werden. Eine Forderung, die der Paritätische direkt an die Staatsregierung im Rahmen der Stellungnahme zur geplanten Einführung von Informatikunterricht als Pflichtfach an Mittelschulen weitergeben konnte.

„KI zementiert gesellschaftliche Vorurteile und Stereotypen“

Die Notwendigkeit digitaler Souveränität unterstrich Prof. Beranek mit eindrucksvollen Beispielen: "Algorithmen basieren immer auf einem bestimmten Menschenbild – nämlich auf dem, das der- oder diejenige besitzt, der die Handlungsanweisung programmiert."

So gäbe es beispielsweise Diskussionen darüber, dass autonom fahrende Autos rassistische Züge haben könnten, etwa wenn sie so programmiert seien, dass sie besser helle Haut erkennen. Auf Daten basierende Algorithmen seien meist genauso wenig objektiv. So nutze Amazon einen Algorithmus, um Bewerbungen zu filtern, der vor allem Männer für technische Jobs auswähle, da diese in der Vergangenheit die Mehrheit der Jobs erhalten hätten.

Auch unsere Selbstbild werde zunehmend durch digitale Medien geprägt. "Die meisten Jugendlichen haben sich mittlerweile häufiger auf Selfies gesehen als im Spiegel", bemerkte Prof. Beranek. "Bei Selfies werden immer mehr Filter eingesetzt. Bei einigen Smartphones sind automatisch Filter eingebaut. Selbst auf dem Display sehen wir uns also nicht mehr ungefiltert." Die Folgen für die Selbstwahrnehmung seien fatal, insbesondere da die Filter von Vorstellungen westlicher Schönheit geprägt seien.

Die Konstruierbarkeit von Medienwahrheiten

Können wir uns im Netz umfassend informieren oder bekommen wir nur einen Ausschnitt der Realität mit? Prof. Beranek erklärte, dass die These von Filterblasen wissenschaftlich umstritten sei. Es gäbe jedoch durchaus Möglichkeiten, Meinungen gezielt zu beeinflussen: "Social Bots nutzen die Konstruierbarkeit von Medienwahrheiten. Weil ein Bericht von einer Quelle stammt, der ich vertraue, halte ich ihn für wahr."

Viele Meldungen würden beispielsweise über Bekannte verbreitet. "Da man die Person kennt, die es einem schickt, glaubt man es eher." Generell würden emotional aufgeladene Inhalte, vor allem negativer Art, häufiger geteilt. "Soziale Organisationen sollten sich gut überlegen, ob und wie sie diese Logik nutzen wollen und können, um mehr Aufmerksamkeit für ihre Inhalte zu erhalten."

Datensammeln: Wie viel wollen wir von uns preisgeben?

Den Umgang mit den eigenen Daten kritisch zu hinterfragen, regte Katharina Nocun im Vortrag zu ihrem Buch "Die Daten, die ich rief – Wie wir unsere Freiheit an Großkonzerne verkaufen" an. In einer Art Selbstversuch konsumierte sie bei Amazon und im Supermarkt unter Nutzung eines Bonusprogramms Produkte, die in Kombination auf bestimmte Vorhaben oder ein bestimmtes Persönlichkeitsprofil schließen lassen könnten. Anschließend nahm sie von ihrem Recht auf Kopie der gesammelten persönlichen Daten Gebrauch. Von Amazon erhielt sie eine CD, die ausgedruckt einen riesigen Papierberg produziert hätte. Und auch der Anbieter des Bonusprogramms hatte minutiös jedes gekaufte Produkt aufgeführt.

"Einige sagen nun: Ich habe nichts zu verbergen", gibt Katharina Nocun wieder. Einige würden es sogar als Vorteil ansehen, wenn sie personalisierte Werbung erhielten. "Empfinden wir Privatsphäre etwa nicht mehr als unser gutes Recht?" Ganz abgesehen davon, dass mit den durch das Datensammeln erstellten Profilen Kauf- und auch politische Entscheidungen manipuliert werden könnten, habe doch immer noch jede*r Recht auf einen geschützten privaten Raum.

Datensammeln: Grundlage für individualisierte Versicherungsverträge

Und wie wird Datensammeln im Sozial- und Gesundheitsbereich genutzt? Es gäbe ein großes Interesse in der Versicherungsbranche an Daten über den Lebensstil von Versicherten etwa mit Hilfe von Schrittzählern oder elektrischen Zahnbürsten, die Dauer und Häufigkeit des Zähneputzens messen, berichtete Katharina Nocun. "So könnten Versicherungen individualisierte Tarife anbieten." Je nachdem, wie gesund man lebe, werde es teurer oder günstiger.

Was erstmal gerecht klinge, zementiere bei genauem Hinsehen soziale Ungerechtigkeit. Diejenigen, die sich ein gesundes Leben leisten können, würden bevorzugt. "Man stelle sich eine Alleinerziehende vor, die wie wild in der Wohnung auf und ab läuft, um auf die Schrittvorgabe zu kommen, die sie mangels Zeit nicht durch Sport erzielen kann."

Aufklärung 2.0: Ausgang aus digitaler Unmündigkeit

Was sollte man also tun, um Daten zu schützen? "Wir dürfen uns nicht in die Opferrolle drängen lassen, sondern müssen für den Schutz unserer Daten kämpfen. Etwa, indem Datenschutz Standardeinstellung bei sämtlichen Anbietern wie Facebook, Windows etc. wird." So lange das nicht erreicht sei, müssten wir selbst sämtliche Einstellungen umstellen und möglichst alternative Anbieter nutzen. "Im sensiblen Bereich der Sozialen Arbeit würde ich niemals WhatsApp nutzen. Es gibt gute Alternativen", riet Nocun.

Festzuhalten bleibt: Digitalisierung ist eine riesige Herausforderung. Wir müssen uns in der Sozialen Arbeit weit mehr als bisher geschehen mit ihr auseinandersetzen. Nur so können die Risiken begrenzt und die Chancen genutzt werden.

Weitere Informationen zum Thema

Vortrag von Prof. Berank auf der fraMediale 2018 Mit Robotern für Menschenrechte (Video)