Portraitfoto Michael W. Bader

© Foto: Alina Bader

11 Dez Der Ubuntu-Algorithmus

Wege aus der KI-Falle –

(Update)

Die vorhergehenden Arbeiten des Verfassers unter den Titeln „Ein Versuch gegen Monopolismus und Libertarismus“1 sowie „Herrschaft der Algorithmen“2 befassten sich mit dem ausufernden wirtschaftlichen Herrschaftsanspruch der neuen Hightech-Giganten aus Silicon Valley ebenso wie mit „Künstlicher Intelligenz“ (KI) und potentiellen Gefahren, die von einem unkontrollierten Einsatz dieser Technologien ausgehen. Der vorliegende Text setzt auf den vorhergehenden Überlegungen auf – ist aber auch aus sich heraus verständlich – und befasst sich neben erforderlichen Aktualisierungen vor allem mit der Frage nach einer gemeinwohlorientierten Verwertung und Kontrolle der neuen KI-Technologien.

(Dies ist eine überarbeitete und erweiterte Fassung des gleichnamigen Essays vom Dezember 2017.)

Moderne Künstliche Intelligenz basiert u. a. auf den Forschungen von Geoffrey Hinton und sogenannten „Neuronalen Netzen“3, die Gehirnstrukturen abbilden und sich durch zwei Merkmale auszeichnen, nämlich Mustererkennung und Prognoseerstellung. Mustererkennung und Prognoseerstellung sind ideale Bausteine für den Einsatz Künstlicher Intelligenz in der Wirtschaft. Von der Gesichts- und Stimmungserkennung bis zur mobilen Werbeschaltung aufgrund punktgenauer GPS-Positionsdaten im Drogeriemarkt, genau bei dem richtigen Regal mit der betreffenden Ware, von der Ermittlung des richtigen Moments für Werbeeinblendungen bei Online-Spielern, bis zur Spielertypen-Erkennung bei Offline-Gamblern im Spielcasino, immer geht es um die gleiche Problematik: Zum Preis einer immer weiter perfektionierten Totalüberwachung mit anschließender KI-Bearbeitung können gewaltige Geschäfte gemacht werden.

KI-Instanzen haben größten Einfluss auf das internationale Finanzmarkt­geschehen, aktuelle Schätzungen gehen davon aus, dass circa 70 Prozent aller Finanztransaktionen in den USA von Algorithmen gesteuert werden.4 KI-Instanzen entscheiden über Personaleinstellungen, Bankkredite und den Abschluss von Versicherungspolicen sowie vieles andere mehr.

Abgesehen davon, dass es höchst fragwürdig erscheint, derartige Entscheidungen Algorithmen zu überlassen, besteht ein großes Problem bei den hier eingesetzten selbstlernenden Algorithmen darin, dass der Mensch die einzelnen Schritte im Rechenprozess nicht mehr nachvollziehen kann. Denn so, wie sich das menschliche Gehirn beim Lernen verändert, so verändert sich auch das digitale System, wenn es neue Daten und Informationen erhält.

Außerdem können Fehler gemacht werden. Es kann an jeder einzelnen Verzweigung der Programm-Codes zu Fehlern kommen, und in einem algorithmischen Entscheidungssystem gibt es Tausende von Weggabelungen. Und am Ende kategorisieren die Maschinen Menschen und vergeben Bewertungen über Kreditwürdigkeit, Straffälligkeit, Versicherbarkeit etc.; dabei können selbst die eigenen Entwickler des Programms oft nicht erklären, wie es zu einer bestimmten Entscheidung gekommen ist. Familie Müller jedenfalls hat keine Finanzierung für das neue Eigenheim erhalten! Dies ist primär ein technisches Problem – sagen vor allem die Techniker –, aber es ist eben auch ein soziologisches Problem!

Noch dramatischer allerdings als der Einsatz Künstlicher Intelligenz in der Wirtschaft ist die Verbindung von KI und Politik, dies zum Beispiel bei Facebook. Bekanntlich arbeitet dieses Social-Media-Schwergewicht nach dem Prinzip der Sympathiebekundungen, den sogenannten Likes. Hierbei ist nur interessant, dass sich anhand dieser Likes höchst persönliche Merkmale des betreffenden Nutzers errechnen lassen. Das entsprechende Forschungsgebiet ist die Psychometrie, eine Methode, die Persönlichkeit eines Menschen zu vermessen und zu kategorisieren.

Ein ausgewiesener Experte auf diesem Gebiet ist Michal Kosinski. Er lehrt in Cambridge und erbrachte bereits 2012 den Beweis, dass über statistische Analyseverfahren anhand der Likes von seinerzeit 58.000 Probanden sensible Daten mit Details aus deren Leben ermittelt werden konnten. Über durchschnittlich 68 ausgewertete Likes konnten recht hohe Trefferquoten erzielt werden, die eine Unterscheidung in männliche und weibliche User sowie in Christen und Muslime, ebenso wie zum Beispiel auch die Zugehörigkeit zu den Demokraten oder den Republikanern ergaben, und dies mit Trefferraten von über 80 Prozent.5

Dieses Wissen wird nunmehr vermehrt auch zur hochpräzisen Zielgruppen-Ansprache von Konsumenten sowie Wahlbürgern eingesetzt. Psychometrische Daten können gemeinsam mit Daten von Informationshändlern wie Acxiom6 sowie Informationen aus Telefonbüchern oder ganz einfach direkt von Facebook bezogen für eine möglichst individualisierte Ansprache der Bürger Verwendung finden: „Jedem Wähler seine individuelle Botschaft.“ KI braucht man in diesem Falle, um die riesigen Datenmengen aus eigenen Adressbeständen, zugekauften Informationen, selbst erhobenen Daten, psychometrischen Daten etc. überhaupt handhabbar zu machen, und vor allem, um gemeinsame Muster in den riesigen Datenmengen zu ermitteln.

Eine Firma, die sich damit brüstete, die Wahl von Donald Trump zum US-amerikanischen Präsidenten massiv beeinflusst zu haben, ist Cambridge Analytica7, ein mittlerweile pleitegegangenes Beratungsunternehmen, in dessen Vorstand Steve Bannon saß, der damalige Herausgeber des ultrarechten Online-Portals „Breitbart News“. Früher nur für Experten ein Begriff, ist Cambridge Analytica wegen des Datenskandals um Facebook-Nutzerdaten recht bekannt geworden. Insgesamt waren etwa 87 Millionen Nutzer vom Facebook-Datenskandal betroffen, 310.000 davon aus Deutschland.8 Und wie sich später herausstellte, könnten insgesamt noch deutlich mehr als 87 Mio. Nutzer betroffen gewesen sein. 9

Wegen des exemplarischen Charakters des Vorgangs folgt kurz der Ablauf des Skandals: Am 03.12.16 berichtete die schweizer Zeitschrift „Das Magazin“ über die Arbeit von Kosinki und rückte diesen in die Nähe potentieller Wahlmanipulation im Kontext der Trump-Wahl. Dieser verteidigte sich in dem betreffenden Interview im „Magazin“ damit, dass er die Bombe nur entdeckt, nicht aber gezündet habe. Psychometrie ja, Wahlmanipulation nein!10

Nun war Kosinki interessanterweise seinerzeit von dem heutigen Cambridge-Analytica-Whistleblower Christopher Wylie wegen einer Zusammenarbeit angesprochen worden, was dieser jedoch ablehnte. Wylie ging daraufhin zu Alexander Kogan, einem Kollegen von Kosinski, der auch unter dem Namen „Spectre“ publizierte und in die Zusammenarbeit einwilligte. Kogan kupferte in der Folge kurzerhand Kosinskis Psychometrie-Modell und gleich auch noch dessen dazugehörige Sammel-App „mypersonality“ ab und ließ sich anschließend bei Facebook als App-Entwickler zu wissenschaftlichen Zwecken akkreditieren.

Über eine hierfür vorgesehene Entwicklerschnittstelle platzierte Kogan nun seine Version der Datensammel-App unter dem Namen „this is your digital life“ und konnte auf diesem Wege 270.000 freiwillige User als Mitwirkende seines Persönlichkeitstests gewinnen. Über genau diese 270.000 Teilnehmer seines Tests konnten nun – durch die Facebook-Datenstruktur – insgesamt 87 Mio. Profile ausgelesen werden, die als Freunde der Freunde im FB-Universum verdatet waren, darunter 300.000 deutsche User.

All dies geschah im Auftrag von Cambridge Analytica, die dafür 800.000 $ an die Datensammler bezahlten. Cambridge Analytica, ein Tochterunternehmen der SCL-Group, war eigens zum Zweck der Wahlkampfunterstützung von dem ultrarechten Milliardär Mercer und dessen Tochter Rebekah gegründet und mit 15 Mio. $ ausgestattet worden, Geschäftsführer war der mittlerweile abgesetzte Alexander Nix.11 Über die beschriebenen Daten-Sammlungen wurden ab 2015 entsprechende Kampagnen von Cambridge Analytica umgesetzt, wie Wahlkampfunterstützungen z. B. für Ted Cruz, den rechten Republikaner aus Texas, der einen ordentlichen Vorwahl-Erfolg in kurzer Zeit abliefern konnte und als einer der letzten Konkurrenten zu Trump im Rennen verblieb.12 13

Nachdem 2015 durch den Guardian die Aktivitäten von Cambridge Analytica, wie z. B. genannte Wahlkampfunterstützung für Ted Cruz, offiziell bekannt wurden,14 griff Facebook im Dezember 2015 ein und entzog Kogan und Co. sämtliche Zugangsrechte und verordnete die komplette Löschung aller erhobenen Daten. Daten, die allerdings bis heute nicht gelöscht wurden und die kürzlich vom Observer und von der New York Times eingesehen werden konnten.15 Facebook, bekannt für sorglosen Umgang mit dem Thema Datenschutz, hatte die Löschung nicht überprüft und keinerlei Anstrengungen zum Schutz der Userdaten unternommen.

Und so nahm im März 2018 das Finale des Datenskandals seinen Lauf. Enthüllungen des britischen TV-Senders Channel 4, auch mit versteckter Kamera dokumentiert, belegen aberwitzige Prahlereien des Cambridge-Analytica-CEO Nix zum versuchten Wahlbetrug mit allen Mitteln.16 Aus verständlichen Gründen musste Alexander Nix umgehend abgesetzt werden, es gab spektakuläre Hausdurchsuchungen und schließlich den lautlosen Konkurs der Firma. Rebekah Mercer und Technologiechef Alexander Tayler, ebenso wie weiteres Personal, wurden bei einer entsprechenden Nachfolge-Firma mit Sitz an der ehemaligen Adresse des bisherigen New Yorker Büros von Cambridge Analytica untergebracht.

Dass es sich bei der Arbeit von Cambridge Analytica um völlig undiskutable Geschäftspraktiken gehandelt hat, dürfte mittlerweile jedem klar geworden sein, offen allerdings bleibt die Frage, welche Rolle eigentlich Facebook bei der Sache gespielt hatte. Wurden tatsächlich Userdaten gehackt, handelt es sich um den vielbeschworenen Datenmissbrauch? Wie es scheint, fand fast alles im Rahmen der Facebook-Richtlinien statt, welche die Zusammenarbeit mit App-Entwicklern, Wissenschaftlern und sonstigen Partnern regeln.

Es handelt sich also nicht um das vielbeschworene Datenleck, also um einen beklagenswerten Missbrauch der Daten, sondern um den Einsatz eines Facebook-Features, welches zumindest bis 2015 auch das Absaugen von Informationen über Freunde von Facebook-Nutzern ermöglicht hatte.17 Abgesehen von dem Verkauf der durch Kogan erhobenen Daten an Cambridge Analytica und deren Weigerung, die Daten schlussendlich zu löschen, fand alles auf völlig legalem Wege statt.

Das Ausspionieren von Nutzer­daten, das Entwickeln von Nutzerprofilen, die Kategorisierung der Menschen in vermarktbare Zielgruppen, all dies ist das erfolgreiche Geschäfts­modell von Facebook, womit jeden Tag unglaubliche Gewinne erwirtschaftet werden.

Natürlich gibt es geeignete Schnittstellen für Drittanbieter, die sich entsprechender Informationen bedienen und dafür einen entsprechenden Anteil ihrer Erträge wieder an Facebook abgeben und so deren Profit weiter vergrößern, der z. B. in 2017 bei einem Umsatz von 40,65 Mrd. $ und einem Gewinn in Höhe von 16 Mrd. $ Gewinn lag.18

Eigentlich sollte es jedem klar sein: Die scheinbare Gratis-Dienstleistung von Facebook wird mit den Daten der User bezahlt, dies ist die Währung, mit der wir das größte soziale Netzwerk jeden Tag bezahlen.

Natürlich – und da hatte Zuckerberg bei seiner Senatsvorsprache recht – werden Nutzerdaten nicht einfach an andere Werbetreibende verkauft, sondern es wird der Zugang zu entsprechenden Nutzerprofilen vermietet, rein wirtschaftlich gesehen war und ist die Facebook-Datenweitergabe an App-Entwickler sogar eine potenzielle Gefahr für das eigene Geschäftsmodell, ein Modell, mit dem ansonsten auch die ungewöhnlichsten Nutzergruppen erschlossen werden können.19

So war es z. B. möglich, eine Zielgruppe „Judenhasser“ aufgrund von Nutzerangaben zu identifizieren und entsprechend zu adressieren.20 Sicher geschah dies in diesem Fall ohne Wissen und Billigung des Unternehmens Facebook, welches dieses „Feature“ nach Bekanntwerden zwar abschaltete, allerdings – wegen der eingesetzten selbstständig arbeitenden Algorithmen – den Vorgang offensichtlich nicht verhindern konnte. Auch hier spielen also die Algorithmen eine entscheidende Rolle, weil diese überhaupt erst ermöglichen, entsprechende Zielgruppen automatisch zu identifizieren, und ohne entsprechende Kontrolle durch Facebook abrufbar machen. Und genau darin liegt das Facebook-Geschäftsmodell, nämlich in der Aufzeichnung, Bevorratung und Verwertung von privaten Nutzerdaten.21

Ein Geschäftsmodell, welches im Übrigen auch nach der jüngsten Affäre konsequent weiter ausgebaut wird. So wird in Zukunft nicht nur User-Info über vorhandene Persönlichkeitsmerkmale für Werbezwecke verfügbar sein, sondern es wird über ein kürzlich angekündigtes neues Werkzeug namens „FBLearner Flow“ eine besonders ausgefeilte Künstliche Intelligenz verfügbar werden, die eine Hochrechnung zukünftiger Entscheidungen ermöglichen wird, inklusive Features wie „Loyalty-Prediction“ und „Protective-Surveillance“.22

Außerdem ist die Empörung von Facebook bezüglich politischer Manipulations­bemühungen durch Cambridge Analytica sowieso höchst scheinheilig, weil Facebook selbst auf seinen Online-Success-Story-Seiten über Erfolge bei politischen Kampagnen geprahlt hatte, z. B. über die Erfolge des republikanischen Gouverneurs von Florida, Rick Scott, oder die Kampagnen der Scottish National Party, bei denen Facebook sehr erfolgreich und mit „erdrutschartiger“ Wirkung mitgemischt haben soll. Success-Stories, die allerdings im Zuge des Cambridge-Skandals, von der offiziellen Facebook Seite entfernt wurden.23 24

Bleibt die Frage, ob es bei dem Cambridge-Analytica-Spektakel nur um Prahlerei ging oder ob tatsächlich etwas bewirkt werden konnte. Tatsächlich gibt es keine wirklichen Beweise, dass Cambridge Analytica tatsächlich wahlentscheidend agieren konnte,25 dass allerdings Micro-Targeting grundsätzlich funktioniert, ist unumstritten und wurde nicht zuletzt durch die jüngste Studie von Kosinki und Co. z. B. im Bereich Kosmetik erneut nachgewiesen. Es wurde die unglaubliche Steigerung von 50 % mehr Verkäufen bei gezieltem Einsatz von Micro-Targeting nachgewiesen.26 Die Wirksamkeit von Micro-Targeting in der Werbung kann darüber hinaus z. B. auch durch eine wirkungsvolle Mini-Kampagne belegt werden, welche 2017 in Zusammenarbeit mit dem Wirtschaftspsychologen Prof. Joost van Treeck von der Fresenius-Hochschule Hamburg gestaltet wurde. Entsprechende auf die jeweiligen potentiellen Käufer abgestimmte Anzeigenprofile brachten bis zu 200 % mehr Conversion Rates.27

Dass nun über die Produktwerbung hinaus über gezielte Wähleransprache auch die Beeinflussung von Wahlen und Abstimmungen möglich ist, scheint sehr wahrscheinlich und kann z. B. durch zielgenaues Schalten von Anzeigen („Ads“) bei Facebook und sonstigen Kanälen bewirkt werden, ebenso wie z. B. durch perfekt vorbereitete und ständig rückgekoppelte Hausbesuche bei den Wählern vor Ort. Beliebtes Vorgehen ist hier, durch gezielte Werbung an bestimmte Personengruppen mit entsprechenden Inhalten, Wähler vom Urnengang abzuhalten, um so auf den Wahlausgang Einfluss zu nehmen.

Bedenklich bei diesen Vorgängen ist vor allem die Tatsache, dass User durch ihre Mitwirkung an Sozialen Netzen – ohne dies zu wissen – persönliche Informationen zugänglich machen, welche zur Einflussnahme auf deren Kauf- und Wahlentscheidung herangezogen werden können. Sicherlich entscheidet nicht Micro-Targeting allein über den Ausgang von Wahlen, aber es ist sicher ein wichtiges Werkzeug aus einer ganzen Reihe von Einflussmöglichkeiten, welches an Bedeutung weiter gewinnen wird.

Wenig überraschend brechen die Meldungen um Facebook-Datenmissbrauch nicht ab und Facebook weist selbst darauf hin, dass ca. 200 Apps mit ähnlichen Funktionen unlängst suspendiert wurden, ohne allerdings diese beim Namen zu nennen.28 Außerdem verweist Facebook in seiner Antwort auf die Fragen des US-Repräsentanten­hauses darauf hin, dass es in den vergangenen Jahren Daten seiner Nutzer mit 52 Unternehmen geteilt hat, wie die Washington Post berichtet.29

Und so zieht die Facebook-Datenaffäre immer weitere Kreise, unlängst wurde das kanadische Unternehmen AggregateIQ von der Plattform ausgeschlossen, welches laut „Guardian“ im Brexit-Wahlkampf mit der „Vote-Leave“-Kampagne zusammengearbeitet hatte und vom derzeitigen britischen Außenminister Boris Johnson für 6,8 Millionen Pfund engagiert worden war. Das Unternehmen prahlte noch bis vor kurzem mit einem Zitat des Vote-Leave-Wahlkampfleiters Dominic Cummings: „Ohne Zweifel schuldet die Vote-Leave-Kampagne einen großen Teil ihres Erfolgs der Arbeit von AggregateIQ, ohne sie hätten wir es nicht schaffen können.“30

Nach AggregateIQ wurde mit der Firma CubeYou ein weiteres Datenanalyse-Unternehmen von Facebook suspendiert. Nach eigenen Angaben hatte diese in Kalifornien ansässige Firma Zensusdaten und verschiedene Apps auf Facebook und Twitter dazu genutzt, um persönliche Informationen von Nutzern zu sammeln, die von mehr als 1.500 Werbefirmen verwertet wurden.31

Welche Beziehungen bei diesen beiden Firmen zu Cambridge Analytica unterhalten wurden, bleibt offen. Allerdings gibt es natürlich noch eine ganze Reihe weiterer Firmen mit einem ähnlichen Dienstleistungsangebot wie Cambridge Analytica. Hierzu gehören Civis Analytics, Clarity Campaign Labs, Blue Labs, Optimus, TargetPoint, Grassroots Consulting und i36032 und natürlich auch die ganz großen Datensammler wie Peter Thiels Firma Palantir, welche z. B. nach Aussage des Whistleblowers Christopher Wylie sehr wohl direkt mit Cambridge Analytica zu tun hatte.33

Grundsätzlich betrachtet waren alle Facebook-Daten-Skandale der Sache nach jedenfalls keine Hacks, sondern ein Weckruf hinsichtlich des heute für völlig normal angesehenen Umgangs mit persönlichen Nutzerdaten. Zur Diskussion steht die Wirtschaftsform eines übergriffigen Daten-Kapitalismus, der den großen Informationsanbietern unglaubliche Profite ermöglicht. Nach gesundem Menschenverstand beurteilt sollte keine private Firma dieser Welt über die persönlichen Daten von 2 Mrd. Nutzern verfügen und diese verwerten können, auch wenn diese Nutzer dumm genug waren, genau dem zuzustimmen! Dies gilt auch, wenn Facebook Besserung gelobt: „In der Vergangenheit sind wir unserer Verantwortung nicht immer gerecht geworden. Wir haben uns stark auf Innovationen und auf das Positive unserer Plattform fokussiert und dabei wichtigen Themen, wie der Sicherheit auf der Plattform, nicht immer genügend Aufmerksamkeit geschenkt. Aber wir hören zu. Wir lernen. Und wir handeln.“34 Nett gemeint, aber es darf einfach nicht vom guten Willen eines Wirtschafts­unternehmen abhängen, was mit unseren Daten passiert.

 

Für die Beeinflussung von Wahlen sind derzeit auch sogenannte Fake News das Mittel der Wahl, also das absichtliche Streuen von Falschmeldungen. Diese Meldungen werden so komponiert, dass sie die Funktionsmechanismen der Sozialen Netze optimal ausnutzen. Dies bedeutet, dass zum Zwecke maximaler viraler Verbreitung dort vor allem auf Reflexe wie Empörung, „gefühlte“ Wahrheit und natürlich auf Reizthemen wie Flüchtlinge, Missbrauch, Krieg und Gewalt gesetzt wird.

Die Facebook-Algorithmen befeuern wegen ihres hohen Aufmerksamkeits­potenzials gerade diese Form von Meldungen. Deshalb werden auch die schrillsten Links zu angeblichen Nachrichtenseiten, etwa zu der Ermordung des für die E-Mail-Affäre der Gegenkandidatin von Trump, Hillary Clinton, zuständigen FBI-Beamten, der vermeintlichen Wahlunterstützung Trumps durch den Papst oder gar „Hillary hat Waffen an den IS verkauft“, durch solche Algorithmen massiv verbreitet und in den Sozialen Medien entsprechend verstärkt. Vieles sicher nicht von Facebook so gewollt, aber dennoch enorm wirkungsvoll.

Neben dieser Form der Desinformation durch gezielte Falschmel-dungen stellen beim Thema Wahlbeeinflussung vor allem auch die sogenannten Social Bots ein Problem dar. Social Bots sind Software-Roboter – also Programme – die menschliches Verhalten simulieren und in den Sozialen Netzwerken wie Facebook oder Twitter interagieren können. Sie können mit echten Nutzern kommunizieren, auf Kommentare antworten und eigene Beiträge verfassen. Sie sind dabei schlau genug, für echte Menschen gehalten zu werden. Durch ihr ausgewogenes Tag-und-Nacht-Verhalten, die Auswahl an Hashtags, realistisch wirkenden Accounts mit eigenem menschlichem Profilbild, Posts und Followern, die selbst wieder anderen Nutzern folgen, fallen sie nicht als Künstliche Intelligenzen auf.

Weltweit soll es mehr als 100 Millionen Fake-Accounts35 geben, also Profile, hinter denen kein realer Mensch, sondern eben ein Bot steckt. Sie nisten sich in unseren Facebook-, Twitter-, Instagram- und Tumblr-Profilen ein und treiben dort ihr Unwesen. Eine Studie der Universität von Kalifornien zeigte, dass sich insgesamt knapp 400.000 Bots in die Präsidentschaftswahl-Debatte auf Twitter eingemischt hatten. Knapp 3,8 Millionen Tweets wurden abgegeben, was ungefähr 20 Prozent der gesamten Twitter-Kommunikation im Kontext der Wahl entspricht. Dabei fielen 75 Prozent der Tweets für Trump, 25 Prozent für Clinton aus.36 So stieg zum Beispiel der Hashtag „#Trumpwon“ sehr schnell und definitiv über Bots bewirkt in den Twitter-Trends nach oben, obwohl Presse und Meinungsforschung eher Clinton nach dem ersten TV-Duell vorne sahen.37

Und so gelten plötzlich Algorithmen-gesteuerte Trends, die sonst gar nicht entstanden wären. Genau dies ist im Kontext von Wahlen deshalb sehr bedenklich, weil hier Social Bots mit einem künstlich erstellten, falschen Meinungsbild Wähler durchaus beeinflussen können. Wähler sind offenbar durch Prognosen beeinflussbar, sie entscheiden sich oft für die Richtung, die die größte Zustimmung zu erhalten scheint. Entsteht also der Eindruck, Trump habe alle TV-Debatten deutlich gewonnen, kann das Wähler durchaus beeinflussen.

Social Bots sind damit eine Gefahr für die Demokratie. Sie erschaffen ein falsches Meinungsbild und beeinflussen, wenn auch nur indirekt, unsere Sicht auf das politische Geschehen. Sie sind vor allem auch deshalb gefährlich, weil sie durch ihre bloße Masse andere Meinungen in den Sozialen Medien verdrängen. Fake News, die sich durch Social Bots millionenfach verbreiten, verstärken die bekannte Filter Bubble38 oder Echo-Kammer, in der man nur noch dasjenige zu sehen und zu hören bekommt, was einem ohnehin vertraut ist und was man selber gerne hören möchte. Dieser Sachverhalt würde nun natürlich zu einer massiven Einschränkung der Wirklichkeitswahrnehmung der User führen, die bei der Auswahl an personalisierten Suchergebnissen bei Google beginnt und bei dem persönlichen Angebot an Facebook- und Twitter-Nachrichten nicht aufhört.39

Eine neue Studie von „Reuters Institute for the Study of Journalism“ widerspricht dieser Einschätzung und behauptet sogar, dass Social-Media-Nutzer mehr unterschiedliche Nachrichtenquellen nutzten, als Anwender, die sich nicht innerhalb Sozialer Netze bewegen. Diese Information würde die Existenz einer politisch wirksamen Filterblase in Zweifel ziehen, basiert allerdings auf einer geringen Datenlage.40

 

Unabhängig von der Frage, wie weitgehend Filterblasen den persönlichen Horizont eines Users einschränken oder in welchem Umfang evtl. doch auch weitere Informationsmedien konsumiert werden, steht fest, dass natürlich nicht Facebook, Twitter, Google oder Cambridge Analytica Donald Trump zum Präsidenten gemacht haben.41

Hier spielen viele Ursachen eine Rolle, nicht zuletzt auch das Fernsehen, welches immer noch für die Mehrheit der Amerikaner die primäre Quelle für politische Information darstellt42, ein Medium, welches Trump optimal für sich selbst einsetzen konnte. Nach einer Umfrage der Pew Foundation, einem liberalen Thinktank, war für 57 Prozent der Amerikaner das Fernsehen die mit Abstand wichtigste Quelle für politische Nachrichten, gefolgt von den digitalen Angeboten der Verlage, dem Radio, gedruckten Zeitungen und – mit 18 Prozent – den Soziale Medien und hier meistens Facebook.43

Allerdings lassen sich z. B. lt. AlgorithmWatch auch gewisse digitale Kandidatenpräferenzen für die Demokraten festmachen, und zwar bei keinem geringeren als bei dem Informationsriesen Google selbst.44 Es gab also, vielleicht politisch von den jeweiligen Systemverantwortlichen ungewollt, dafür aber umso effizienter, wirksame durch Algorithmen gesteuerte Eingriffe auch von der Seite der Demokraten. Wenn also damit nicht allein wahlentscheidend und auch nicht komplett einseitig auf Seiten der Republikaner, haben Fake News, Social Bots etc. doch eindeutig zum Ausgang der Wahl beigetragen und damit das Wahlergebnis sicher mit beeinflusst.45

Daher ging in Deutschland im Vorfeld der Bundestagswahl 2017 die Angst um, dass auch hier Bots, Fake News und anderes mehr die Wahl beeinflussen könnten. Es gab daraufhin diverse Selbstverpflichtungen der Parteien, vom KI-Einsatz im Wahlkampf abzusehen. So wurde auch eine Cyber-Taskforce zur Abwehr von entsprechenden Übergriffen eingerichtet und deshalb haben sich die Parteien wohl auch bezüglich des Einsatzes von Fake News zurückgehalten, wenn man von der AfD absieht. Diese hat mit Fake News und Social Bots im Wahlkampf umso kräftiger mitgemischt.46

Ganz offensichtlich haben rechte Kreise mit emotional aufgeladenen Themen wie Kriminalität und Flüchtlingen sowie künstlich aufgeblähter Online-Aktivität den politischen Diskurs in den Sozialen Medien massiv mitbestimmt. Dies offenbar auch unter Zuhilfenahme eines längerfristig aufgebauten rechten Bot-Netzwerks. Offenbar konnten diese Kreise sogar den Empfehlungsalgorithmus von Facebook überlisten, der ganz offensichtlich überproportional viele rechte Positionen einspielte und deshalb kurzfristig abgeschaltet werden musste.47 Falsche Freunde und falsche Nachrichten können im Übrigen relativ preiswert eingekauft werden. So können nach Recherchen des Bayerischen Rundfunks z. B. 100.000 Fake News für 269,00 € und, mit einem kleinen Nachlass, 200.000 Fake News zu 489,90 € erworben werden.48

Andererseits ergeben z. B. aktuelle Untersuchungen von Algorithm-Watch in Verbindung mit 6 Landesmedienanstalten im Kontext des „Datenspende-Projektes“ zumindest für Deutschland kaum politik-spezifische Personalisierungen bei Google-Suchanfragen. Im Gegenteil weisen die Ergebnisse von Suchen nach Politikern bei unterschiedlichen Nutzern im Wesentlichen sehr hohe Ähnlichkeit auf. Im Durchschnitt ergeben sich 7 oder 8 gleiche Ergebnisse von im Durchschnitt 9 organischen Suchergebnissen. Zwar sind die Ergebnisse von Parteien mit 5 bis 6 gemeinsamen Suchergebnissen etwas weniger ähnlich, aber auch hier bleiben nur maximal 3 Links für eine Personalisierung im Sinne der Filter Bubble übrig. Kleinere Cluster von stark individualisierten Ergebnislisten mit lediglich 2 bis 3 gemeinsamen Fundstellen zeigen keine politischen Bezüge und sind in Entstehung und Bedeutung unklar.49

Ein großes Problem besteht aber in der gezielten auf Personen zugeschnittenen Informationszuspielung in Form von nur für die Empfänger einsehbaren sogenannten „Dark-Posts“, gegen die kein Widerspruch eingelegt werden kann. Dies führt notwendig zu gesellschaftlicher Fragmentierung und damit zu weiter anwachsenden gesellschaftlichen Verwerfungen.

Insgesamt und trotz großer Anstrengungen am rechten Rand scheint die faktische Wirkung digitaler Manipulation zur Bundestagswahl 2017 allerdings noch überschaubar gewesen zu sein. Das Hauptproblem für zukünftige Wahlen und Abstimmungen besteht jedoch nach Auffassung des Verfassers ohnehin nicht nur in faktischer Manipulation durch Algorithmen, sondern vor allem auch in aufkommenden Zweifeln an der Rechtmäßigkeit demokratischer Abläufe, was notwendigerweise zu Verunsicherung und Angst führt, welche wiederum dem rechten Rand in die Hände spielt.

 

In Anbetracht potentieller und realer Manipulation in Wirtschaft und Politik durch Künstliche Intelligenz ist diese Technologie sehr deutlich zu hinterfragen, dies vor allem auch wegen immer weitergehender Anwendungen im zivilen wie auch im militärischen Umfeld. Deshalb müssen die hiermit verbundenen Chancen und Risiken für die Zivilgesellschaft gegeneinander abgewogen werden und zwar nicht nur durch die Unternehmen, die davon wirtschaftlich profitieren. Es muss vielmehr ein gesamtgesellschaftlicher Diskurs zum Thema stattfinden. Ebenso sollten möglichst rasch tragfähige Schutzmechanismen gefunden werden, wo Gefahren drohen.

Namhafte Wissenschaftler wie Nick Bostrom50 oder bekannte Unternehmer wie Elon Musk51 und Bill Gates52 mahnen eindringlich vor einer Entwicklung auf diesem Feld, die zum unkontrollierbaren Selbst-läufer mutieren könnte. Vor allem der verstorbene Stephen Hawking führt die Reihe der Warner an.53

In den letzten Jahren hat sich deshalb eine ganze Reihe von Experten mit Vorschlägen gemeldet, wie eben dieser KI-Falle begegnet werden könnte.

Dies nicht zuletzt durch:

  • Herstellung von Algorithmen-Transparenz, wie von Angela Merkel angemahnt.
  • Regelmäßige Überprüfung wichtiger Algorithmen durch einen Algorithmen-TÜV54, wie von den Verbraucherzentralen vorgeschlagen, oder/und eine neu zu gründende Aufsichtsbehörde wie von Yvonne Hofstetter gefordert: „Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“55
  • Definition von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen sowie anschließende Durchsetzung solcher Normen durch Inspektion über ein entsprechend geeignetes Beobachtungsinstitut, wie von AlgorithmWatch vorgeschlagen.56
  • Berufung von Algorithmen-Beauftragten analog den Datenschutz-Beauftragten.
  • Durchführung staatlicher Aufsicht, Regulation und Kontrolle wie von Bill Gates und Elon Musk gefordert.
  • Kontrolle von Algorithmen im Einsatz bei Google, Facebook, Twitter etc. speziell im Vorfeld von Wahlen und Abstimmungen57, am besten ergänzt durch den Vorschlag Gerald Häfners58, die Algorithmen so einzurichten, dass bei jedem zustimmenden Votum eines Users gleich eine anders lautende Meinung ebenfalls angezeigt wird, um auf diese Weise die Echokammer in ihrer Wirkung zu konterkarieren.

Bei aller Berechtigung dieser Vorschläge darf nicht davon ausgegangen werden, dass nationale oder europäische Behörden und Parlamente KI-Technik wirkungsvoll kontrollieren könnten, ohne die Nutzungs- und Verwertungsrechte der jeweiligen Hersteller zu tangieren. Es scheint im Gegenteil erforderlich, die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich neu zu definieren und gesellschaftlich vertretbare und zukunftsfähige Alternativen zu schaffen.

Ohne jeden Zweifel kann der Maßstab für den richtigen Umgang mit KI nur der Nutzen für alle Menschen und damit das Gemeinwohl sein. Daher sollte die Überführung aller wichtigen KI-Forschungsergebnisse in „Kulturelles Gemeingut“ erwogen werden. Kulturelles Gemeingut umfasst menschliches Wissen, Kulturtechniken und Kulturleistungen, Sprache, Software-Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder zum Beispiel auch das Internet und dann eben die Algorithmen-KI-Technologie.

Dies sollte schon aus den Entstehungsbedingungen solcher kulturellen Commons selbstverständlich sein, geht doch die Entwicklung solcher Gemeingüter selten auf die exklusive Leistung einzelner Urheber zurück, sondern fußt im Gegenteil auf einem über Jahrhunderte gewachsenen Schatz kultureller Errungenschaften ebenso wie auf Forschung im universitären sowie – im Falle der Künstlichen Intelligenz – auch im militärischen Bereich. Allein schon diese öffentliche Finanzierung verbietet eine rein privatwirtschaftliche Verwertung ohne jede gesellschaftliche Mitsprache. Deshalb wären der Sache nach alle KI-Forschungsergebnisse als Gemeingut anzusehen und entsprechend auto-nomen Organisationen zur treuhänderischen Verwaltung zu übertragen, um Künstliche Intelligenz als Gemeinwohl-KI in den Dienst der Vielen zu stellen, statt diese dem Profitinteresse einiger Weniger zu überlassen.

Gedacht werden könnte an eine kombinierte Schutz- und Verwal-tungslösung für KI-Technologien, die zum einen aus einer globalen Treuhandgesellschaft im Besitz aller Menschen bestünde, welche z. B. gemäß dem „American Permanent Fund“-Konzept von Peter Barnes59, dem „Alaska Permanent Fund“60 oder dem „Pacific Forest Trust“61 die Rechte an allen – zumindest systemkritischen – Algorithmen verwaltet und entsprechende Verwertungserträge aus einer kontrollierten Nutzung dieser Technologien an alle Länder ausschüttet, vorzugsweise an die armen.

Diese Schutzfunktion könnte im Weiteren in einer der UN verbundenen, jedoch autonomen Organisation realisiert werden, gemäß z. B. der „Internationalen Atom-Energie-Organisation“ (IAEO), welche die technische Kontrolle, Anwendungsüberwachung und den Schutz einer ausschließlich friedlichen Nutzung der Algorithmen sicherstellt.62

Mit einer solchen Doppelregelung, welche die Eigentums- und Verwertungsfunktion strikt von der erforderlichen Kontrollfunktion trennt, könnte der willkürlichen Privatverwertung und einem immer weniger kontrollierbaren Wirken von KI möglicherweise Einhalt geboten werden. Natürlich gilt es darüber hinaus, die ethischen Grundlagen für die Ausrichtung entsprechender Algorithmen gesellschaftlich zu diskutieren und über geeignete – vorzugsweise direktdemokratische – Verfahren gesetzlich zu verankern. Auf diese Weise kann von der Zivilgesellschaft festgestellt werden, welche Art von KI-Anwendungen gesellschaftlich überhaupt gewollt ist, welche Spielregeln für deren Einsatz gelten sollen und welche Forschungsergebnisse besonderem Schutz unterstellt oder schlicht weggesperrt werden sollten.

Hierbei gilt es insbesondere für solche KI-Anwendungen Schutz- und Kontrollmechanismen zu implementieren, die wir nicht mehr vollständig verstehen, sie in ihrer Wirkung nicht mehr abschätzen und nicht mehr vollständig kontrollieren können. Technologien, die in der Form von Software, Robotern, Drohnen etc. selbstständig lernen, sich selbst optimieren und Entscheidungen selbstständig treffen können.

Beispiele hierfür sind:

  • Finanz-Algorithmen zum Kauf und Verkauf von Wertpapieren, welche, wie die immer wieder „unerklärlichen“ Micro-Flashs an den Börsen zeigen, keineswegs in Gänze von den jeweiligen Eigentümern kontrolliert werden können.
  • Autonome Drohnen, Panzer, U-Boote und Roboter, die selbst über die Tötung von Menschenleben entscheiden können, auch wenn dies regulatorisch bislang zwar nicht vorgesehen, technisch aber längst implementiert ist.
  • Autonome Automobile, die u. U. tödliche Fahrentscheidungen treffen können und deren ethischer Priorisierungsrahmen politisch und nicht wirtschaftlich festgelegt werden muss.
  • Kommunikationsroboter, die mit Menschen kommunizieren, ohne als solche aufzufallen, die Wahlen zu beeinflussen suchen und unerkannt Stimmung für bestimmte politische Auffassungen machen.
  • Steuerungssysteme für Serverfarmen oder Energieressourcen, die ohne menschliche Kontrolle und Einblick in entsprechende Abläufe selbstständig arbeiten und sich gegebenenfalls unbemerkt verselbstständigen könnten.
  • Intelligente Manipulations-Software in Wirtschaft und Politik, die unbemerkt Einfluss auf menschliches Verhalten ausübt durch Anwendung von Gesichts-, Ausdrucks- und Stimmungserkennung, Psychometrie oder Filter Bubbles.
  • Künstliche Intelligenz, die KI selber programmiert, wie bei Google derzeit erfolgreich erprobt, welche den Einstieg zu Singularity63 darstellen könnte und deren ethisches Normensystem völlig ungeklärt ist.64

Zumindest diese Typologie von Anwendungsfällen sollte unverzüglich gesellschaftlicher Kontrolle unterstellt und entsprechenden Regulationen unterworfen werden. Hier genügt eine gemeinwohlorientierte Verwertung der Forschungsergebnisse keinesfalls, weshalb die genannte doppelte Schutzfunktion erforderlich wird, die nur durch eine IAEO-verwandte Behörde gewährleistet werden kann. Für alle nicht unmittelbar systemkritischen und für die Zivilgesellschaft direkt gefährlichen Anwendungen gilt es, konsequente Gemeinwohlorientierung zu gewährleisten.

 

Wem solche Überlegungen eher sozialromantisch verklärt erscheinen, der sei darauf verwiesen, dass selbst einige der ganz großen Hightech-Tycoons Amerikas in eine ähnliche Richtung denken. Beispiel hierfür wäre das „Allan Institute for Artificial Intelligence“ in Seattle, welches Microsoft-Mitbegründer Paul Allan mit mehr als einer Milliarde Dollar finanziert und bei dem sämtliche Forschungs­ergebnisse kostenlos veröffentlicht werden, zur freien Verfügung für alle.65

Beispiel ist auch die OpenAI-Initiative von Elon Musk, die von ihm unlängst als Non-Profit-Organisation mitbegründet und mit ebenfalls einer Milliarde Dollar ausgestattet wurde.66 OpenAI befasst sich mit der Erforschung von Künstlicher Intelligenz und deren Bedrohung für die Menschheit. Ziel von OpenAI ist, Künstliche Intelligenz auf Open-Source-Basis zu entwickeln und zu vermarkten, so dass sie der Gesellschaft Vorteile bringt und eben nicht schadet. Auch diese Organisation macht ihre Patente und Forschungsergebnisse der Öffentlichkeit zugänglich und sieht genau hierin einen gewissen Schutz vor den KI-Technologien, Schutz durch Gemeinwohlorientierung und Transparenz.

Obwohl immer wieder behauptet wird, dass ohne Eigennutz kein wirtschaftlicher und technischer Fortschritt erzielt werden könne, ist interessant, dass Gemeinwohlorientierung und Gemeinbesitz von immer mehr Menschen zum Thema gemacht werden. Dies gerade auch im Umfeld der neuen Commons-Bewegung, vertreten durch den US-Soziologen Peter Barnes67, die Heinrich-Böll-Stiftung68, Silke Helfrich69 und natürlich auch Professorin Elinor Ostrom, die Trägerin des Alfred-Nobel-Gedächtnispreises für Wirtschaftswissenschaften70.

Die 2012 verstorbene Elinor Ostrom war eine der führenden Autoritäten auf dem Gebiet der Commons, die die wesentlichen Gestaltungsbedingungen für den Umgang mit Commons als Ergebnis jahrzehntelangen Forschens im Bereich der Gemeingüter ausführlich beschrieben hat. Sie widerlegt mit ihrem Lebenswerk die bekannte These von Gerrit Hardin71, nach der der Mensch als notorischer Nutzenoptimierer und Homo oeconomicus notwendig jede gemeinschaftlich mitgenutzte Ressource zu Grunde richtet, wenn diese nicht durch Privatbesitz oder staatliche Maßnahmen davor bewahrt wird.

Im Unterschied zu diesen Einschätzungen kann die aktuelle Gemeingutforschung belegen, dass es offensichtlich eine Art „dritten Weg“ zwischen Privat- und Staatseigentum gibt.72 Seit Jahrzehnten und Jahrhunderten sind viele Tausende Menschen in unzähligen Commons-Projekten auf der ganzen Welt in der Lage, nachhaltig mit ihren Commons umzugehen. Helfrich, die unter anderem viele Jahre für die Böll-Stiftung in Südamerika tätig war, hat sich größte Verdienste erworben, ein riesiges Tableau an Commons-Projekten zu erkunden und zu dokumentieren.73

Natürlich funktionieren Commons und Allmende nicht einfach so und deshalb zeigt Ostrom detailliert, unter welchen Bedingungen die Verwaltung von Gemeinschaftseigentum funktionieren kann. Dieses als „Elinors Law“74 bekannt gewordene Regelwerk zum Umgang mit Gemeingütern beschreibt wesentliche Voraussetzungen für das Gelingen gemeineigenen Besitzens. Wichtigste Regel hierbei ist, alle Betroffenen in alle wichtigen Prozesse einzubeziehen und die Verteilung der Kosten proportional zu der Verteilung des Nutzens anzusetzen.

Ostrom zeigt, dass und wie Commons funktionieren können, die wachsende Commons-Bewegung zeigt, dass für viele Zeitgenossen Privat- oder Staatsbesitz keineswegs alternativlos ist. Für immer mehr Menschen sollen zum Beispiel Wasser, Luft oder auch Grund und Boden keine Handelsware darstellen, die käuflich zur beliebigen Nutzung und zum gewinnträchtigen Wiederverkauf erworben werden kann. Die Auffassung wächst, dass solche Güter als Commons zum gemeinsamen Nutzen der ganzen Gesellschaft verfügbar gehalten werden sollen.

Es scheint, als ob die Commons-Idee ein wunderbarer Einstieg in die ganz grundsätzliche Debatte um zeitgemäße Eigentums- und Besitz-verhältnisse an sich darstellen könnte. Und es scheint ebenfalls, dass die Commons-Bewegung genau an der richtigen Stelle die Frage nach dem Sinn des Wirtschaftens überhaupt stellt. Wirtschaften aus Profitinteresse oder Wirtschaften aus Gemeinwohlanforderung? Wirtschaft zum Nutzen einiger weniger oder Wirtschaft zum Nutzen aller?75

Wirtschaften also so – wie es in der Ubuntu-Philosophie der Völker der Zulu und Xhosa heißt –, dass „die eigenen Bedürfnisse dann berücksichtigt werden, wenn die Bedürfnisse der anderen ebenfalls in den gemeinsamen Aktivitäten aufgehoben sind“.76

 

Herausgeber: Stiftung Media, Stuttgart – www.stiftung-media.de
Copyright © 2017-18 by Michael W. Bader, Göppingen

 

Literaturverzeichnis

 

Fußnoten

  1. Siehe „Wider Monopolismus und Libertarismus“ auf gfe-media.de.
  2. Siehe „Herrschaft der Algorithmen“ auf gfe-media.de.
  3. Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.]
  4. Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016). http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).
  5. Die Studie belegt, dass durch Analyse der Facebook-Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS.org Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013). http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).
  6. http://www.acxiom.com (letzter Zugriff: 18. Oktober 2017)
  7. Julian Wheatland, „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game“ Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017. https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).
  8. Redaktion SZ, „Etwa 87 Millionen Nutzer von Facebook-Datenskandal betroffen: Cambridge Analytica.“ Süddeutsche Zeitung SZ.de (04.04.2018). https://www.sueddeutsche.de/digital/cambridge-analytica-etwa-millionen-nutzer-von-facebook-datenskandal-betroffen-1.3932186 (letzter Zugriff: 8. April 2018).
  9. Redaktion FAZ, „Frühere Managerin: Es geht um viel mehr als 87 Millionen Nutzer: Cambridge Analytica.“ Frankfurter Allgemeine faz.net (17.04.2018). http://www.faz.net/aktuell/wirtschaft/facebook-datenskandal-doch-mehr-als-87-millionen-betroffen-15546851.html (letzter Zugriff: 19. April 2018).
  10. Hannes Grassegger und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016). https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).
  11. Ingo Dachwitz, Simon Rebiger und Tomas Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen: Wer steckt hinter Cambridge Analytica?“ Netzpolitik.org (21.03.18, Update 12.04.18). https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica? (letzter Zugriff: 31. Juli 2018).
  12. Ingo Dachwitz, „Von der Wissenschaft zur kommerziellen Datensammlung: Cambridge-Forscher sagt im Facebook-Skandal aus: Öffentlichkeit.“ Netzpolitik.org (24.04.2018). https://netzpolitik.org/2018/von-der-wissenschaft-zur-kommerziellen-datensammlung-cambridge-forscher-sagt-im-facebook-skandal-aus/ (letzter Zugriff: 31. Juli 2018).
  13. Harry Davies, „Ted Cruz using firm that harvested data on millions of unwitting Facebook users.“ The Guardian (11.12.2015). https://www.theguardian.com/us-news/2015/dec/11/senator-ted-cruz-president-campaign-facebook-user-data (letzter Zugriff: 31. Juli 2018).
  14. Carole Cadwalladr und Emma Graham-Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018). https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).
  15. Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“. https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?
  16. Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹. https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).
  17. Dennis Horn, „Der Facebook-Skandal, aber sortiert: Analyse.“ t3n (03.04.2018). https://t3n.de/news/facebook-skandal-sortiert-1012101/ (letzter Zugriff: 31. Juli 2018).
  18. Statista, „Statistiken zu Facebook.“. https://de.statista.com/themen/138/facebook/.
  19. Horn, „Der Facebook-Skandal, aber sortiert“. https://t3n.de/
  20. Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018). https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).
  21. Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018). http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).
  22. Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document“. https://theintercept.com/
  23. ebd. https://theintercept.com/
  24. Sam Biddle, „Facebook Quietly Hid Webpages Bragging of Ability to Influence Elections.“ The Intercept (14.03.2018). https://theintercept.com/2018/03/14/facebook-election-meddling/ (letzter Zugriff: 31. Juli 2018).
  25. Horn, „Der Facebook-Skandal, aber sortiert“. https://t3n.de/
  26. Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document“. https://theintercept.com/
  27. Anna Oelsner und Joost van Treeck, „Bis zu 30 Prozent mehr Conversions: So profitieren Advertiser von psychografischem Targeting.“ Native Advertising (17.10.2017). https://www.nativeadvertising.de/bis-zu-30-prozent-mehr-conversions-so-profitieren-advertiser-von-psychografischem-targeting/ (letzter Zugriff: 3. August 2018).
  28. n-tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n-tv.de (14.05.2018). https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).
  29. Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018). https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).
  30. Redaktion FAZ, „Facebook suspendiert weiteres Datenanalyse-Unternehmen: AggregateIQ.“ Frankfurter Allgemeine faz.net (07.04.2018). http://www.faz.net/aktuell/wirtschaft/diginomics/facebook-suspendiert-weitere-firmen-im-datenskandal-15530851.html (letzter Zugriff: 9. Juni 2018).
  31. Jessica Sadeler, „Jetzt wirft Facebook das dritte Unternehmen raus: Daten-Skandal.“ Frankfurter Allgemeine faz.net (09.04.2018). http://www.faz.net/aktuell/wirtschaft/unternehmen/facebook-suspendiert-das-unternehmen-cubeyou-15533425.html (letzter Zugriff: 14. Juli 2018).
  32. Patrick Beuth, „Big Data allein entscheidet keine Wahl: US-Wahl.“ Zeit online (06.12.2016). http://www.zeit.de/digital/internet/2016-12/us-wahl-donald-trump-facebook-big-data-cambridge-analytica (letzter Zugriff: 18. Oktober 2017).
  33. Redaktion FAZ, „Was hat Peter Thiels Firma mit Cambridge Analytica zu tun? Facebook-Datenskandal.“ Frankfurter Allgemeine faz.net (27.03.2018). http://www.faz.net/aktuell/wirtschaft/diginomics/arbeitete-peter-thiels-palantir-mit-cambridge-analytica-15515359.html (letzter Zugriff: 14. Juli 2018).
  34. https://einbesseresfacebook.splashthat.com/ (letzter Zugriff: 21. April 2018)
  35. Wie viele der insgesamt 313 Millionen Twitter-Accounts Fake sind oder von Bots betrieben werden, ist schwer zu ermitteln. Doch Experten wie Prof. Dr. Hegelich sind sich sicher: „Es sind sehr, sehr, sehr viele.“ Das bestätigt auch Prof. Dr. Helbing: „Man liest immer wieder von 40–60 %. Die Bots beginnen, Menschen in den sozialen Medien zu überholen.“ Jannik Pentz, „Zahl der Fake-Accounts steigt: Facebook, Twitter & Co.“ Bayerischer Rundfunk, B24 (29.01.2017). http://www.br.de/nachrichten/fake-follower-twitter-100.html (letzter Zugriff: 18. Oktober 2017).
    Facebook hat in seinem Bericht an die US-Börsenaufsicht SEC bereits 2014 zugegeben, dass bis zu 140 Millionen seiner registrierten User Fake-Accounts sind. Chip News, „Facebook: Bis zu 140 Millionen Fake-Accounts.“ Chip Digital (04.02.2014). http://www.chip.de/news/Facebook-Bis-zu-140-Millionen-Fake-Accounts-66923093.html (letzter Zugriff: 18. Oktober 2017).
  36. Fabian Mirau, „Social Bots und Algorithmen: Sind Facebook und Twitter Schuld am Wahlsieg von Donald Trump?“ Basic thinking (12.11.2016). https://www.basicthinking.de/blog/2016/11/12/social-bots-algorithmen-donald-trump-usa/ (letzter Zugriff: 18. Oktober 2017).
  37. Adrian Lobe, „Trump hat doch gewonnen!: Amerikas TV-Wahlduell im Netz.“ Frankfurter Allgemeine faz.net (28.09.2016). http://www.faz.net/aktuell/feuilleton/debatten/soziale-netzwerke-erklaeren-donald-trump-zum-tv-duell-sieger-14458002.html (letzter Zugriff: 28. Juli 2018).
  38. Eli Pariser, Filter Bubble: Wie wir im Internet entmündigt werden (München: Hanser, 2012). S. 10.
  39. Eine ältere und inhaltlich wenig substantiierte kritische Einschätzung zu der Existenz von Echokammern findet sich auch bei Paul Resnick, „Personalized Filters Yes; Bubbles No (17.07.2011).“. https://presnick.wordpress.com/2011/07/17/personalized-filters-yes-bubbles-no/ (letzter Zugriff: 18. Oktober 2017). Interessant allerdings, dass gerade hierauf in der Veröffentlichung des Bitcom/DFKI explizit verwiesen wird: Bitkom Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. und DFKI Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, Hrsg., Künstliche Intelligenz: Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung (Berlin: Bitkom, 2017). https://www.bitkom.org/noindex/Publikationen/2017/Sonstiges/KI-Positionspapier/171012-KI-Gipfelpapier-online.pdf (letzter Zugriff: 18. Oktober 2017).
  40. Jennifer Lepies, „An den Grenzen der Filterblase.“ Technology Review (17.07.2017). https://www.heise.de/tr/blog/artikel/An-den-Grenzen-der-Filterblase-3772491.html (letzter Zugriff: 13. November 2017).
  41. Beuth, „Big Data allein entscheidet keine Wahl“. http://www.zeit.de/
  42. Götz Hamann, „Nicht Fake News auf Facebook haben die Wahl entschieden: US-Wahlkampf.“ Zeit online (27.11.2016). http://www.zeit.de/politik/ausland/2016-11/us-wahlkampf-donald-trump-facebook-fake-news-bundestagswahlkampf (letzter Zugriff: 19. Oktober 2017).
  43. ebd. http://www.zeit.de/
  44. Daniel Trielli, Sean Mussenden und Nicholas Diakopoulos, „Warum die Google-Suchergebnisse in den USA die Demokraten bevorteilen.“ AlgorithmWatch (09.05.2016). https://algorithmwatch.org/de/warum-die-google-suchergebnisse-in-den-usa-die-demokraten-bevorteile/ (letzter Zugriff: 28. Juli 2018).
  45. Hamann, „Nicht Fake News auf Facebook haben die Wahl entschieden“. http://www.zeit.de/
  46. Markus Kollberg, „Teuflisch genial: Neue Internetseite der AfD.“ Frankfurter Allgemeine faz.net (24.09.2017). http://www.faz.net/aktuell/politik/bundestagswahl/die-afd-im-internetwahlkampf-2017-15186116.html (letzter Zugriff: 28. Juli 2018).
  47. Eike Kühl, „Hetze mit System: Facebook.“ Zeit online 14.09.2017. http://www.zeit.de/digital/internet/2017-09/facebook-afd-geschlossene-gruppen-bundestagswahl/ (letzter Zugriff: 13. November 2017).
  48. Philipp Grüll, Sebastian Kemnitzer und Anna Tillack, Wahlkampf im Netz: Chancen und Gefahr einer neuen Ära. Bayerischer Rundfunk, Dok|Thema, tagesschau24 (09.09.2017). https://www.youtube.com/watch?v=Yy55EQ8z6jo (letzter Zugriff: 19. Oktober 2017).
  49. Katharina A. Zweig et al., „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-Suchen zur Bundestagswahl 2017.“ AlgorithmWatch (08.09.2017). https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf (letzter Zugriff: 12. November 2017). Siehe auch https://algorithmwatch.org/de/filterblase-geplatzt-kaum-raum-fuer-personalisierung-bei-google-suchen-zur-bundestagswahl-2017/
  50. Nick Bostrom, Superintelligenz: Szenarien einer kommenden Revolution (Berlin: Suhrkamp, 2014).
  51. Daniel Howley, „Why scientists want AI regulated now before it’s too late.“ Yahoo Finance (25.07.2017). https://finance.yahoo.com/news/scientists-want-ai-regulated-now-late-195127553.html?soc_src=social-sh&soc_trk=ma (letzter Zugriff: 19. Oktober 2017).
  52. Peter Holley, „Bill Gates on dangers of artificial intelligence: ›I don’t understand why some people are not concerned‹.“ The Washington Post (29.01.2015). https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/?utm_term=.5fcf2eeafb6e (letzter Zugriff: 10. Oktober 2017).
  53. Rory Cellan-Jones, „Stephen Hawking warns artificial intelligence could end mankind.“ BBC online (02.12.2014). http://www.bbc.com/news/technology-30290540 (letzter Zugriff: 1. September 2018).
  54. dpa und Matthias Parbel, „Verbraucherzentralen fordern ›Algorithmen-Tüv‹.“ heise online (23.04.2017). https://www.heise.de/newsticker/meldung/Verbraucherzentralen-fordern-Algorithmen-Tuev-3691265.html (letzter Zugriff: 10. November 2017).
  55. Götz Hamann und Adam Soboczynski, „Der Angriff der Intelligenz: Yvonne Hofstetter.“ Zeit online (10.09.2014). http://www.zeit.de/kultur/2014-09/yvonne-hofstetter-kuenstliche-intelligenz (letzter Zugriff: 6. März 2016).
  56. https://algorithmwatch.org/, siehe dazu auch Katharina A. Zweig, „Das Risiko liegt in der Intransparenz: Medienethik.“ Medienpolitik.net (11.04.2016); Die Gesellschaft muss Prinzipien ethischen Handelns bei der Anwendung von Algorithmen entwickeln. http://www.medienpolitik.net/2016/04/medienwissenschaft-das-risiko-liegt-in-der-intransparenz/ (letzter Zugriff: 13. November 2017). sowie Kathrin Gießelmann, „Systeme noch ohne Moral: Algorithmen.“ Deutsches Ärzteblatt, PP, Nr. 8 (2017): 382–383. https://www.aerzteblatt.de/pdf.asp?id=192817 (letzter Zugriff: 14. November 2017).
  57. Pariser, Filter Bubble. S. 164.
  58. Zu Gerald Häfner siehe http://www.europarl.europa.eu/meps/de/96758/GERALD_HAFNER_home.html (letzter Zugriff: 4. November 2017), sein konkreter Vorschlag siehe Gerald Häfner, Was die Zeit fordert (01.04.2017); Vortrag; Passage 1:08:00–1:09:30. https://www.youtube.com/watch?v=Om52t7ju9rg (letzter Zugriff: 9. November 2017).
  59. „An American Permanent Fund would be the centerpiece of the new commons sector … It’s a way to fix, or at least ameliorate, capitalism’s flaw of concentrating private property among the top 5 percent of the population. It would do this, like the Alaska Permanent Fund, by distributing income from common property to every citizen equally.“ Peter Barnes, Capitalism 3.0: A guide to reclaiming the commons (San Francisco: Berrett-Koehler, 2006). http://www.plancanada.com/capitalism3.pdf (letzter Zugriff: 18. Oktober 2017). S. 143.
  60. „Shortly after the oil from Alaska’s North Slope began flowing to market through the Trans-Alaska Pipeline System, the Permanent Fund was created by an amendment to the Alaska Constitution. It was designed to be an investment where at least 25 % of the oil money would be put into a dedicated fund for future generations, who would no longer have oil as a resource.“ Wikipedia, „Alaska Permanent Fund.“. https://en.wikipedia.org/wiki/Alaska_Permanent_Fund (letzter Zugriff: 18. Oktober 2017).
  61. Pacific Forest Trust, „What we do.“. https://www.pacificforest.org/what-we-do/ (letzter Zugriff: 18. Oktober 2017).
  62. So kontrolliert z. B. die IAEO die Verwendung und den Verbleib von Kernmaterial in kerntechnischen Anlagen, um auf diese Weise sicherzustellen, dass die Anlagen allein der friedlichen Nutzung der Kernenergie dienen. Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB), „Internationale Atomenergie-Organisation (IAEO): International Atomic Energy Agency (IAEA).“. http://www.bmub.bund.de/P299/ (letzter Zugriff: 18. Oktober 2017).
  63. Mit Singularity (Technische Singularität) wird der Zeitpunkt bezeichnet, an dem sich selbst optimierende Roboter bzw. Algorithmen die menschlichen Fähigkeiten überflügeln. Einige Forscher gehen davon aus, dass AI ab diesem Zeitpunkt von Menschen nicht mehr kontrolliert werden kann und die Welt selbständig weiterentwickelt. Diese Forscher erwarten, dass dieser Punkt in einem oder wenigen Jahrzehnten erreicht sein wird. Es gibt allerdings auch Forscher, die davon ausgehen, dass dieser Punkt erst in ferner Zukunft oder nie erreicht wird.
  64. Sebastian Gluschak, „Google-Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017). https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Stephan Dörner, „KI-Software von Google lernt KI-Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017). https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017). Siehe auch „Es geht mir also darum, dass wir erst einmal gemeinsam als Gesellschaft eine Reihe von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen entwickeln und diese dann mit Augenmaß rechtlich umsetzen. Das wird nicht einfach, sollte aber dringend jetzt erfolgen, bevor wir den ersten großen Fall von ethischem Fehlverhalten mittels Algorithmen erleben.“ in Zweig, „Das Risiko liegt in der Intransparenz“
    http://www.medienpolitik.net/2016/04/medienwissenschaft-das-risiko-liegt-in-der-intransparenz/.
  65. http://allenai.org/ (letzter Zugriff: 17. Oktober 2017)
  66. https://openai.com/ (letzter Zugriff: 17. Oktober 2017)
  67. http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017)
  68. https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017)
  69. https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017)
  70. Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch Wikipedia, „Elinor Ostrom.“ https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).
  71. „Therein is the tragedy. Each man is locked into a system that compels him to increase his herd without limit—in a world that is limited. Ruin is the destination toward which all men rush, each pursuing his own best interest in a society that believes in the freedom of the commons. Freedom in a commons brings ruin to all.“ Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248. http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).
  72. Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).
  73. Silke Helfrich und Heinrich-Böll-Stiftung, Hrsg., Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).
  74. Elinor Ostrom, „Prize Lecture: Beyond Markets and States: Polycentric Governance of Complex Economic Systems.“ (2014); Rede am 8. Dezember 2009 zur Verleihung des Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften. https://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2009/ostrom-lecture.html (letzter Zugriff: 19. Oktober 2017).
  75. Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, hat der Autor beschrieben in Michael W. Bader, Jenseits von Kapitalismus und Kommunismus: (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).
  76. Stefan Meretz, „Ubuntu-Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ in Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich-Böll-Stiftung, 58–65 (Bielefeld: transcript, 2012). S. 63
Keine Kommentare

Wir benötigen Ihren Namen* und Ihre E-Mail-Adresse*. Der Name wird veröffentlicht. Die E-Mail-Adresse wird intern gespeichert, aber nicht veröffentlicht. Wenn Sie die Domain Ihres Internet-Auftrittes mitteilen, wird diese veröffentlicht. Es gelten unsere Datenschutzbestimmungen.

DIESEN ARTIKEL KOMMENTIEREN