© Foto: Alina Bader

15 Jun Herrschaft der Algorithmen

Wie „Künstliche Intelligenz“ unsere Freiheit bedroht

Michael W. Bader behandelt das Thema „Künstliche Intelligenz“ (KI) unter dem Gesichtspunkt der entmündigenden Wirkung dieser neuen Technologien für die Gesellschaft. Kritikwürdig ist hierbei neben dem höchst bedenklichen Praxiseinsatz der „Künstlichen Intelligenz“ z. B. für autonome Waffensysteme oder die Manipulation von Wahlen nicht zuletzt auch das Menschen- und Gesellschaftsbild hinter diesen Entwicklungen. Notwendig ist aus Sicht des Autors eine gesellschaftlich verantwortete Gemeinwohl-KI, die dem Nutzen der Vielen statt der Herrschaft der Wenigen dient.

pdfeng

Den Link zu der deutschen PDF-Datei finden Sie am Ende des Essays.

Einleitung

Der vorherige Beitrag des Autors unter dem Titel „Wider Monopolismus und Libertarismus“1 befasste sich mit den von Silicon Valley ausgehenden Gefahren eines Informationskapitalismus, der jenseits jeder demokratischen Kontrolle immer mehr Macht bei einigen wenigen Unternehmen akkumuliert und hierfür alte libertäre Sichtweisen zu neuen Visionen der Weltverbesserung verschmilzt. Die neuen Tycoons wie bspw. Google, Facebook, Airbnb und Uber verändern ungefragt unsere Welt, genau nach ihrem Bilde.

Monopolismus ist wieder hoch im Kurs und Demokratie eine lästige und veraltete Technologie, welche die hoch motivierten Unternehmer und Macher an ihrer freien Entfaltung hindert. Hier sollte man bei aller Begeisterung für die immer wieder neuen Gimmicks und Innovationen der großen Internet-Firmen stets eine gewisse kritische Distanz beibehalten, weil durch die Aktivitäten der großen Online-Konzerne ein völlig ungezügelter Informationskapitalismus entsteht, der ungefragt mit dem pausenlosen Abgreifen von persönlichen Daten der Bürger seine Geschäfte macht.

Der aktuelle Beitrag befasst sich mit den Gefahren, die aus Sicht des Autors von einem gänzlich unkontrollierten Einsatz Künstlicher Intelligenz (KI) ausgehen. Eine Befassung mit diesem Thema scheint notwendig, obwohl mit dem Einsatz von KI normalerweise eher große Chancen als große Probleme assoziiert werden. Es gehen viele Experten davon aus, dass in den nächsten 10 – 20 Jahren einige der größten Zivilisationsprobleme durch intelligente Systeme gelöst sein werden. So soll KI dazu beitragen, den Klimawandel zu managen, ein regeneratives Energiesystem zu etablieren, Bildung für alle zu ermöglichen, Medizin und Genetik zu revolutionieren und vor allem auch – für fast alle Gesellschaftsbereiche – höchst komplexe Zusammenhänge sichtbar zu machen.

Es werden völlig neue Einblicke insbesondere auch in das soziale Zusammenleben der Menschen möglich werden. Anhand von Tweets und Facebook-Nachrichten soll in Zukunft bspw. immer die Ausbreitung von Krankheiten oder sozialen Unruhen vorhergesagt werden können. Sicherheitskräfte werden Prognose-Software einsetzen, um Terroranschläge zu vereiteln. Es wird bereits heute in vielen Städten der Einsatz von Polizeistreifen von einer Big-Data-Vorhersage des wahrscheinlich nächsten Verbrechens abhängig gemacht. In ca. 30 US-Bundesstaaten wird eine Big-Data-Vorhersage herangezogen, um für eine Bewährungsentscheidung zu prognostizieren, wie wahrscheinlich die Person in einen künftigen Mord verwickelt sein wird, wie Viktor Meyer-Schönberger ausführt.2

Bereits heute werden ca. 70 Prozent aller Finanztransaktionen von Algorithmen gesteuert3 und Werbebotschaften werden für maximale emotionale Beeinflussung heute ebenfalls schon algorithmisch erstellt4. In Hongkong soll sogar eine Künstliche Intelligenz vollwertiges Mitglied eines Aufsichtsrates geworden sein. Das System „Vital“ (Validating Investment Tool for Advancing Life Sciences) hat nach Angabe des betreffenden Unternehmens volles Stimmrecht.5

In Anbetracht all dieser bereits existenten und potenziellen Segnungen geht es im Folgenden um die Darstellung verschiedener mit KI verbundener Problemlagen sowie dem zugrunde liegenden Menschen- und Gesellschaftsbild. Dieser Beitrag bezieht sich auf eine Reihe von Fachbeiträgen zum Thema unter besonderer Berücksichtigung der Überlegungen von Kai Schlieter, wie in seinem 2015 erschienenen Buch „Die Herrschaftsformel“6 sowie in verschiedenen weiteren Fachbeiträgen und Interviews dargestellt. Eine wichtige Quelle für diese Darstellung ist auch Markus Morgenroth, Software-Experte für verhaltensbasierte Datenanalyse und Autor des bemerkenswerten Buches „Sie kennen dich! Sie haben dich! Sie steuern dich!“7 sowie weiterer namhafter Experten.

I. Was ist Künstliche Intelligenz

Künstliche Intelligenz steht für softwaregesteuerte Maschinenintelligenz im Einsatz für selbstfahrende Autos, Industrieroboter, selbstlernende Maschinen, digitale Assistenten, Industrie 4.0, Spiele, autonome Waffen und vieles andere mehr. Neben diesen Anwendungsfeldern ist die Künstliche Intelligenz vor allem auch deshalb gesellschaftlich so wichtig geworden, weil erst sie es ermöglicht, mit den gigantischen Big-Data-Informationsmengen sinnvoll umzugehen, die jeden Tag gesammelt werden.

Bereits 2003 war die gesammelte Datenmenge auf unvorstellbare fünf Milliarden Gigabyte angewachsen, die aber heute bereits täglich anfällt und in Zukunft durch das Internet der Dinge (IoT) noch exponentiell weiterwachsen wird. Schätzungen von Cisco zufolge wird es in fünf Jahren 50 Milliarden Sensoren auf der Welt geben, die ständig Daten sammeln und diese weitermelden.8 In zehn Jahren soll es bereits 150 Milliarden vernetzte Mess-Sensoren geben, durch deren Einsatz sich die Datenmenge alle zwölf Stunden verdoppeln wird.9

Es gibt damit eine ungeheure Menge verfügbarer Daten und immer neue Quellen schließen jede Lücke im Verhaltens- und Persönlichkeitsprofil jedes einzelnen Bürgers. Wo keine erhobenen Daten vorliegen, genau da kommt KI ins Spiel. Fehlende Daten werden mittels statistischer Methoden aus anderen vorliegenden Informationen näherungsweise errechnet.10

Technisch geht es bei dem Einsatz der Künstlichen Intelligenz im Wesentlichen um selbst lernende und ständig rückkoppelnde Algorithmen, die als Software auf immer schnelleren Rechnern ablaufen. Unter einem Algorithmus versteht man eine systematische, logische Regel oder zumindest eindeutige Vorgehensweisen, die zur Lösung eines vorliegenden Problems oder einer Klasse von Problemen führen kann. Es handelt sich dabei um eine Art Handlungsvorschrift aus vielen klar definierten Einzelschritten, die zur Ausführung auch in einem Computerprogramm zur Anwendung kommen können. Nach Yvonne Hofstetter, der bekannten Big-Data-Expertin11, kann ein System dann als intelligent bezeichnet werden, „wenn es ein Verhalten zeigt, das vom Programmierer ursprünglich nicht so vorgesehen wurde. Es trifft Entscheidungen, die man nicht in all ihren Abzweigungen und Konsequenzen durchdacht und festgelegt hat.“12

Kai Schlieter definiert KI in einem Interview in ähnlicher Form: „Künstliche Intelligenz beschreibt den Versuch, Systemen – Robotern oder Software – eigenständiges Handeln beizubringen. Diese Systeme lernen, sich in einer für sie unbekannten Umgebung zurechtzufinden und Probleme zu lösen.“13 Das gilt für reale Umgebungen wie Straßen und selbstfahrende Autos ebenso wie für virtuelle Umgebungen in Form von Datenbanken und Datenuniversen. Weiter gefasst steht KI für eine generelle mentale Leistungsfähigkeit, die über die Fähigkeit zur Schlussfolgerung verfügt, eigenständig Probleme lösen und komplexe Ideen nachvollziehen kann, schnell lernt und dabei auch auf Erfahrungen zurückgreifen kann.“14

Auch wenn die erste Generation von KI-Systemen bereits bedrohlich gute Ergebnisse hervorbrachte und mit „Watson“ als Jeopardy-Star oder mit „Deep Blue“15, der bereits 1997 den damaligen Schachweltmeister Garry Kasparow geschlagen hatte16, in die Geschichtsschreibung einging, ist ein großer Technologiesprung durch die Entwicklung künstlicher neuronaler Netze möglich geworden. Diese Netztechnologien simulieren menschliche Gehirnfunktionen und verwandeln ebenfalls Daten in Mathematik, allerdings in noch effizienterer Form, als dies bislang möglich war.17 Ein wichtiges Google-Produkt ist in diesem Zusammenhang ein künstliches neuronales Netz, das Bilderkennung mit Spracherkennung kombiniert. Der „Neuronal Image Caption Generator“ ist in der Lage, auf einem Bild einzelne Objekte zu erkennen und z. B. wie folgt sprachlich zu beschreiben: „Eine Gruppe junger Menschen spielt Frisbee.“ Oder: „Eine Herde Elefanten trottet über ein trockenes Grasfeld.“ Damit identifiziert dieses System nicht nur einzelne Objekte, es kann sie offensichtlich auch in Beziehung zueinander setzen und Handlungsabläufe erkennen.18

Neuronale Netze basieren im Wesentlichen auf den Forschungen von Geoffrey Hinton19, dessen Methode, unser Gehirn nachzubauen, auf der Theorie aufsetzt, dass die menschliche Intelligenz mit sehr wenigen Algorithmen auskommt und vielleicht nur einen einzigen Grundalgorithmus braucht, der multifunktional für Verarbeitungsaufgaben wie Sprache, Sehen, Logik etc. eingesetzt wird. Es lassen sich mit Hinton zwei wesentliche Eigen­schaften intelligenter Systeme zusammenfassen:

  1. Mustererkennung: KI-Systeme können Objekte, Gesichter, Ausdrucksformen oder auch Sprache erkennen, die durch entsprechende Kameras und Mikrofone aufgezeichnet wurden. Ebenso können Abweichungen von normalen Mustern und Regeln erkannt werden.
  2. Prognoseerstellung: KI-Systeme sind darüber hinaus in der Lage, bestimmte Entwicklungen zu prognostizieren, indem aus vorliegenden Informationen die Wahrscheinlichkeit für das Eintreffen zukünftiger Ereignisse errechnet wird. Natürlich sind solche „Voraussagen“, z. B. zu der Entwicklung von Aktien- und Währungskursen oder der zukünftigen Auswahl von Spielfilmen, keinesfalls sicher und als verbindlich zu betrachten.

Die sich selbst optimierende KI-Software arbeitet selbstständig auch an der Analyse unseres Verhaltens, gestützt auf Abertausende von Einzelinformationen aus eigenen Web-Eingaben, Online-Überwachungssystemen, Kameras, Sensoren und neuerdings z. B. auch Heizungsthermostaten und Rauchmeldern. Diese als „Datafizierung“ bezeichnete permanente Aufzeichnung und Umsetzung unseres Verhaltens in mathematische Größenordnungen und in Maschinensprache geschieht, um unser zukünftiges Verhalten immer noch besser vorhersagen zu können. Vor allem natürlich geht es um unser Konsumverhalten, welches auf Grundlage von Big Data nicht nur prognostiziert, sondern bei dem konkretes Kaufverhalten programmiert und initiiert werden soll.

II. Techno-philosophische Grundlagen: Künstliche Intelligenz und Kybernetik

Historisch betrachtet stammt die Entwicklung der Künstlichen Intelligenz aus einer wissenschaftlichen Weltanschauung, die als Kybernetik bekannt wurde und welche in den Vierzigerjahren des letzten Jahrhunderts von dem amerikanischen Mathematiker Norbert Wiener (1894–1964) begründet wurde.20 Wichtiger Glaubensgrundsatz war hierbei die Annahme, dass Maschinen und Lebewesen auf den gleichen Funktionsprinzipien beruhen, nämlich der Selbststeuerung von Prozessen durch Information, Prognose, Rückkopplung von Information und erneuter optimierter Selbststeuerung von Prozessen. Der Mensch funktioniert nach dieser Sichtweise damit nicht viel anders als z. B. ein Heizungsthermostat, der permanent die Raumtemperatur misst, um die Heizungsventile entsprechend zu steuern, was in Folge wieder die Raumtemperatur beeinflussen wird. Es gilt im Wesentlichen für Mensch und Maschine dasselbe Funktionsprinzip: Selbststeuerung durch Feedback-Schleifen, durch welches sich das Verhalten von Systemen mittels geeigneter Rückkopplungen kontrollieren lässt.21

Erinnert sei hier auch an den Mediziner Iwan Pawlow, der für seine besondere Art der „Hundedressur“ 1904 den Nobelpreis erhielt, nachdem er bewiesen hatte, dass durch einen bestimmten Reiz ein bestimmter Reflex bewirkt werden konnte. Verhalten – so sein Forschungsergebnis – lässt sich durch entsprechende Belohnung und Feedback-Reaktionen formen, verstärken und vorhersagen. Der bekannte Verhaltensforscher B. F. Skinner perfektionierte entsprechende Test- und Versuchsreihen zu diesem Belohnungs-Feedback-Mechanismus und entwickelte den unter dem Namen Skinner-Box bekannt gewordenen Konditionierungsapparat für die Messung und Steuerung von Verhalten. Berühmt geworden sind seine Taubenversuche, mit denen er bestimmte Verhaltensweisen entsprechend verstärken konnte. Genau diese Versuchsanordnung eines ausgeklügelten Belohnungs- und Feedback-Modells bildet bis heute auch die Grundlage für die Programmie­rung Künstlicher Intelligenz.22

III. Künstliche Intelligenz im Praxiseinsatz

Und damit zum Einsatz der Künstlichen Intelligenz in der Praxis und zu einer besonders interessanten Werbeanwendung der neuen KI-Technologien, die sich im Zusammenhang mit Mobilfunkwellen ergibt, die jedes gewöhnliche Handy ständig aussendet, sobald es einmal eingeschaltet worden ist.

KI im Supermarkt

Es werden innerhalb eines neuen, Geo-Fencing genannten Marketingkonzeptes mehrere Empfänger z. B. in Ladengeschäften verteilt, die diese Funkwellen nutzen, um mit entsprechenden Berechnungen die Position eines Mobilfunkgeräts über GPS-Daten genau zu lokalisieren. Und weiß man erst mal, wo eine bestimmte Person sich innerhalb eines Ladengeschäftes befindet, kann man ihr auch entsprechende Werbebotschaften übermitteln. Dies klappt besonders gut mithilfe der iBeacon-Technologie von Apple, die es möglich macht, Nutzer innerhalb von Gebäuden mit großer Genauigkeit zu identifizieren und sehr komfortabel z. B. Sonderangebote auf Smartphones zu senden.

Außer den genannten Mobilfunkwellen stehen für diese neuartige personalisierte Werbung mittlerweile auch Kameras zur Verfügung. In Ladengeschäften installiert, wissen diese nicht nur ganz genau, welche Produkte gerade betrachtet werden, sondern können durch die Analyse des jeweiligen Gesichtsausdruckes auch feststellen, in welcher Stimmung sich die betrachtende Person gerade befindet. Entsprechend aufgezeichnete und „verstandene“ Gefühlsregungen lassen sich wiederum bestens dafür verwenden, einem Kunden zum jeweiligen Gemütszustand passende Angebote vor Verlassen des Geschäftes auf das Handy zu spielen. Die Firma Synqera aus St. Petersburg arbeitet hier beispielsweise mit einer Gesichtserkennungssoftware, welche die Gesichtsausdrücke der Kunden beim Bezahlen an der Kasse aufzeichnet und zu interpretieren versucht, welche Emotionen zugrunde liegen. So könnte man z. B. einem gestressten 30-jährigen Kunden eben noch eine Flasche Whisky – evtl. mit einem Sonderpreis garniert – für die Abendgestaltung anbieten.23 Man sieht, mit Gefühlen und deren Analyse lässt sich in Zukunft gutes Geld verdienen.

Auch wenn diese neue Werbeform stürmisch von modernen Marketeers gefeiert wird, stellt sie doch einen massiven Eingriff in die Persönlichkeitsrechte der Konsumenten dar, die immer mehr einem komplett manipulativen Werbeumfeld – völlig unbemerkt – ausgeliefert sind. Ein Sachverhalt, der bislang noch kaum problematisiert wird und sich deshalb völlig ungehindert ausbreiten kann.

Juli Zeh und Ilija Trojanow weisen darauf hin, dass die ständige Preisgabe von persönlichen Daten und die darauf reagierenden Werbeangebote das faktische Auswahlspektrum möglicher Handlungs- und Konsumoptionen auf wenige begrenzte vorsortierte Möglichkeiten reduziert. Der Konsument erhält vermehrt für ihn zugeschnittene Angebote serviert, die vermeintlich immer ganz genau seinen Interessen entsprechen. Muster, die sich schwer wieder ablegen lassen und die man ständig mit sich herumträgt.24

Funkwellen- und Kameraüberwachung ist bereits großflächig installiert – in Bahnhöfen, Flugplätzen, Einkaufspassagen, Innenstädten, Parkhäusern, Schwimmbädern etc. – und sorgt für immer mehr scheinbare Sicherheit. Diese scheinbare Sicherheit stellt allerdings einen massiven Eingriff in die Freiheitsrechte der Bürger dar, weil abweichendes Verhalten von Sicherheitskräften immer sehr schnell als verdächtiges Verhalten interpretiert wird. Entsprechende (Falsch-)Verdächtigungen geschehen natürlich immer im Namen der Sicherheit der Bürger.25 So sieht es auch Martin Schulz, Präsident des Europäischen Parlamentes, nach dem die Verbindung von Big Data und der „hysterischen Überhöhung von Sicherheit“ in eine antiliberale, antisoziale und antidemokratische Gesellschaft münden könnte. „Wenn der Bürger nur zum Wirtschaftsobjekt degradiert wird und der Staat ihn unter Generalverdacht stellt, kommt es zu einer gefährlichen Verbindung von neoliberaler und autoritärer Ideologie.“26

KI-Anwendung in der Spiele-Industrie und im Kasino

Aber nicht nur beim Besuch eines Ladengeschäftes errechnen intelligente Algorithmen heute den idealen Zeitpunkt für die maximale Aufmerksamkeit und Kaufbereitschaft von Kunden. Gleiches gilt z. B. auch für den Einsatz von KI bei Werbeeinblendungen in Onlinespielen. Moderne KI-Systeme, die uns immer besser verstehen lernen, können immer optimaler auf uns reagieren. KI ist deshalb auch ein großes Thema im Umfeld von aktuellen Onlinespielen geworden. Hierbei kann von beachtlichen Marktpotenzialen ausgegangen werden. Laut MediaBrix, einem bekannten Werbeunternehmen, spielen circa 250 Millionen Menschen auf Smartphones oder vergleichbaren Geräten irgendwelche Onlinespiele. Deshalb wird bei den mobilen Spielen genau festgestellt, wann die Spieler eine Belohnung brauchen und deshalb im Spielverlauf die Kaufbereitschaft wohl am höchsten sein wird. Genau in diesem Augenblick wird entsprechende Werbung eingespielt. Man spricht in der Branche von sogenannten „Breakthrough Moments“, bei denen Spieler immer kurz davor sind, ein bestimmtes Ziel zu erreichen oder dieses gerade erreicht haben. Durch die möglichst exakte Feststellung eines jeweils richtigen emotionalen Zeitpunktes für entsprechende Werbeeinblendungen erhöht sich die Wahrnehmung einer Marke um bis zu 500 %.27

Ein ganz ertragreiches Anwendungsfeld für Künstliche Intelligenz sind Spielkasinos. Wer nämlich davon ausgeht, dass es sich bei den heutigen Spielautomaten um die relativ simplen mechanischen Apparate von früher handelt, liegt falsch. Im modernen Spielkasinobetrieb geht es darum, die Spieler in einen Zustand des „Immer-Weiterspielen-Wollens“ zu versetzen, der als Flow-Zustand am besten niemals enden soll. Hierzu gilt es, möglichst genau aus dem konkreten Spielverhalten eines Spielers abzuleiten, wie mit ihm umzugehen ist.28

Und genau dies geschieht durch den Einsatz moderner KI, nicht zuletzt mit Verweis auf Skinner selbst, der seinerzeit darauf aufmerksam gemacht hatte, dass das von ihm beschriebene Konditionierungsmodell auch für den Betrieb von Glückspielautomaten funktionieren könne. Ganz ähnlich wie die Tauben verhalten sich offenbar auch die Spieler z. B. in Las Vegas, wie die Anthropologin Natasha Schüll vom MIT herausfand.29

Schüll erforschte über viele Jahre das Suchtverhalten von Spielern und stellte dabei fest, dass die Auszahlung kleinerer Gewinne eine längere Verweildauer an den Automaten gewährleistete, als die Ausschüttung größerer Beträge. Dies anscheinend deshalb, weil letztere einen zu großen Unterschied zum bisherigen Spielgeschehen darstellt, weshalb die Spieler bei großen Gewinnen das Spiel eher abgebrochen haben, um sich eine Pause zu gönnen.30

Hieraus konnte ein einträgliches Geschäft entwickelt werden. Allein Caesars Entertainment beschäftigt 700 IT-Experten damit, entsprechende Bonusprogramme zu entwickeln, von denen sich rund 45 Millionen Menschen in modernen Kasinos konditionieren lassen. Es wird hierbei in 90 verschiedene demografische Grundtypen unterschieden, auf die jeweils ganz spezielle Bonusprogramme zugeschnitten werden. Kameras identifizieren den entsprechenden Spielertypus und liefern ein individuelles Spieldesign für jeden einzelnen Kasinobesucher. Selbstverständlich landen die Daten aller Spieler mit deren komplettem Verhaltensprofil in einer Datenbank und können immer wieder aufs Neue verwendet und gegebenenfalls auch weitergegeben und verkauft werden. Caesars Entertainment besitzt die größte diesbezügliche Da­tenbank, deren Wert auf eine Milliarde Dollar geschätzt wird.31

KI im Einsatz in der Politik

Weitgehend unbemerkt von der Öffentlichkeit ist das Thema Künstliche Intelligenz auch für die Politik mittlerweile sehr wichtig geworden. Aufbauend auf der Philosophie des Behaviourismus nach Skinner und Kollegen entsteht ein völlig neues Politikverständnis moderner Regierungen. Hierbei sind die angesprochenen Mechanismen der Belohnung und der Rückkopplung von Bedeutung.

Nach Einschätzung der modernen Verhaltensökonomie ist der Mensch in seinen kognitiven Fähigkeiten limitiert. Er trifft oft auf spontaner Eingebung basierend Entscheidungen, die auf einfacher Kausalität und nicht auf statistischem Denken und komplexen Überlegungen beruhen und deshalb oft auch falsch sein können. Wir Menschen sind für den Verhaltensökonomen Daniel Kahneman „Assoziationsmaschinen“, die ganz automatisch auf bestimmte Reize reagieren.32 Kahnemans Forschungen zeigen, wie die Menschen dazu neigen, Geschichten zu glauben, die plausibel klingen, oder diese Geschichten gar selbst zu erfinden.33 Kahneman unterscheidet hierbei zwei Arten von Denken: Ein „schnelles Denken“ der spontanen Eingebung, welches uns automatisch aus vielfältigen Vorerfahrungen etc. ins Bewusstsein tritt und oft zu voreiligen Schlüssen führt, sowie ein „langsames Denken“, welches sorgfältig abwägend und unter Einbeziehung von Fakten Urteile generiert, aber nicht immer zum Zug kommt.34

Er demonstriert in seinem 2012 erschienenen Standardwerk „Schnelles Denken, langsames Denken“ diesbezügliche menschliche Beschränktheiten auf über 600 Seiten und warnt davor, menschliche Intuition immer für bare Münze zu nehmen. So basieren unsere aufgrund des „schnellen Denkens“ generierten Urteile oft auf einem sogenannten Priming-Effekt, durch welchen unser Denken immer wieder in die Irre geführt wird, weil die jeweiligen Umgebungsbedingungen unsere Urteile mitprägen. Priming erfolgt Kahneman zufolge u. a. auch in Verbindung mit dem sogenannten Ankereffekt, durch den z. B. bewirkt werden kann, dass Zahlenschätzungen immer dann entsprechend höher ausfallen, wenn ein Proband vorher eine höhere Zahl beim Spielen mit einem Glücksrad erzielt hatte.35

Ein ähnlich erschreckendes Beispiel aus dem Gruselkabinett modernen Behaviourismus ist ein Experiment Kahnemans, bei dem deutsche Richter immer dann höhere Haftstrafen verhängten, wenn sie zuvor bei entsprechenden Versuchen eine hohe Zahl gewürfelt hatten.36 Kahneman schlussfolgert: „Die Kompetenzillusion ist nicht nur ein individueller Urteilsfehler; sie ist tief in der Kultur der Wirtschaft verwurzelt. Tatsachen, die Grundannahmen infrage stellen – und dadurch das Auskommen und die Selbstachtung von Menschen bedrohen –, werden einfach ausgeblendet.“37 Deshalb würden viele Menschen ihren Intuitionen zu sehr vertrauen.

Aus solchen und ähnlichen Studien wird abgeleitet, dass der Mensch als limitiertes und defizi­täres Wesen eben paternalistischer Fürsorge bedarf. Und deshalb gilt es, den Menschen an die Hand zu nehmen und „vormundschaftlich“ zu Glück und Erfolg zu führen.

Paternalismus und Polit-Nudging

Seit geraumer Zeit wird dieser Paternalismus genannte Handlungsansatz offensiv auf die Politik übertragen. Hierbei geht es darum, dass dem Staat und anderen Institutionen erlaubt sein soll, Bürger zu solchen Entscheidungen anzuregen, die langfristig in ihrem eigenen Interesse liegen sollen. Der aus der Werbeindustrie38 ins Politische übertragene Fachbegriff heißt Nudging und steht für Stupsen oder Anstoßen von Verhalten und Entscheidungen der Bürger, die zu ihrem eigenen Wohl in die richtige Richtung gewiesen werden sollen. Mit expliziter Verbindung zu Kahneman und gegenseitiger Wertschätzung und Referenzierung39 gelten als eigentliche Begründer des (liberalen) Paternalismus Richard Thaler und Cass Sunstein, die das Konzept in ihrem Bestseller „Nudge. Improving Decisions about Health, Wealth and Happiness“40 aus dem Jahre 2008 detailliert entwickelten.

Nach Auffassung der Paternalisten ist es vernünftig und gerechtfertigt, wenn der Staat Erkenntnisse aus der Verhaltensökonomie nutzt und in seine Gesetzgebung kleine Kniffe einbaut, welche durch kleine „Stupser“ die Bürger dazu bringt, sich besser im Sinne der Urheber zu verhalten: Energie zu sparen, Altersvorsorge zu betreiben oder sich gesünder zu ernähren.41 Klingt vernünftig und wird auch öffentlich ohne jede Scheu vertreten, obwohl Nudging ganz eindeutig eine mehr oder weniger legale Form der politischen Manipulation darstellt, die insbesondere auch in Verbindung mit den Sozialen Medien geradezu offensiv zu Missbrauch einlädt.

Wichtig zu wissen ist, dass es hier nicht nur bei Theoriebildung bleibt: Cass Sunstein wurde Leiter von Barack Obamas Amt für Informationspolitik und Regulierung und führte dort Nudging in die US-Politik ein, nachdem bereits innerhalb seines Wahlkampfes 2008 dreißig Verhaltensökonomen aktiv mitgewirkt hatten. Sunstein verweist auf entsprechende Erfolge, wie z. B. ein Programm, welches für mehr Transparenz bezüglich Spritverbrauch und Treibstoffkosten sorgt und welches zusammen mit ähnlichen Initiativen der US-Regierung in Obamas erster Amtszeit 90 Mrd. Dollar im Jahr eingespart habe.42

Der britische Premier James Cameron führte 2010 eine eigene „Nudging-Einheit“ ein, welche unter der Bezeichnung „Behavioural Insights Team“ beim Büro des Premierministers an­gedockt ist und mit Beratung von Richard Thaler aufgebaut wurde. Auch in Deutschland wird Nudging immer populärer. So bezeichnet zum Beispiel Justizminister Heiko Maas Nudging als „den klugen Mittelweg zwischen staatlicher Bevormundung und Tatenlosigkeit“. Angela Merkel hat eine eigene Projektgruppe unter dem vielversprechenden Titel „Wirksam Regieren“ ins Leben gerufen.43

Nudging in der Politik steht für Maßnahmen wie die Verordnung entsprechend abschreckend gestalteter Produktinformation auf Zigarettenschachteln, die Verwendung von Gütesiegeln bei Lebensmitteln oder Deklarationspflichten über Produkteigenschaften, wie z. B. die Verpflichtung von Haushaltsgeräteherstellern, über die jeweiligen Energieeffizienzklassen zu informieren, damit die Verbraucher zu den sparsameren Geräten greifen. Auch in Dänemark wird Nudging bereits wirkungsvoll eingesetzt. So wurde z. B. in Kopenhagen ein Projekt des Danish Nudging Network aufgesetzt, bei welchem grüne Fußabdrücke auf die Bürgersteige gemalt wurden, die zu Mülleimern führten. Die Maßnahme brachte offenbar eine Reduktion des Abfalls auf den Straßen um 40 Prozent.44

Vieles entspricht sicherlich dem gesunden Menschenverstand, wie z. B. die Platzierung von ungesundem Essen in Kantinen und Schulküchen, welches im Verhältnis zu gesundem Essen weniger auffällig aufgestellt werden kann. Vordenker Sunstein betont immer wieder, dass Nudging die Entscheidung beeinflusst, ohne die Freiwilligkeit der Individuen einzuschränken.45

Nudging bei Google

Nudging ist also offenbar nicht gleich Nudging! Charmante Anstupser für die Bürger verfehlen offensichtlich ihre Wirkung nicht und wenn unter dem Gesichtspunkt der Offenheit und Transparenz umgesetzt, wie Sunstein immer wieder betont,46 könnte Nudging u. U. auch Sinnvolles bewirken. Grundsätzlich kritisch ist die neue Regierungstechnologie allerdings immer dann zu betrachten, wenn sie in Verbindung mit Künstlicher Intelligenz auftritt und ohne Wissen der Betroffenen zu Zwecken der politischen Beeinflussung eingesetzt wird. Dies ist z. B. bei den großen Informationskonzernen wie Google und Facebook durchaus möglich. Bevor wir uns allerdings mit den konkreten Möglichkeiten politischer Beeinflussung durch diese Wirtschaftsriesen befassen, einige Bemerkungen zu den z. B. bei Google verfügbaren (Manipulations-)Technologien.

Der Publizist Eli Pariser erinnert in diesem Zusammenhang an die Tatsache, dass Google bereits 2009 die sogenannte „personalisierte Suche für alle“ ankündigte. Diese spezielle Suchvariante ermöglicht Google, über 57 verschiedene Signale (Browsertyp, Einwahlort etc.) ein relativ genaues Bild jedes Nutzers zu erstellen, weshalb auch verschiedene Menschen beim selben Suchbegriff unterschiedliche Ergebnisse angezeigt bekommen. Es macht also einen Unterschied bezüglich der Suchergebnisse, wer nach einem bestimmten Begriff googelt.47 Dieses als „Filterbubble“ bezeichnete Phänomen bewirkt, dass durch die Personalisierung der Suche Nutzer verstärkt nur noch die Suchergebnisse von Google geliefert bekommen, die deren eigenen Meinungen und Haltungen entsprechen.

Pariser weist darauf hin, dass diese Filterbubble mit immer ähnlicheren Informationen zu einer Einschränkung unseres Horizontes beiträgt. Ganz im Gegensatz zu der menschlichen Intelligenz, die jeden Tag aufs Neue filtert, welche Eindrücke wir wahrnehmen und welche wir ausblenden, trifft die Künstliche Intelligenz algorithmengestützt eine systematische Vorauswahl. Im Ergebnis kommt es zu dem sogenannten „Bestätigungsfehler“48, bei dem immer wieder unsere eigenen Ansichten bestätigt und alle davon abweichenden Meinungen ausgeklammert werden. Hierbei besteht die Gefahr einer Polarisierung der Gesellschaft und der Entstehung separater Gruppen, die mangels abnehmendem gegenseitigen Verständnis zunehmend miteinander in Konflikte geraten werden, wobei der gesellschaftliche Zusammenhalt zerstört wird. Die Rede ist von potenzieller gesellschaftlicher Fragmentierung, wie sie z. B. derzeit in den USA beobachtet werden kann, bei der Demokraten und Republikaner zusehends auseinanderdriften und politische Kompromisse kaum noch möglich sind.49 Es lebe das traditionelle Medium der Zeitung, welche uns im Unterschied zum Web immer auch anderslautende Meinungen präsentiert und eine gewisse kritische Distanz zum eigenen Denken ermöglicht.

Wahlbeeinflussung durch Google

Und damit zum Thema der direkten Möglichkeit der Wahlbeeinflussung bei Google. Nach Prof. Robert Epstein, einem bekannten Verhaltenspsychologen und Hochschullehrer aus Harvard, kann Google den Ausgang einer Wahl nicht nur beeinflussen, sondern deutlich mitentscheiden. „Ganz egal, was das (Google-)Management für Absichten haben mag: Das Programm entscheidet schon heute über den Ausgang von Wahlen in aller Welt.“50 Im Rahmen entsprechender Studien befasste sich Epstein mit dem Suchalgorithmus von Google und der Tatsache, dass 90 % der Menschen faktisch nur die erste Seite der Suchmaschinenergebnisse anschauen. Eine kleine Veränderung des entsprechenden Suchalgorithmus hat unter Umständen große Konsequenzen. Ereignisse ebenso wie Politiker können sich so von einer Sekunde zur andern in Luft auflösen oder entsprechend verstärkt werden. Es gibt hierfür auch bereits einen eigenen Fachbegriff, nämlich „SEME“ oder „Search-Engine-Manipulations-Effekt“.

Ein entsprechender Test mit 4.556 Teilnehmern in Indien und den USA bewies die Bedeutung desjenigen, was bei Google ganz vorne auf der ersten Seite angezeigt wird. Tatsächlich war eine große Anzahl der unentschlossenen Wähler zugunsten eines Kandidaten beeinflussbar.51 Die Studie des Amerikanischen Instituts für Verhaltensforschung und Technologie (AIBRT) von Prof. Epstein konnte nachweisen, wie allein durch die Reihenfolge, nach der entsprechende Politiker in den Suchergebnissen auftauchen, bis zu 20 % der unentschlossenen Wähler beeinflusst werden können. In manchen Gruppen konnten sogar bis zu 60 % der Wähler zugunsten eines bestimmten Kandidaten verschoben werden. „99 Prozent der Teilnehmer hatten keine Ahnung, dass sie manipuliert wurden.“ Gerd Gigerenzer, Direktor des „Center for Adaptive Behavior and Cognition“ am Max-Planck-Institut für Bildungsforschung in Berlin, bestätigt, dass, nachdem Nutzer meist nur die obersten Suchresultate anschauen, deren Reihenfolge einen großen Einfluss hat: „Je nachdem, ob man die guten oder die schlechten Nachrichten über Donald Trump nach oben schiebt, könnte man die aktuellen Vorwahlen in den USA beeinflussen“.52

Ganz aktuell sind auch Studien von Nicholas Diakopoulos, Computerwissenschaftler und Journalismusdozent von der University of Maryland. Hier wurde untersucht, ob Google bestimmte Kandidaten für die US-Präsidentschaft bevorzugt oder benachteiligt. Das Ergebnis war höchst interessant, brachten doch 7 der ersten 10 Treffer bei Google-Suchanfragen zu den Demokraten positive Meldungen, während bei einer entsprechenden Recherche zu den Republikanern im Durchschnitt nur 5,9 positive Nachrichten zu den betreffenden Politikern angezeigt wurden. Hier stellt sich natürlich die Frage nach der Ausrichtung des Algorithmus. Gibt dieser die allgemeine Stimmung im Netz wieder, präferiert er eher liberale Positionen, wer hat hier wie eingegriffen und wer genau kontrolliert das in Zukunft?53

Nudging bei Facebook

Schauen wir uns im Weiteren auch bei Facebook den bereits vorhandenen Werkzeugkasten potenzieller Manipulationsinstrumente an. Facebook unterhält ein eigenes KI-Labor, welches entsprechende Beziehungsdaten der Nutzer erhebt. Es geht darum, möglichst optimal darüber Bescheid zu wissen, was Facebook-Nutzer über den Tag so machen, wo sie sich gerade aufhalten, welche Produkte sie gut finden und welche Parteien und Politiker sie wählen. Dies nicht zuletzt auch über das 2014 vorgestellte System „DeepFace“, welches aus einer großen Menschenmenge einzelne Gesichter mit einer Genauigkeit von über 97 Prozent erkennen kann.54

Über die bekannten Sympathiebekundungen für Bilder und Nachrichten bei Facebook in Form von „Likes“ lassen sich die ethnische Zugehörigkeit, die politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung, Nikotin-, Alkohol- und Drogenkonsum ziemlich genau ableiten.55 Dies zeigt u. a. auch ein entsprechender Versuch der Universität Cambridge, über den Markus Morgenroth berichtet. Bei der gewählten Versuchsanordnung sollten über statistische Analyseverfahren anhand der Likes von 58.000 Probanden entsprechende Details aus deren Leben ermittelt werden. Über lediglich 68 im Durchschnitt ausgewertete Likes konnte eine recht hohe Treffsicherheit erzielt werden. 95 Prozent der errechneten Zuordnung von Amerikanern mit afrikanischem oder kaukasischem Hintergrund waren richtig, 93 Prozent der Einordnung männlich/weiblich waren korrekt sowie der Unterscheidung zwischen Christen und Muslimen. Bei 82 Prozent der Versuchsteilnehmer konnte die Zugehörigkeit zu „Demokraten“ und bei 85 Prozent zu „Republikanern“ richtig errechnet werden. Die Werte für die Vorhersage der sexuellen Orientierung waren bei Männern zu 88 Prozent und bei Frauen zu 75 Prozent richtig. Die Werte bei der richtigen Ermittlung des Suchtmittelkonsums lagen bei vergleichsweise schwachen 65 bis 73 Prozent.56

Bei derartigen Ergebnissen liegt es nahe, solche Erkenntnisse wirtschaftlich zu verwerten, was natürlich auch bereits geschieht. So bietet z. B. das Unternehmen Big Data Scoring aus Estland ein Kredit-Scoring-Verfahren auf Basis von Facebook-Profilen an. Über einen entsprechenden Algorithmus kann die Kreditwürdigkeit auf einer Skala von eins bis zehn anhand des Onlineverhaltens der Person festgelegt werden. Eine Dienstleistung, die nicht nur für Banken, sondern auch für Onlineshops sowie Immobiliengesellschaften zunehmend interessant werden wird. Nach eigenen Aussagen wird hierfür auf ca. 7.000 Datenpunkte pro Antragsteller zurückgegriffen, inkl. Informationen über das Verhalten eines Antragstellers während des Ausfüllens eines Kreditantrages, wie die Dauer des Ausfüllvorganges, Lektüre der Geschäftsbedingungen etc.57 Schön zu wissen, dass sich die Software gut verkauft und bereits in 10 – 15 Ländern genutzt wird. In Zukunft soll sie auch in Deutschland, Österreich und der Schweiz verfügbar sein! Bei dem in Hamburg ansässigen Unternehmen Kreditech fließen ca. 15.000 Datenpunkte in die Berechnungen der Kreditwürdigkeit von Personen ein, inkl. Informationen aus Facebook-, Xing- oder LinkedIn-Profilen des jeweiligen Antragstellers, zu denen die Firma Zugang fordert.58

Bei Studien der Universität Stanford durch den Psychologen B. J. Fogg wurde der Newsfeed testhalber manipuliert. Das Experiment wurde an 689.000 Menschen in zwei Versuchsgruppen durchgeführt. Bei der einen Gruppe wurde der Nachrichtenstrom so verändert, dass mehr negative Nachrichten erschienen, bei der anderen Gruppe mehr positive Nachrichten. Der Inhalt des Nachrichtenstroms veranlasste die positive Gruppe dazu, eher positive Inhalte weiterzu­verbreiten und umgekehrt. Hiermit war bewiesen, dass Menschen gezielt beeinflusst werden konnten. „Emotional Contagion“ oder „emotionale Ansteckung“ ließ sich durch die Änderung eines entsprechenden Algorithmus relativ einfach bewirken.59

Wahlbeeinflussung by Facebook und Twitter

Mit diesen Voraussetzungen ist klar, dass auch Facebook im politischen Geschäft mitmischen kann. Wie bereits festgestellt lässt sich ja z. B. anhand der Likes bestimmen, wer welche Wahlpräferenzen hat. Dies ermöglicht es, entsprechende Präferenzen durch die Steuerung des jeweiligen Nachrichten-Feeds zu beeinflussen. Bekanntlich werden diese Feeds bei Facebook ohnehin stets individuell kuratiert, wobei von durchschnittlich 1.500 Nachrichten jeweils nur 300 dem betreffenden Nutzer angezeigt werden.60 Der Facebook-Algorithmus sorgt dafür, dass Nutzer eher die Status-Updates jener Freunde sehen, die eine ähnliche Meinung vertreten wie sie selbst.61 Würde Facebook alle Nachrichten aller Kontakte aufzeigen, wäre dies sicher viel zu viel Information, Facebook würde wahrscheinlich nicht mehr wirklich funktionieren. Es gibt sie also auch bei Facebook, die bereits bei Google identifizierte Filterbubble, mit deren Informations(vor)auswahl natürlich auch ganz konkret Politik gemacht werden könnte.

Aber damit nicht genug, seit einigen Jahren gibt es bei Facebook in den USA eine Schaltfläche, mit der die Nutzer anderen Nutzern mitteilen können, dass sie wählen gehen werden. Es handelt sich hierbei um den bekannten „I am a Voter“-Button.62 Bei den Kongresswahlen 2010 wurde innerhalb einer Facebook-Studie mit zwei Kontrollgruppen à 600.000 Bürgern durch die Veränderung der Schaltflächen bei 61Millionen Usern getestet, welche Auswirkungen dies haben würde. Die Studie unter der Bezeichnung „Das 61-Millionen-Menschen-Experiment zu sozialer Beeinflussung und politischen Mobilisierung“ wurde zwei Jahre später veröffentlicht und zeigte, wie sich Wahlverhalten mit Facebook anheizen lässt.63 Das Ergebnis war höchst eindrucksvoll. Wahlverhalten konnte tatsächlich beeinflusst werden, wobei nicht nur die direkten User davon betroffen sein müssen, sondern auch die Freunde ebenso wie die Freunde der Freunde nach dem bekannten Facebook-Multiplikationsverfahren. Durch den Einsatz dieses Facebook-„Wähler-Megaphons“ konnten 340.000 mehr Menschen zum Urnengang bewegt werden. Mit großer Wahrscheinlichkeit könnten auch Wähler mit ganz bestimmten politischen Überzeugungen und aus bestimmten Regionen mobilisiert werden. All dies sind klare Hinweise auf potenzielle Manipulationsmöglichkeiten, die vor allem dann sehr gefährlich sind, wenn sie bei einem Medium wie Facebook zum Einsatz kommen, durch welches sich die Amerikaner mehrheitlich über politische Nachrichten informieren.

Ganz aktuell sind Informationen zu den Vorwahlen zur Präsidentschaftswahl 2016. Hier beauftragte der Republikaner Ted Cruz das Datenunternehmen Cambridge Analytica, Seiten von Millionen Facebook-Nutzern nach individuellen Persönlichkeitsprofilen zu analysieren, um dabei diejenigen Wähler zu identifizieren, die am ehesten zur Wahl von Cruz umgestimmt werden könnten.64

Aber nicht nur Google und Facebook sind im politischen Geschäft. Laut Simon Hegelich, Professor für politische Datenwissenschaft an der Technischen Universität München (TUM), mischt auch Twitter bereits seit Jahren kräftig mit, wie z. B. bei den Senatswahlen um den Posten von Ted Kennedy, die durch Twitter-Bots beeinflusst wurden. Gleiches gilt 2016 für Donald Trump, bei dem einige Twitter-Accounts aufgefallen sind, die wortgleich pro Trump getwittert haben, was ein deutliches Indiz für den Einsatz von Bots ist. Nach Einschätzung von Hegelich sind 5 – 10% der Twitter-Nutzer keine echten Menschen, sondern Twitter-Bots, die auch zur Stimmungsmache eingesetzt werden und gesellschaftliche Trends komplett verfälschen können. „Wenn etwa ein Politiker fragt, wie gerade die Stimmung im Internet ist, und dann gesagt bekommt, das Internet sei jetzt gegen Flüchtlinge, dann macht er vielleicht eine andere Politik, um diesem vermeintlichen Wählerwillen zu entsprechen.“65

Zusammenfassend darf festgestellt werden, dass die fortschreitende Automatisierung von Politik schlussendlich deren Abschaffung und damit auch das Ende von Demokratie bedeutet, lässt sich doch die Reduktion von Information auf einen bestimmten Ausschnitt politisch nutzen. Durch die User-spezifische Informationskuratierung von Google und Facebook wird nach Eli Pariser die politische Diskussion eingedämmt und Demokratie verunmöglicht und dies, ohne Zensur im klassischen Sinne auszuüben. Auf diese Weise entmündigt das Internet die Bürger, z. B. auch durch die Ausblendung unterschiedlicher Wahlwerbung.66 Im Übrigen sind die meisten Menschen schlicht zu faul, nach weiteren Informationen zu suchen, von denen sie nicht wissen, dass sie existieren.

Demokratie – ein Auslaufmodell

Konsequent weitergedacht und z. B. von Tim O’Reilly, dem Erfinder des Begriffs Web 2.0, auf den Punkt gebracht, werden Gesellschaften zukünftig anscheinend sowieso besser über „algorithmische Regulation“ statt über Gesetze und politische Überzeugungsarbeit gesteuert67, genauso wie in Zukunft z. B. auch Autos selbstreguliert und unfallfrei fahren und Flugzeuge bereits heute weitgehend von Autopiloten geflogen werden. Deshalb wird von Strategen wie Tim O’Reilly, Peter Thiel und wohl auch sehr vielen weiteren Unternehmern aus Silicon Valley Demokratie als „veraltete Technologie“ angesehen. Im Gegensatz zu maschinengestützten kybernetischen Regelkreisen sind politische Abstimmungsprozeduren und Gesetzesinitiativen langsam und können nicht schnell genug auf Veränderungen reagieren. Statt alter demokratischer Abläufe und politischer Verfahren sollten sich deshalb in Zukunft intelligente Systeme entsprechenden Entwicklungen und Innovationen anpassen, indem der jeweilige Ist-Zustand, einem Thermostaten vergleichbar, evaluiert und mit den Zielvorstellungen abgeglichen wird. Bei Bedarf wäre automatisch gegenzusteuern!68

Wer allerdings gibt in diesem Zukunftsmodell die Zimmertemperatur vor? Wer gibt die Zielvorgaben für die geplanten kybernetischen Selbststeuerungen? Wo – genau gefragt – bleibt das Gemeinwohl als eigentliche Bezugsgröße gesellschaftlicher Entwicklung, das Maß für Politik und Demokratie?

IV. Künstliche Intelligenz und Polit-Nudging infrage gestellt

Wie bereits erwähnt, könnte diese neue Form der Politik das Ende derselben bedeuten und spätestens dann, wenn die Grundlage demokratischer Gesellschaften in Frage gestellt und durch KI die Autonomie der Menschen immer weiter ausgehöhlt wird, muss diese neue Technologie gründlich infrage gestellt werden.

Die Ökonomen Bruno S. Frey von der Universität Basel und Jana Gallus von der Harvard Kennedy School plädieren für klare Verfassungsrichtlinien für den Einsatz von KI-gestütztem Nudging, denn nur so könnten die Bürger mitentscheiden, unter welchen Bedingungen eine Regierung oder auch Parteien auf Nudging zurückgreifen dürfen. „Die Annahme, dass Nudges immer im Sinne der Bevölkerung genutzt werden, ist höchst fragwürdig, wenn nicht grundfalsch.“69 Der Jurist Andrej Zwitter, der sich an der Universität Groningen in den Niederlanden unter anderem mit Nudging befasst, geht hierbei noch einen Schritt weiter: „Generell sollte sowohl in der Politik wie auch in der Privatwirtschaft der Entmündigung des Bürgers durch Verhaltensmodifikation ein Riegel vorgeschoben werden. Dies könnte beispielsweise ein Verbot von Nudging beinhalten, welches bewusst den Bürger manipulieren und ihn darüber im Unklaren halten will.“70 Nach Evgeny Morozov handelt es sich bei dem Motiv, Nudging überhaupt einzusetzen, um den naiven Glauben, dass viele Probleme durch die Veränderung unseres individuellen Verhaltens zu lösen sind und die Ursache sozialer Probleme mehr als Versagen von Individuen zu verstehen ist, denn als das „Resultat bestimmter struktureller Bedingungen ihrer sozioökonomischen Milieus“.71

Eine große Gefahr besteht vor allem auch darin, dass wir zunehmend von Systemen abhängig werden, die wir nicht mehr verstehen. Die KI, welche Google, Amazon oder Facebook an ihre Server-Farmen koppelt, lernt stetig mehr und trifft Entscheidungen, die von Menschen nicht mehr nachvollziehbar sind. Die Steuerung systemrelevanter Infrastruktur wie Fabriken, Elektrizitätswerke, Serverfarmen oder Finanzsysteme hängt zunehmend von KI ab, die wir nicht mehr vollumfänglich verstehen.72

Am 1. Mai 2014 veröffentlichte der Physiker Stephen Hawking gemeinsam mit einer Reihe weiterer Wissenschaftler einen offenen Brief, in dem er vor der Entwicklung Künstlicher Intelligenz warnt. Hawking und Kollegen sehen eine große Gefahr von der Künstlichen Intelligenz ausgehen, die vor allem in einer Intelligenz-Explosion münden könne, wenn eine Maschine die kognitiven Fähigkeiten eines Menschen erreicht hätte und sich ab diesem Zeitpunkt selbst weiter optimieren könnte. KI auf dieser Entwicklungsstufe könnte Finanzmärkte überlisten, Führungspersönlichkeiten manipulieren oder Waffensysteme entwickeln, die wir nicht mehr verstehen können.73

Im Sommer 2015 sahen sich die Wissenschaftler veranlasst, in einem weiteren offenen Brief aus Buenos Aires nochmals nachzulegen. „The key question for humanity today is whether to start a global AI arms race or to prevent it from starting.“74 Dieses Mal unterzeichneten 16.000 Wissenschaftler und bezogen sich explizit auf die fortschreitende Entwicklung von auto­nomen Waffensystemen, wobei die Entwicklung militärischer KI hinsichtlich der Gefahr für die Menschheit mit jener von Atomwaf­fen vergleichbar wäre.

Eine weitere Gruppe von Wissenschaftlern um Gerd Gigerenzer, u. a. Direktor des Harding-Zentrums für Risikokompetenz, und Dirk Helbing, Professor für Computational Social Science der ETH Zürich, warnt in ihrem Digital-Manifest vor einem Kontrollverlust durch ausgefeilte Algorithmen und Künstliche Intelligenz.75 Zu den Unterzeichnern gehört auch Yvonne Hofstetter, die sehr eindrücklich auf die mit KI verbundene Gefahrenlage hinweist. „Derartige Systeme sind ein Angriff auf die Autonomie des Menschen. Sie funktionieren nur auf der Basis unterbrechungsfreier Totalüberwachung.“76

Neben ganzen Heerscharen von Wissenschaftlern warnen mittlerweile auch einige Silicon-Valley-Tycoone vor den Gefahren der Künstlichen Intelligenz, wenn diese auch nur annähernd das menschliche Gehirn zu simulieren in der Lage wäre.77 Bill Gates und Tesla-Gründer Elon Musk gehören zu den ganz prominenten Warnern in Sachen KI. Sie warnen öffentlich davor, dass Künstliche Intelligenz zu einer Bedrohung für die Menschheit werden könnte.78 Musk, sonst völlig unerschrocken, z. B. hinsichtlich seiner Pläne zur libertaristischen Besiedlung des Planeten Mars in den nächsten 15 Jahren, warnt in Anbetracht der Macht und Technologiekonzentration bei Google davor, dass der Konzern eines Tages den Planeten aus Versehen auslöschen könnte und hält die Künstliche Intelligenz sogar für potenziell gefährlicher als die Atombombe.

Superintelligenz

Die allergrößte Gefahr scheint allerdings von der maximalen KI-Ausbaustufe in Form der erwähnten Superintelligenzen auszugehen. Hierbei geht es primär nicht mehr nur um die KI-gestützte Manipulation von Bürgern durch Konzerne und Regierungen, sondern um die potenzielle Machtübernahme der neuen Intelligenzen ohne wirkungsvolle Kontrolle derselben durch staatliche oder wirtschaftliche Organisationen.

Eine wichtige Autorität in diesem Fachbereich ist Prof. Nick Bostrom, Direktor des Future-of-Humanity-Instituts in Oxford und Verfasser des 2014 erschienen Buches „Superintelligenz“.79 Für Bostrom ist eine Superintelligenz jede Art von Intelligenz, die die menschliche überbietet. Insbesondere durch den Nachbau der neuronalen Strukturen des menschlichen Gehirns ließe sich nach Bostroms Auffassung bis ca. 2075 eine Intelligenzform schaffen, die sich selbstständig permanent verbessern könnte, was auch für ihn zu einer Art Intelligenz-Explosion führen könnte, von der bereits Hawking und Kollegen 2014 gewarnt haben.80

Es besteht nach Bostrom die Gefahr, dass diese neue Intelligenzform nach kurzer Zeit versucht sein könnte, selbst zukunftsrelevante Entscheidungen zu treffen und sich wahrscheinlich von der begrenzten humanoiden Intelligenz nicht ins Handwerk pfuschen ließe. Bostrom fürchtet, eine solche Intelligenz könnte alle Sicherungssysteme hacken und einer Sicherheitsverwahrung stets entrinnen, dies allein schon um sicherzustellen, dass sie an der Erledigung einer gesetzten Aufgabe nicht gehindert wird. Deshalb wird sie immer um ihr eigenes Überleben bemüht sein und entsprechend dafür sorgen. Es besteht nach Auffassung der Experten die Gefahr, dass eine solche Intelligenz, z. B. um eine bestimmte gestellte Aufgabe zu Ende zu bringen, die ganze Zivilisation auslöschen könnte.81 Deshalb plädieren die Wissenschaftler dafür, alle Forschungen zum Thema KI solange einzustellen, bis die Frage nach der Kontrolle der Systeme ebenso wie das Problem der ethischen Orientierung und der wertemäßigen Zielvorgabe wenigstens annäherungsweise gelöst sind.82

Diese Entwicklung wird von dem amtierenden Technologiedirektor bei Google und genialen Erfinder Ray Kurzweil allerdings ganz anders eingeschätzt. Er sieht im Wesentlichen große Chancen für die Menschheit, wenn es endlich so weit sein wird, die menschliche Intelligenz und die Maschinen-Intelligenz zu verschmelzen. Dann wird es seiner Meinung nach nämlich möglich sein, die Restriktion der menschlichen Rasse hinsichtlich der begrenzten Anzahl von einhundert Billionen möglicher neuronaler synaptischer Verschaltungen im Gehirn durch entsprechende Implantate oder die Anbindung an externe Systeme zu überwinden.

Kurzweil beschreibt in seinem 2005 erschienen Buch „Menschheit 2.0“83 bereits sehr genau, wie dieser Übergang von menschlicher und maschineller Intelligenz seiner Auffassung nach funktionieren wird. Es steht für ihn außer Zweifel, dass gegen Ende der 2020er-Jahre mit den ersten Computern zu rechnen sein wird, die den Turing-Test bestehen84. Dies bedeutet, dass aufgrund der Versuchsanordnung dieses Tests Computerintelligenz nicht mehr von der Intelligenz biologischer Menschen unterscheidbar sein wird. Kurzweil geht davon aus, dass, wenn erst einmal die Maschinen den entsprechenden Entwicklungsstand erreicht haben, die traditionellen Stärken menschlicher und maschineller Intelligenz sich gegenseitig verstärken werden. Dies wäre beim Menschen vor allem die Begabung zur Mustererkennung, welche, wegen der massiven Parallelität und autonomen Organisation des Gehirns „optimale Voraussetzungen für ein Erkennen von versteckten Regelmäßigkeiten im Chaos“ darstellt. Menschen können aus Erfahrungen und sprachlichen Informationen lernen, Schlüsse ziehen, Gesetzmäßigkeiten ableiten, wie mentale Abbilder der Realität erstellen und diese variieren.85

Eine traditionelle Stärke von Computern ist es dagegen, riesige Datenmengen zu speichern und Fakten jederzeit abrufen zu können. Neben der Fähigkeit, Erlerntes schnell und beliebig oft anzuwenden und vor allem Wissen extrem schnell zu kommunizieren, wird die nichtbiologische Intelligenz Wissen und Können einfach „downloaden“, von anderen Maschinen und eines Tages auch von Menschen. Die Kombination der Stärken von Mensch und Maschine wird für Kurzweil einen unglaublichen Technologieschub ermöglichen, speziell dann, wenn technischer Fortschritt nicht mehr an die menschliche Denkgeschwindigkeit gekoppelt sein wird. Dies ist insbesondere dann möglich, wenn im Molekularbereich gefertigte, wenige Mikrometer große Roboter, sogenannte „Nanobots“, unzählige Aufgaben im menschlichen Körper übernehmen und unter anderem den Alterungsprozess aufhalten werden. Aber nicht nur als Anti-Aging-Agenten werden die winzigen Roboter in unserem Körper beschäftigt sein, sie werden außerdem auch in den Hirnkapillaren unterwegs sein und unsere Intelligenz drastisch vergrößern.

Spätestens ab diesem Zeitpunkt wird, so Kurzweil, unsere (maschinelle) Hirnleistung exponentiell wachsen und sich jährlich mindestens verdoppeln. Da die biologische Kapazität beschränkt bleibt, wird letztendlich der nichtbiologische Anteil unserer Intelligenz überwiegen. Kurzweil charakterisiert diesen Endzustand wie folgt: „Maschinen werden unsere emotionale Intelligenz durchschauen und besitzen. Darunter zu verstehen ist die Fähigkeit, eigene und fremde Gefühle zu erkennen und darauf zu reagieren. Manche Gefühlsregungen dienen dazu, unsere körperlich begrenzte Intelligenz zu optimieren. Auch die Maschinenintelligenz der Zukunft wird „Körper“ haben, durch die sie mit der Welt interagiert. Aber diese nanogefertigten Körper werden viel leistungsfähiger und robuster sein als der menschliche Leib. Darum wird die Maschinenintelligenz auch anders „fühlen“: Ihre überarbeiteten Emotionen werden ihrem verbesserten Körperbau entsprechen.“86

All dies versteht Kurzweil unter dem Begriff der Singularität und meint damit den Einstieg in eine Mensch-Maschinen-Zivilisation, bei der die Maschinen menschlich sein werden, auch wenn sie nicht biologischen Ursprungs sind. Darin bestünde der nächste Evolutionsschritt, bei dem die meiste Intelligenz der Zivilisation letztlich nicht-biologisch sein wird.

Wen dieses Szenario irritiert, den beruhigt Kurzweil mit der Überzeugung, dass diese Entwicklung nicht das Ende der biologischen Intelligenz als solcher darstellen wird, „obgleich diese dann als Krone der Schöpfung abdanken muss. Unsere Zivilisation bleibt menschlich – sie wird der Menschlichkeit sogar in vielerlei Hinsicht mehr Ehre machen als die heutige; der Menschheitsbegriff wird sich jedoch von seinen biologischen Wurzeln lösen.“87

Kurzweil meint all dies sehr ernst und setzt auch persönlich auf den technologischen Fortschritt, um solange gesund zu bleiben, bis der Übergang zur Singularität geschafft sein wird. „Das heutige medizinische Wissen reicht aus, Alter und Krankheit soweit aufzuhalten, dass meine Generation (die „Baby-Boomer“) gesund bleiben kann, bis die biotechnische Revolution ihre volle Blüte erreicht, welche wiederum einen Übergang zur nanotechnischen Revolution bilden wird.“88 Dann werden für Kurzweil eben auch Krankheit, Alter und Tod nicht mehr unüberwindbar sein, Umstände, mit denen es sich keinesfalls abzufinden gilt. Er sieht Krankheit und Tod als Ärgernis, als Probleme, die es zu lösen gilt.89 Nach Kurzweil sind wir auch heute schon in der Lage, unsere Biochemie zu reprogrammieren, wobei er hierfür alles Notwendige zu tun meint: „Ich schlucke jeden Tag 250 Tabletten und erhalte jede Woche ein halbes Dutzend intravenöse Behandlungen (größtenteils direkt injizierte Nahrungsergänzungsmittel, die so den Verdauungstrakt umgehen).“90

Diese aberwitzigen Vorstellungen über die Zukunft der Menschheit stammen nun allerdings nicht von irgendeinem Science-Fiction-Schriftsteller oder Hollywood-Regisseur, sondern – es darf nochmals daran erinnert werden – vom Technologiechef des größten und mächtigsten Unternehmens der Welt. Kurzweil ist außerdem Gründer der Singularity-Universität, die mit finanziellen Mitteln von Google ebenso wie z. B. der Weltraumbehörde NASA vor einigen Jahren aus der Taufe gehoben wurde.91 Wichtige Förderer sind Cisco ebenso wie Nokia, Autodesk, Deloitte und Google.92

Unabhängig aber davon, wer alles solchen Zukunftsvisionen aktiven Vorschub leistet und ob diese tatsächlich in den kommenden Jahrzehnten technisch umsetzbar sein werden, stellt sich doch lautstark die Frage, ob wir als menschliche Gemeinschaft eine solche Zukunft überhaupt für wünschenswert halten. Wollen wir, dass der nichtbiologische Anteil der Intelligenz deutlich größer als der biologische ist? Möchten wir, dass Roboter die meisten Berufe ersetzen werden? Möchten wir, dass sich Nanoroboter in unseren Gehirnen breitmachen? Wollen wir mit der Tatsache leben, dass jeder, der sich dem verweigert, automatisch zur Intelligenz zweiter Klasse wird, weil er einfach mit der Denkgeschwindigkeit der Superintelligenzen auf Zentralrechnern und den Nanobots im Gehirn seiner Kollegen nicht mehr mithalten kann?

Außerdem muss mit Sven Gábor Jánszky93 auch nach der ökonomischen Verwertung einer Superintelligenz gefragt werden, deren Entwickler ja nicht nur für sich selbst ein Risiko eingehen, sondern jeden Menschen potenziell in Gefahr bringen, natürlich auch diejenigen, die ihr Leben gerne ohne die Einmischung von Superintelligenzen verbringen würden. „Da wir auf diese Weise alle das Risiko tragen, wäre es nur fair, wenn wir auch alle an den Vorteilen und möglichen Gewinnen partizipieren.“94

V. Lösungswege aus der KI-Falle

Es stellt sich damit gesellschaftlich die Frage, wie zukünftig mit dem Thema Künstliche Intelligenz umgegangen werden soll. Nach Meinung der Experten scheint es noch nicht zu spät zu sein, KI auf der Grundlage eines gemeinschaftlichen Konsenses zum Nutzen aller auszurichten.

Kompetenz ausbilden!

Notwendig ist an allererster Stelle die Ausbildung von Sachkompetenz im Umgang mit den neuen Technologien. Mit Schlieter gehört der Umgang mit Daten und z. B. mit den Sozialen Medien als Pflichtfach in den Unterricht jeder Schule.95 Gleiches gilt für den Aufbau von Kompetenz in der KI-Frage durch die Medien und speziell die Journalisten. Das Thema darf nicht länger unter dem Aspekt ausgefallener Technologien abgehandelt werden, sondern muss vor allem im Kontext gesellschaftlicher Implikationen in der Öffentlichkeit thematisiert werden. Wichtig ist die Ausbildung dieser Kompetenz vor allem auch bei Politikern. Besonders diese sollten ein gewisses Grundverständnis in Sachen KI erlangen, um sicherzustellen, dass nicht aus Versehen genau die falschen Regelungen getroffen werden.

Expertenkommissionen, Aufsichtsbehörden und digitale Grundrechte

Im Weiteren müssen interdisziplinäre und international aufgestellte Expertenkommissionen gebildet werden, welche sich ernsthaft mit den Gefahren von Künstlicher Intelligenz beschäftigen. Dabei geht es um die Notwendigkeit einer systematischen Technologiefolgeabschätzung, die den Namen wert ist und die sich auch um proaktive Maßnahmen kümmert, mit denen negative Entwicklungen der Künstlichen Intelligenz verhindert werden könnten und Nutzen für die gesamte Völkergemeinschaft generiert werden kann.

Künstliche Intelligenz sollte auf alle Fälle staatlicher Aufsicht unterstellt werden, wie dies z. B. auch für die Atomenergie gilt. Hier konnte die Internationale Atomenergiebehörde (IAEA)96 in den Jahren ihrer Tätigkeit doch einige Wirksamkeit entfalten, auch wenn die Organisation ihre potenzielle Reichweite noch lange nicht ausgeschöpft haben mag!

Mit Yvonne Hofstetter lässt sich festhalten, dass mit entsprechendem politischem Einfluss auf die Programmierung selbstverständlich heute immer noch Schaden durch KI von der Gesellschaft abgewendet werden kann. Sie fordert genau deshalb eine entsprechende neu zu gründende Aufsichtsbehörde, weil heute zu viele Daten und zu viel Macht bei ganz wenigen Entscheidern liegen: „Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“97 Auch Daniel Oberhaus sieht in einem Artikel in der eher technikbefürwortenden Zeitschrift Vice die Notwendigkeit, Aufsichtsbehörden einzurichten, bringt allerdings noch keine konkreten Vorschläge zur Umsetzung.98 Auf alle Fälle gilt es mit Frank Pasquale, Juraprofessor an der University of Maryland, Algorithmen auch mit rechtlichen Mitteln Einhalt zu gebieten. „Einige Datenpraktiken sind einfach zu invasiv, um in einer zivilisierten Gesellschaft zulässig zu sein.“99 Deshalb wäre auch an die Möglichkeit zu denken, Algorithmen von unabhängigen Gutachtern durch eine Art Algorithmen-TÜV überprüfen zu lassen und analog des Datenschutzbeauftragten auch einen Algorithmusbeauftragten zu institutionalisieren.100

Martin Schulz, Präsident des Europäischen Parlamentes, wendet sich massiv gegen die Tendenz zu einem deutlich feststellbaren technologischen Totalitarismus, dem mit aktivem Schutz der Grundrechte zu begegnen ist. Schulz fordert deshalb auch eine Charta der Grundrechte für die digitale Zeit. Das ist deshalb so drängend, weil innerhalb komplexer Systeme mehr und mehr Algorithmen von anderen Algorithmen programmiert werden und damit komplexe ethische Fragen aufgeworfen werden, die einer grundsätzlichen gesellschaftlichen Debatte bedürfen.101 Deshalb wird seiner Einschätzung nach eine soziale Bewegung gebraucht, „die die Unverletzlichkeit der menschlichen Würde ins Zentrum ihrer Überlegungen stellt und die nicht zulässt, dass der Mensch zum bloßen Objekt degeneriert. … Es geht um nichts weniger als um die Verteidigung unserer Grundwerte im 21. Jahrhundert. Es geht darum, die Verdinglichung des Menschen nicht zuzulassen“102.

Kontrolle von Algorithmen während Wahlen und Volksabstimmungen

Die Notwendigkeit einer Aufsicht für Algorithmen stellt sich vor allem auch im Kontext von Wahlen und Volksabstimmungen. Wie dargestellt, kann der Einsatz von Social-Bots eine Irreführung der Bevölkerung und eine Vortäuschung falscher Tatsachen darstellen und bei einigen Varianten von Nudging könnte bereits heute der Straftatbestand der Wahlmanipulation vorliegen. Größtes Problem ist dabei die komplette Unsichtbarkeit der neuen Formen der Propaganda im Internet, die deswegen besonders gefährlich ist, weil man sich kaum dagegen wehren kann.103 Prof. Epstein fordert deshalb eine strenge Regulierung und Überwachung von Suchfunktionen und entsprechenden Algorithmen, die im Zusammenhang mit Wahlen stehen. „Wir gehen davon aus, dass Suchmaschinen-Manipulation(en) mit an Sicherheit grenzender Wahrscheinlichkeit bereits jetzt Wahlausgänge auf der ganzen Welt beeinflussen.“104

Deshalb sollten die Suchalgorithmen bei Google ebenso wie die Like-Steuerung bei Facebook während entsprechender Wahl- und Abstimmungszeiten besonders an die Kette gelegt werden.105 Dies natürlich vorzugsweise in Verbindung mit den von Hofstetter geforderten internationalen Algorithmenkonventionen.106 Hier wäre zum Schutz von Wahlen u. a. auch an digital kompetente Wahlbeobachter zu denken, die nicht nur in „Schurkenstaaten“, sondern insbesondere auch vor unserer eigenen Haustüre zu wachen hätten.

Gleiches gilt für die potenzielle Einflussnahme durch die großen Onlinekonzerne, insbesondere auch bei allen direktdemokratischen Abstimmungen und Volksbefragungen. Volksabstimmungen in den deutschen Bundesländern oder auch z. B. in der Schweiz, sollten dringend dahin gehend untersucht werden, ob hier hinsichtlich politisch motivierter „SEO-Maßnahmen“107 in den letzten Jahren immer alles mit rechten Dingen zugegangen ist, falls dies im Nachhinein überhaupt noch festgestellt werden kann. Auf jeden Fall wären umgehend entsprechende Schutzmaßnahmen z. B. durch die Offenlegung von Algorithmen einzufordern. Im Übrigen wäre darauf zu drängen, dass Google, Facebook und ähnliche Unternehmen verpflichtet werden, eine entsprechend transparente Darstellung aller zur Abstimmung anstehenden politischen Positionen zu entsprechenden Abstimmungsinhalten in Wahl- und Abstimmungszeiten zu gewährleisten.108

KI-Waffen ächten

Alle Experten sind sich darüber einig, dass vor allem das gegenwärtige Wettrüsten im KI-Bereich beendet werden muss, denn derzeit herrscht hier wilder Wettbewerb. Konzerne, Forschungseinrichtungen und ganze Länder stehen im Wettrüsten gegeneinander, alle darum bemüht, einen eigenen Vorsprung und eigene Vorteile zu generieren. Ein Prozess, bei dem zwangsläufig Innovationstempo immer vor Sicherheit gehen wird.

Es sollte deshalb für die Herstellung und den Einsatz von KI in der Waffentechnologie, z. B. in Form von autonom operierenden Waffen, eine internationale Ächtung durchgesetzt werden, analog blind machender Laserwaffen oder Streubomben. Diese Ächtung sollte genau so dringend umgesetzt werden, wie dies von Hawkings und Kollegen in der bereits angesprochenen Erklärung von Buenos Aires gefordert wurde. Es wäre die Aufgabe der Vereinten Nationen, für eine entsprechende Umsetzung zu sorgen, nachdem selbst im Koalitionsvertrag der Bundesregierung steht: „Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen.“109

KI-Spielregeln gesellschaftlich definieren: Gemeinwohl-KI

Kai Schlieter ist auf dem richtigen Weg, wenn er fragt, ob sich eine KI entwickeln ließe, die im Sinne der Menschen funktioniert und als partizipativ ausgerichtete Technologie auf Freiwilligkeit und demokratischen Spielregeln basiert. Schlieter prägt in diesem Zusammenhang den Begriff einer Bürger-KI, die den Schutz von persönlichen Daten umsetzt, nicht von oben gesteuert wird und einen globalen Nutzen für alle stiftet.110 Dem ist eindeutig zuzustimmen, denn selbstverständlich ist spätestens mit der KI-Technologie klar geworden, dass Technik immer auch eine Frage nach der gesellschaftlichen Verantwortung darstellt.

Allerdings gilt es, gerade diesen Aspekt einer demokratisch ausgerichteten Bürger-KI noch etwas weiter zu führen: Nicht nur scheint es angemessen, das Treiben staatlicher und privater KI-Forschung demokratisch zu konterkarieren, vielmehr sollte außerdem sichergestellt werden, dass alle weitere Entwicklung auf diesem Felde ausschließlich zum Nutzen aller Menschen erfolgt. Die Frage nach unserer digitalen Zukunft ist eine Angelegenheit, die uns alle angeht und in die wir alle eingeschaltet sein sollten. Unter keinen Umständen sollten wir den Umgang mit KI genau denjenigen überlassen, die Demokratie für eine veraltete Angelegenheit betrachten und die im Wesentlichen der Erwirtschaftung von Gewinnen verpflichtet sind.

Deshalb darf abschließend der zentrale Wirkmechanismus unserer gegenwärtigen Wirtschaftssysteme nicht unberücksichtigt bleiben, der eben genau in der Erwirtschaftung maximaler Profite zum Nutzen Weniger besteht. Wenn nämlich die weitere Entwicklung der KI-Technologie dem sogenannten „freien Spiel der Kräfte“ überlassen bleibt, wird sich dieser Mechanismus auch hier verstetigen. Eine Ökonomie der grenzenlosen Profitgier wird auch vor der gnadenlosen Verwertung und privatwirtschaftlichen Ausbeutung der Künstlichen Intelligenz nicht haltmachen.

KI-Technologie zum Gemeingut erklären

Anstatt also weiterhin große zivilisatorische Verwerfungen in Kauf zu nehmen und die Umstellung von immer mehr Arbeitsprozessen auf Roboter und Künstliche Intelligenzen mit großen Finanzmitteln zu fördern, wäre es angezeigt, über die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich nachzudenken! Der richtige Umgang mit KI erfordert Schlieter zufolge als Maßstab, das Gemeinwohl anzulegen und dabei keine ökonomischen, kommerziellen oder behördlichen Interessen in den Vordergrund zu stellen.111

Konsequent zu Ende gedacht, bedeutet das die Überführung der KI-Forschungsergebnisse in Gemeingut. Gemeingüter oder Commons sind hierbei als Ressourcen zu verstehen, die als gemeinschaftliches Eigentum der Menschheit anzusehen sind. Die hier infrage stehenden kulturellen Gemeingüter umfassen z. B. menschliches Wissen, Kulturtechniken und Kulturleistungen, Sprache, Software-Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder z. B. auch das Internet. Die Herstellung solcher kultureller Commons – zu denen nach Auffassung des Autors definitiv auch die KI-Technologie gezählt werden sollte – geht selten allein auf die exklusive Leistung einzelner Urheber zurück, sondern fußt auf einem über Jahrhunderte gewachsenen Schatz kultureller Errungenschaften und vor allem auf dem Ergebnis Jahrzehnte langer Forschung im universitären und im Falle der Künstlichen Intelligenz auch im militärischen Bereich. Die damit erfolgte öffentliche Finanzierung lässt eine rein privatwirtschaftliche Verwertung problematisch erscheinen.112

Ein wichtiges Ergebnis dieser Überlegungen wäre damit die Sichtweise, KI-Technologien privatem Verwertungszugriff zu entziehen und zu kulturellem Gemeingut umzuwidmen, so wie dies z. B. bereits für das „Allen Institute for Artificial Intelligence“ in Seattle gelten soll, welches Microsoft-Mitgründer Paul Allen mit mehr als einer Milliarde Dollar finanziert und bei dem sämtliche Forschungsergebnisse kostenlos veröffentlicht werden und jeder mit den erforschten Daten machen darf, was immer er möchte.113

Gesamtgesellschaftlich betrachtet wären damit alle diesbezüglichen Forschungsergebnisse Gemeingut und entsprechend internationalen Kontrollgremien zu unterstellen, um Künstliche Intelligenz als Gemeinwohl-KI in den Dienst der Vielen zu stellen, statt diese dem Profit-Interesse einiger Weniger zu überlassen. Genau dies gilt es innerhalb der Zivilgesellschaft zu diskutieren und in entsprechende Gesetzesinitiativen zu fassen!

 

Michael W. Bader – Unternehmer, Autor, Speaker

Michael W. Bader, geboren am 26.12.1952, studierte Germanistik und Politikwissenschaften unter anderem bei Professor Dr. Martin Greiffenhagen in Stuttgart. Bader ist geschäftsführender Gesellschafter der 1979 gegründeten Online-Beratungsgesellschaft „GFE Media GmbH“ in Göppingen und amtierender Vorstand der „Stiftung Media“, Stuttgart sowie Initiator und Kuratoriumsmitglied der rumänischen Stiftung „FCE – Foundation for Culture and Ecology“ mit Sitz in Mediaş, Transsylvanien (Rumänien).

Dies Essay ist eine von Michael W. Bader überarbeitete Version seines Vortrages „Herrschaft der Algorithmen“ auf dem Thementag „Big Data und K. I.“ am 30. März 2016 im Humboldt-Haus des Internationalen Kulturzentrums Achberg.

 

Literaturempfehlungen

  • Bostrom, Nick, Superintelligenz: Szenarien einer kommenden Revolution. Berlin: Suhrkamp, 2014.
  • Hawking, Stephen, „Autonomous Weapons: an Open Letter from AI & Robotics Researchers.“ future of life Institute (28.07.2015). www.futureoflife.org/open-letter-autonomous-weapons (letzter Zugriff: 14. Mai 2016).
  • Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari und Andrej Zwitter, „Digitale Demokratie statt Datendiktatur: Reihe: Das Digitale Manifest.“ Spektrum der Wissenschaft Online (17.12.2015). www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933 (letzter Zugriff: 28. März 2016).
  • Hofstetter, Yvonne, Sie wissen alles: Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen. München: C. Bertelsmann, 2014.
  • Jánszky, Sven Gábor, „Werden wir Menschen zum Spielball der Computer?“. THINK!TANK 3/2016.
  • Kahneman, Daniel, Schnelles Denken, langsames Denken, 18. Aufl. Pantheon-Ausg. München: Pantheon, 2015.
  • Kosinski, Michal, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS.org Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013).www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).
  • Kurzweil, Ray, Menschheit 2.0: Die Singularität naht, 2., durchgesehene Aufl. Berlin: Lola Books, 2014.
  • LeCun, Yann, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S.%nbsp;436–444.
  • Meyer-Schönberger, Viktor, „Was ist Big Data? Zur Beschleunigung des menschlichen Erkenntnisprozesses.“ Aus Politik und Zeitgeschichte 65. Jg., 11-12 (09.03.2015): S. 14–19.
  • Morgenroth, Markus, Sie kennen dich! Sie haben dich! Sie steuern dich!: Die wahre Macht der Datensammler. München: Droemer, 2014.
  • Morozov, Evgeny, „Ich habe doch nichts zu verbergen.“ Aus Politik und Zeitgeschichte 65. Jg., 11-12 (09.03.2015): S. 3–7.
  • Pariser, Eli, Filter Bubble: Wie wir im Internet entmündigt werden. München: Hanser, 2012.
  • Schlieter, Kai, Die Herrschaftsformel: Wie künstliche Intelligenz uns berechnet, steuert und unser Leben verändert. Frankfurt am Main: Westend, 2015.
  • Trojanow, Ilija und Juli Zeh, Angriff auf die Freiheit: Sicherheitswahn, Überwachungsstaat und der Abbau bürgerlicher Rechte. München: Hanser, 2009.

 pdfde2r

Download PDF
  1. Siehe „Wider Monopolismus und Libertarismus“ in diesem Blog.
  2. Viktor Meyer-Schönberger, „Was ist Big Data? Zur Beschleunigung des menschlichen Erkenntnisprozesses.“ Aus Politik und Zeitgeschichte 65. Jg., 11-12 (09.03.2015): S. 14–19.
  3. Dirk Helbing et al., „Digitale Demokratie statt Datendiktatur: Reihe: Das Digitale Manifest.“ Spektrum der Wissenschaft Online (17.12.2015). http://www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933 (letzter Zugriff: 28. März 2016).
  4. Anton Priebe und Assaf Baciu, „Mensch vs. Maschine: Wenn Algorithmen bessere Botschaften entwickeln als Marketer; Interview.“ Onlinemarketing.de (25.04.2016). http://onlinemarketing.de/news/mensch-vs-maschine-algorithmen-botschaften-marketer (letzter Zugriff: 25. April 2016).
  5. Kai Schlieter, „Mensch, gib mir deine Daten: Künstliche Intelligenz.“ taz (18. 09. 2015). http://www.taz.de/!5227616/ (letzter Zugriff: 21. September 2015).
  6. Kai Schlieter, Die Herrschaftsformel: Wie künstliche Intelligenz uns berechnet, steuert und unser Leben verändert (Frankfurt am Main: Westend, 2015).
  7. Markus Morgenroth, „Sie kennen dich! Sie haben dich! Sie steuern dich!: Die wahre Macht der Datensammler“ (München: Droemer, 2014).
  8. Dave Evans, „The Internet of Things: How the Next Evolution of the Internet Is Changing Everything.“. Cisco Internet Business Solutions Group. http://www.cisco.com/c/dam/en_us/about/ac79/docs/innov/IoT_IBSG_0411FINAL.pdf (letzter Zugriff: 16. April 2016).
  9. Helbing et al., „Digitale Demokratie statt Datendiktatur“.
  10. Morgenroth, Sie kennen dich! Sie haben dich! Sie steuern dich! S. 21ff.
  11. Yvonne Hofstetter, Sie wissen alles: Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen (München: C. Bertelsmann, 2014).
  12. Götz Hamann und Adam Soboczynski, „Der Angriff der Intelligenz: Yvonne Hofstetter.“ Zeit Online (10.09.2014). http://www.zeit.de/kultur/2014-09/yvonne-hofstetter-kuenstliche-intelligenz (letzter Zugriff: 6. März 2016).
  13. Kai Schlieter und Marcus Klöckner, „Viele halten die Demokratie für eine veraltete Technologie.“ Telepolis (12.10.2015). http://www.heise.de/tp/artikel/46/46140/ (letzter Zugriff: 6. März 2016).
  14. Schlieter, Die Herrschaftsformel. S. 242.
  15. Deep Blue (1996) und Watson (2011) waren Computerprogramme, die IBM auf Grundlage ihrer KI-Forschung entwickelte. Jeopardy! war eine amerikanische Quizsendung, in der die Teilnehmer die Frage zu einer vorgegebenen Antwort finden mussten.
  16. Jürgen Schmieder, „Wenn Sie Angst vor dem Terminator haben, machen Sie einfach die Tür zu.“ Zeit Online (11.03.2016). http://www.sueddeutsche.de/digital/serie-kuenstliche-intelligenz-wenn-sie-angst-vor-dem-terminator-haben-machen-sie-einfach-die-tuer-zu-1.2901564 (letzter Zugriff: 15. März 2016).
  17. Schlieter und Klöckner, „Viele halten die Demokratie für eine veraltete Technologie“.
  18. Schlieter, „Mensch, gib mir deine Daten“.
  19. Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.
  20. Auf den so genannten Macy-Konferenzen (1946–1953) sollten die Grundlagen für eine Wissenschaft gelegt werden, die die Funktionsweise des menschlichen Gehirns ebenso wie dessen elektronische Adaption in Computern umfasste. Es war wohl Heinz von Foerster, der – mit Blick auf Wieners Aufsätze um 1947 – für eine solche Wissenschaft den Namen Kybernetik vorgeschlagen hatte, unterstützt von Warren McCulloch, John von Neumann und Walter Pitts. Zur Kerngruppe der Macy-Konferenzen gehörten auch die Anthropologin Margret Mead und der Psychologe und Begründer der Aktionsforschung (action research) Kurt Lewin.
  21. Schlieter, „Mensch, gib mir deine Daten“.
  22. Schlieter, Die Herrschaftsformel. S. 118 ff.
  23. Morgenroth, Sie kennen dich! Sie haben dich! Sie steuern dich! S. 54.
  24. Juli Zeh, „Schützt den Datenkörper!“ FAZ.net (11.02.2014). http://www.faz.net/aktuell/feuilleton/debatten/die-digital-debatte/politik-in-der-digitalen-welt/juli-zeh-zur-ueberwachungsdebatte-schuetzt-den-datenkoerper-12794720.html (letzter Zugriff: 10. Mai 2016).
  25. Ilija Trojanow und Juli Zeh, Angriff auf die Freiheit: Sicherheitswahn, Überwachungsstaat und der Abbau bürgerlicher Rechte (München: Hanser, 2009). S. 48 sowie S. 138.
  26. Martin Schulz, „Warum wir jetzt kämpfen müssen: Technologischer Totalitarismus.“ FAZ.net (06.02.2014). http://www.faz.net/aktuell/feuilleton/debatten/die-digital-debatte/politik-in-der-digitalen-welt/technologischer-totalitarismus-warum-wir-jetzt-kaempfen-muessen-12786805.html (letzter Zugriff: 25. April 2016).
  27. Schlieter, Die Herrschaftsformel. S. 116.
  28. Ebd. S. 121.
  29. Andrew Thompson, „Engineers of addiction: Slot machines perfected addictive gaming. Now, tech wants their tricks.“ The Verve (06.05.2015). http://www.theverge.com/2015/5/6/8544303/casino-slot-machine-gambling-addiction-psychology-mobile-games (letzter Zugriff: 11. März 2016).
  30. Ebd.
  31. Ebd.
  32. Nach Kahneman besteht das Problem darin, dass „Menschen dazu neigen, kausales Denken unsachgemäß anzuwenden, nämlich auf Situationen, die statistisches Denken erfordern.“ Daniel Kahneman, Schnelles Denken, langsames Denken, 18. Aufl. Pantheon-Ausg. (München: Pantheon, 2015). S. 103.
  33. Ebd. S. 247ff.
  34. Ebd. S. 32ff.
  35. Ebd. S. 152.
  36. Ebd. S. 152.
  37. Jens-Christian Rabe, „Misstraue dem Vertrauten!: ›Schnelles Denken, langsames Denken‹.“ Süddeutsche, SZ.de (25.05.2012). http://www.sueddeutsche.de/kultur/schnelles-denken-langsames-denken-misstraue-dem-vertrauten-1.1367484 (letzter Zugriff: 25. März 2016).
  38. Schon in vordigitalen Zeiten wurden gehäuft Süßwaren, Tabakartikel und Schnäpse in den Kassenbereichen der Supermärkte angeboten.
  39. Kahneman, Schnelles Denken, langsames Denken. S. 510ff.
  40. Thaler und Sunstein, „Nudge. Improving Decisions about Health, Wealth and Happiness“, zitiert nach Schlieter, Die Herrschaftsformel. S. 137.
  41. Jan Dams et al., „Merkel will die Deutschen durch Nudging erziehen: Verhaltensökonomie.“ Die Welt (12.03.2015). http://www.welt.de/wirtschaft/article138326984/Merkel-will-die-Deutschen-durch-Nudging-erziehen.html (letzter Zugriff: 8. Januar 2016).
  42. FehrAdvice, „Nudges in der Praxis: 5 Beispiele; 26.05.2013.“. http://fehradvice.com/blog/2013/05/26/nudges-in-der-praxis-5-beispiele/ (letzter Zugriff: 8. April 2016).
  43. Schlieter, Die Herrschaftsformel. S. 141.
  44. Dams et al., „Merkel will die Deutschen durch Nudging erziehen“.
  45. Ebd.
  46. Sunstein führt bei einem Besuch im Bundeskanzleramt aus, dass die Prinzipien von Transparenz und Neutralität einzuhalten wären. „Dann kann Nudging ein sehr erfolgreiches Instrument sein, um das Glück der Bürger zu steigern.“ Ebd.
  47. Eli Pariser ist ein bekannter „MoveOn – Democracy in Action“-Aktivist und Autor diverser Beiträge u. a. für die Washington Post und das Wall Street Journal sowie Autor von Eli Pariser, Filter Bubble: Wie wir im Internet entmündigt werden (München: Hanser, 2012). S. 10.
  48. Ebd. S. 96.
  49. Helbing et al., „Digitale Demokratie statt Datendiktatur“.
  50. heise.de/dpa, „US-Professor warnt: Google-Algorithmus kann Demokratie gefährden.“. http://www.heise.de/newsticker/meldung/US-Professor-warnt-Google-Algorithmus-kann-Demokratie-gefaehrden-2577764.html (letzter Zugriff: 5. März 2016).
  51. Ebd.
  52. Joachim Laukenmann, „Wie digitale Daten Wähler manipulieren können: Subtiler Einfluss.“ Welt.de (20.04.2016). http://www.welt.de/wissenschaft/article154572957/Wie-digitale-Daten-Waehler-manipulieren-koennen.html (letzter Zugriff: 21. April 2016).
  53. Christoph Drösser, „Er weiß es, bevor du es weißt: Algorithmen.“ Zeit Online (11.04.2016). http://www.zeit.de/2016/16/computer-algorithmen-macht-buerger-stadt (letzter Zugriff: 3. Mai 2016).
  54. Schlieter, Die Herrschaftsformel. S. 54f.
  55. Eine US-Studie hat belegt, dass rein aus einer Analyse der Facebook-Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS.org Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013). http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).
  56. Morgenroth, Sie kennen dich! Sie haben dich! Sie steuern dich! S. 192.
  57. Ebd. S. 199
  58. Frithjof Küchemann, „Alle Daten sind Kreditdaten: Kommerzielle Überwachung.“ FAZ.net (07.11.2014). http://www.faz.net/aktuell/feuilleton/debatten/eine-neue-studie-ueber-kommerzielle-ueberwachung-13253649.html (letzter Zugriff: 26. April 2016).
  59. Schlieter, Die Herrschaftsformel. S. 145.
  60. Ebd. S. 150.
  61. Pariser, Filter Bubble. S. 14 ff.
  62. Schlieter, Die Herrschaftsformel. S. 150.
  63. Ebd. S. 151.
  64. Laukenmann, „Wie digitale Daten Wähler manipulieren können“.
  65. Ebd.
  66. Pariser, Filter Bubble. S. 164 sowie S. 172.
  67. Schlieter, Die Herrschaftsformel. S. 253.
  68. Schlieter und Klöckner, „Viele halten die Demokratie für eine veraltete Technologie“.
  69. Bruno S. Frey und Jana Gallus nach Laukenmann, „Wie digitale Daten Wähler manipulieren können“.
  70. Andrej Zwitter nach ebd.
  71. Evgeny Morozov, „Ich habe doch nichts zu verbergen.“ Aus Politik und Zeitgeschichte 65. Jg., 11-12 (09.03.2015): S. 3–7. Hier S. 5.
  72. Schlieter und Klöckner, „Viele halten die Demokratie für eine veraltete Technologie“.
  73. Mitautoren waren Frank Wilczek, Max Tegmark und Stuart Russell. Schlieter, Die Herrschaftsformel. S. 16.
  74. „The key question for humanity today is whether to start a global AI arms race or to prevent it from starting.“ Stephen Hawking, „Autonomous Weapons: an Open Letter from AI & Robotics Researchers.“ future of life Institute (28.07.2015). www.futureoflife.org/open-letter-autonomous-weapons/ (letzter Zugriff: 14. Mai 2016). Siehe auch „Die Schlüsselfrage, die sich heute für die Menschheit stellt, ist, ob wir einen globalen Rüstungswettlauf mit KI beginnen oder dies noch ver­hindern können.“ Michael Schulze von Glaßer, „Tötungsmaschinen, selbstgesteuert: Universal Soldier.“ Der Freitag 2015, Nr. 32 (07.08.2015). https://www.freitag.de/autoren/michael-schulze-von-glasser/toetungsmaschinen-selbstgesteuert (letzter Zugriff: 14. Mai 2016).
  75. Verfasser des 2015 veröffentlichten Digitalen Manifestes sind Dirk Helbing, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari und Andrej Zwitter. Helbing et al., „Digitale Demokratie statt Datendiktatur“.
  76. Hamann und Soboczynski, „Der Angriff der Intelligenz“.
  77. Sonali Kohli, „Bill Gates joins Elon Musk and Stephen Hawking in saying artificial intelligence is scary: Danger zone.“ Quartz (29.01.2015). http://qz.com/335768/bill-gates-joins-elon-musk-and-stephen-hawking-in-saying-artificial-intelligence-is-scary/ (letzter Zugriff: 14. Mai 2016).
  78. Thomas Schulz, „Dieser Herr macht bald Ihren Job: Künstliche Intelligenz.“ SPON (22.12.2015). http://www.spiegel.de/netzwelt/web/google-will-maschinen-denken-beibringen-a-1069072.html (letzter Zugriff: 3. April 2016).
  79. Nick Bostrom, Superintelligenz: Szenarien einer kommenden Revolution (Berlin: Suhrkamp, 2014).
  80. Bostrom berichtet, dass viele KI-Experten davon überzeugt sind, dass wir bis 2075 eine KI erreichen, die menschliches Niveau hat. Für ihn könnte dies das Ende der Menschheit bedeuten. Maja Beckers, „Eine gefährliche Explosion der Intelligenz: Superintelligenz.“ Die Zeit 2015, Nr. 3 (15.01.2015). http://www.zeit.de/2015/03/superintelligenz-nick-bostrom-kuenstliche-intelligenz (letzter Zugriff: 27. März 2016).
  81. Dies wahrscheinlich auch nach Auffassung des Autors deswegen, weil Künstliche Intelligenzen sich mit der Anwendung des „Verhältnismäßkeitsprinzips“ in rechtlicher, ethischer und quantitativer Hinsicht schwer tun werden.
  82. Nick Bostrom und Oskar Piegsa, „Maschinen sind schneller, stärker und bald klüger als wir: Künstliche Intelligenz.“ Zeit campus 2015, Nr. 3 (07.04.2015). http://www.zeit.de/campus/2015/03/kuenstliche-intelligenz-roboter-computer-menschheit-superintelligenz/ (letzter Zugriff: 6. März 2016).
  83. Ray Kurzweil, Menschheit 2.0: Die Singularität naht, 2., durchgesehene Aufl. (Berlin: Lola Books, 2014). S. 26.
  84. Ebd. S. 201.
  85. Ebd. S. 27.
  86. Ebd. S. 30.
  87. Ebd. S. 31.
  88. Ebd. S. 210.
  89. Kurzweil in Ray Kurzweil und Terry Grossman, Fantastic Voyage: Live Long Enough to Live Forever (New York, NY: Plume, 2005).
  90. Ebd. S. 211.
  91. Heike Buchter und Burkhard Straßmann, „Die Unsterblichen: Ray Kurzweil.“ Die Zeit 2013, Nr. 14 (aktualis. 06.04.2013). http://www.zeit.de/2013/14/utopien-ray-kurzweil-singularity-bewegung/komplettansicht (letzter Zugriff: 13. März 2014).
  92. http://singularityu.org/community/partners/ (letzter Zugriff: 14. Mai 2015)
  93. Sven Gábor Jánszky ist Trendforscher und Leiter des 2b AHEAD Think-Tanks.
  94. Sven Gábor Jánszky, „Werden wir Menschen zum Spielball der Computer?“. THINK!TANK 3/2016 (2b.AHEAD Think-Tank, Leipzig, 19.04.2016), S. 17.
  95. Schlieter und Klöckner, „Viele halten die Demokratie für eine veraltete Technologie“.
  96. „IAEA is an independent intergovernmental, science and technology-based organization, in the United Nations family, that serves as the global focal point for nuclear cooperation; develops nuclear safety standards and, based on these standards, promotes the achievement and maintenance of high levels of safety in applications of nuclear energy, as well as the protection of human health and the environment against ionizing radiation; verifies through its inspection system that States comply with their commitments, under the Non-Proliferation Treaty and other non-proliferation agreements, to use nuclear material and facilities only for peaceful purposes.“ https://www.iaea.org/about/mission (letzter Zugriff: 1. Mai 2016)
  97. Yvonne Hofstetter nach Hamann und Soboczynski, „Der Angriff der Intelligenz“.
  98. Daniel Oberhaus, „Die ersten sechs Gebote der Virtuellen Realität haben wir bereits gebrochen.“ Motherboard (Vice) (14.03.2016). http://motherboard.vice.com/de/read/wir-sind-laengst-dabei-die-ersten-gebote-der-virtuellen-realitaet-zu-brechen-467 (letzter Zugriff: 18. Mai 2016).
  99. Drösser, „Er weiß es, bevor du es weißt“.
  100. Andreas Dewes und Laila Oudray, „Die Algorithmen entscheiden: Physiker über digitale Diskriminierung.“ taz (02.04.2016). http://www.taz.de/!5286890/ (letzter Zugriff: 21. April 2016).
  101. Martin Schulz, „Freiheit Gleichheit Datenschutz: Warum wir eine Charta der digitalen Grundrechte brauchen.“ Zeit Online (27.11.2015). http://www.zeit.de/2015/48/grundrechte-netz-datenschutz-eugh/ (letzter Zugriff: 25. April 2016).
  102. Schulz, „Warum wir jetzt kämpfen müssen“.
  103. Laukenmann, „Wie digitale Daten Wähler manipulieren können“.
  104. Robert Epstein, „Democracy at risk from new forms of internet influence.“ EMMA Magazine 2014-2015 (27.10.2014): 24–27. http://aibrt.org/downloads/EPSTEIN_2014-New_Forms_of_Internet_Influence-EMMA_Magazine.pdf (letzter Zugriff: 14. Mai 2016). Ebenso Schlieter, Die Herrschaftsformel. S. 149.
  105. Nach Pariser müssen alle großen Informations-Unternehmen dazu verpflichtet werden, mit ihrer Macht sorgsam umzugehen und die Filtersysteme und deren Regeln offenzulegen, zumindest in Wahlzeiten, überwacht, z. B. von einem unabhängigen Ombudsmann. Pariser, Filter Bubble. S. 241.
  106. Hofstetter, Sie wissen alles. S. 296 ff.
  107. Unter SEO (search engine optimization) versteht man die Optimierung eines Internet-Auftrittes, um auf den Ergebnisseiten von Googles Suchmaschine möglichst weit vorne gelistet zu werden.
  108. Pariser, Filter Bubble. S. 164.
  109. „Deutschlands Zukunft gestalten: Koalitionsvertrag zwischen CDU, CSU und SPD.“ (18. Legislaturperiode).
  110. Schlieter, Die Herrschaftsformel. S. 260.
  111. Ebd. S. 262.
  112. Eine z. B. von Peter Barnes vorgeschlagene Verwaltungsform von Gemeinschaftsgütern wären deshalb z. B. Treuhandfonds, die die Nutzung der Ressource bepreisen und den Erlös als Commons-Dividende unter allen Bürgern verteilen. http://www.matrix-21.net/peter-barnes/
  113. Schmieder, „Wenn Sie Angst vor dem Terminator haben, machen Sie einfach die Tür zu“.
1 Kommentar
  • Volker Alt
    Gepostet am 12:10h, 23 Juni Antworten

    Vielen Dank, Michael. Sehr interessente und bedenkenswerte Ausführungen.

Wir benötigen Ihren Namen* und Ihre E-Mail-Adresse*. Der Name wird veröffentlicht. Die E-Mail-Adresse wird intern gespeichert, aber nicht veröffentlicht. Wenn Sie die Domain Ihres Internet-Auftrittes mitteilen, wird diese veröffentlicht. Es gelten unsere Datenschutzbestimmungen.

DIESEN ARTIKEL KOMMENTIEREN