Foto Michael W. Bader

© Foto: Alina Bader

29 Nov Der Ubuntu-Algorithmus

Wege aus der KI-Falle

Die vorhergehenden Arbeiten des Verfassers unter den Titeln „Ein Versuch gegen Monopolismus und Libertarismus“1 sowie „Herrschaft der Algorithmen“2 befassten sich mit dem ausufernden wirtschaftlichen Herrschaftsanspruch der neuen Hightech-Giganten aus Silicon Valley ebenso wie mit „Künstlicher Intelligenz“ (KI) und potentiellen Gefahren, die von einem unkontrollierten Einsatz dieser Technologien ausgehen. Der vorliegende Text setzt auf den vorhergehenden Überlegungen auf – ist aber auch aus sich heraus verständlich – und befasst sich neben erforderlichen Aktualisierungen vor allem mit der Frage nach einer gemeinwohlorientierten Verwertung und Kontrolle der neuen KI-Technologien.

(Demnächst finden Sie hier aus eine druckbare Version des Essays zum Download.)

Moderne Künstliche Intelligenz basiert u. a. auf den Forschungen von Geoffrey Hinton und sogenannten „Neuronalen Netzen“3, die Gehirnstrukturen abbilden und sich durch zwei Merkmale auszeichnen, nämlich Mustererkennung und Prognoseerstellung. Mustererkennung und Prognoseerstellung sind ideale Bausteine für den Einsatz Künstlicher Intelligenz in der Wirtschaft. Von der Gesichts- und Stimmungserkennung bis zur mobilen Werbeschaltung aufgrund punktgenauer GPS-Positionsdaten im Drogeriemarkt, genau bei dem richtigen Regal mit der betreffenden Ware, von der Ermittlung des richtigen Moments für Werbeeinblendungen bei Online-Spielern, bis zur Spielertypen-Erkennung bei Offline-Gamblern im Spielcasino, immer geht es um die gleiche Problematik: Zum Preis einer immer weiter perfektionierten Totalüberwachung mit anschließender KI-Bearbeitung können gewaltige Geschäfte gemacht werden.

KI-Instanzen haben größten Einfluss auf das internationale Finanzmarktgeschehen, aktuelle Schätzungen gehen davon aus, dass circa 70 Prozent aller Finanztransaktionen in den USA von Algorithmen gesteuert werden.4 KI-Instanzen entscheiden über Personaleinstellungen, Bankkredite und den Abschluss von Versicherungspolicen sowie vieles andere mehr.

Noch dramatischer allerdings als der Einsatz Künstlicher Intelligenz in der Wirtschaft ist die Verbindung von KI und Politik, dies zum Beispiel bei Facebook. Bekanntlich arbeitet dieses Social-Media-Schwergewicht nach dem Prinzip der Sympathiebekundungen, den sogenannten Likes. Hierbei ist nur interessant, dass sich anhand dieser Likes höchst persönliche Merkmale des betreffenden Nutzers errechnen lassen. Das entsprechende Forschungsgebiet ist die Psychometrie, eine Methode, die Persönlichkeit eines Menschen zu vermessen und zu kategorisieren.

Ein ausgewiesener Experte auf diesem Gebiet ist Michal Kosinski. Er lehrt in Cambridge und erbrachte bereits 2012 den Beweis, dass über statistische Analyseverfahren anhand der Likes von seinerzeit 58.000 Probanden sensible Daten mit Details aus deren Leben ermittelt werden konnten. Über durchschnittlich 68 ausgewertete Likes konnten recht hohe Trefferquoten erzielt werden, die eine Unterscheidung in männliche und weibliche User sowie in Christen und Muslime, ebenso wie zum Beispiel auch die Zugehörigkeit zu den Demokraten oder den Republikanern ergaben, und dies mit Trefferraten von über 80 Prozent.5

Dieses Wissen soll nunmehr vermehrt auch zur hochpräzisen Zielgruppen-Ansprache von Konsumenten sowie Wahlbürgern Verwendung finden. Psychometrische Daten können gemeinsam mit Daten von Informationshändlern wie Acxiom6 sowie Informationen aus Telefonbüchern oder ganz einfach direkt von Facebook bezogen für eine möglichst individualisierte Ansprache der Bürger Verwendung finden: „Jedem Wähler seine individuelle Botschaft.“ KI braucht man in diesem Falle, um die riesigen Datenmengen aus eigenen Adressbeständen, zugekauften Informationen, selbst erhobenen Daten, psychometrischen Daten etc. überhaupt handhabbar zu machen und vor allem, um gemeinsame Muster in den riesigen Datenmengen zu ermitteln.

Eine Firma, die sich damit brüstet, die Wahl von Donald Trump zum US-amerikanischen Präsidenten massiv beeinflusst zu haben, ist Cambridge Analytica7, in deren Vorstand Steve Bannon sitzt, Herausgeber von Breitbart News, dem ultrarechten Online-Portal und bis vor kurzem Chefberater von Donald Trump. Auch wenn über den tatsächlichen Erfolg von Cambridge Analyticas Micro-Targeting-Kampagnen viel diskutiert wurde und die behauptete Wirkung als übertrieben gilt8, ein entsprechender Artikel zum Thema9 sogar selbst als „Fake News“ bezeichnet wird10, darf das Phänomen nicht auf die leichte Schulter genommen werden.

Wenn auch nur ein Bruchteil der aufgestellten Behauptungen der von Cambridge Analytica für sich reklamierten Möglichkeiten stimmt, ist die Sache bedrohlich genug! Dass allerdings Micro-Targeting grundsätzlich funktioniert, ist dabei unumstritten. Wahlbeeinflussung kann definitiv z. B. durch zielgenaues Schalten von Anzeigen („Ads“) bei Facebook und sonstigen Kanälen erfolgen, ebenso wie z. B. durch perfekt vorbereitete und ständig rückgekoppelte Hausbesuche bei den Wählern vor Ort. Für dieses von wahrscheinlich allen Parteien mehr oder weniger professionell eingesetzte Verfahren steht Information für jede Zielgruppe zur detaillierten Wähleransprache zur Verfügung. So musste z. B. vor kurzem die Facebook-Anzeigenzielgruppe der Kategorie „Judenhasser“ auf Intervention der Medien durch Facebook aus dem Angebot entfernt werden.

Wenn zielgruppenbezogene Werbung von allen politischen Gruppierungen und offenbar auch international eingesetzt wird, wo liegt dann das Problem, was genau ist hierbei so bedenklich? Bedenklich ist vor allem die Tatsache, dass User durch ihre Mitwirkung an Sozialen Netzen – ohne dies zu wissen – sehr persönliche Informationen KI-gestützt entsprechenden Diensten zugänglich machen, welche zur Einflussnahme auf deren Kauf- und Wahlentscheidung herangezogen werden können.

Für die Beeinflussung von Wahlen sind derzeit auch sogenannte Fake News das Mittel der Wahl, also das absichtliche Streuen von Falschmeldungen. Diese Meldungen werden so komponiert, dass sie die Funktionsmechanismen der Sozialen Netze optimal ausnutzen. Dies bedeutet, dass zum Zwecke maximaler viraler Verbreitung dort vor allem auf Reflexe wie Empörung, „gefühlte“ Wahrheit und natürlich auf Reizthemen wie Flüchtlinge, Missbrauch, Krieg und Gewalt gesetzt wird. Die Facebook-Algorithmen befeuern wegen ihres hohen Aufmerksamkeitspotenzials gerade diese Form von Meldungen. Deshalb werden auch die schrillsten Links zu angeblichen Nachrichtenseiten, etwa zu der Ermordung des für die E-Mail-Affäre der Gegenkandidatin von Trump, Hillary Clinton, zuständigen FBI-Beamten, der vermeintlichen Wahlunterstützung Trumps durch den Papst oder gar „Hillary hat Waffen an den IS verkauft“, durch solche Algorithmen massiv verbreitet und in den Sozialen Medien entsprechend verstärkt. Vieles sicher nicht von Facebook so gewollt, aber dennoch enorm wirkungsvoll.

Neben dieser Form der Desinformation durch gezielte Falschmeldungen stellen beim Thema Wahlbeeinflussung vor allem auch die sogenannten Social Bots ein Problem dar. Social Bots sind Software-Roboter, also Programme, die menschliches Verhalten simulieren und in den Sozialen Netzwerken wie Facebook oder Twitter interagieren können. Sie können mit echten Nutzern kommunizieren, auf Kommentare antworten und eigene Beiträge verfassen. Sie sind dabei schlau genug, für echte Menschen gehalten zu werden. Durch ihr ausgewogenes Tag-und-Nacht-Verhalten, die Auswahl an Hashtags, realistisch wirkenden Accounts mit eigenem menschlichem Profilbild, Posts und Followern, die selbst wieder anderen Nutzern folgen, fallen sie nicht als Künstliche Intelligenzen auf.

Weltweit soll es mehr als 100 Millionen Fake-Accounts11 geben, also Profile, hinter denen kein realer Mensch, sondern eben ein Bot steckt. Sie nisten sich in unseren Facebook-, Twitter-, Instagram- und Tumblr-Profilen ein und treiben dort ihr Unwesen. Eine Studie der Universität von Kalifornien zeigte, dass sich insgesamt knapp 400.000 Bots in die Präsidentschaftswahl-Debatte auf Twitter eingemischt hatten. Knapp 3,8 Millionen Tweets wurden abgegeben, was ungefähr 20 Prozent der gesamten Twitter-Kommunikation im Kontext der Wahl entspricht. Dabei fielen 75 Prozent der Tweets für Trump, 25 Prozent für Clinton aus.12
So stieg zum Beispiel der Hashtag „#Trumpwon“ sehr schnell und definitiv über Bots bewirkt in den Twitter-Trends nach oben, obwohl Presse und Meinungsforschung eher Clinton nach dem ersten TV-Duell vorne sahen.

Und so gelten plötzlich Algorithmen-gesteuerte Trends, die sonst gar nicht entstanden wären. Genau dies ist im Kontext von Wahlen deshalb sehr bedenklich, weil hier Social Bots mit einem künstlich erstellten, falschen Meinungsbild Wähler durchaus beeinflussen können. Wähler sind offenbar durch Prognosen beeinflussbar, sie entscheiden sich oft für die Richtung, die die größte Zustimmung zu erhalten scheint. Entsteht also der Eindruck, Trump habe alle TV-Debatten deutlich gewonnen, kann das Wähler durchaus beeinflussen.

Social Bots sind damit eine Gefahr für die Demokratie. Sie erschaffen ein falsches Meinungsbild und beeinflussen, wenn auch nur indirekt, unsere Sicht auf das politische Geschehen. Sie sind vor allem auch deshalb gefährlich, weil sie durch ihre bloße Masse andere Meinungen in den Sozialen Medien verdrängen. Fake News, die sich durch Social Bots millionenfach verbreiten, verstärken die bekannte Filter Bubble13 oder Echo-Kammer, in der man nur noch dasjenige zu sehen und zu hören bekommt, was einem ohnehin vertraut ist und was man selber gerne hören möchte. Dieser Sachverhalt würde nun natürlich zu einer massiven Einschränkung der Wirklichkeitswahrnehmung der User führen, die bei der Auswahl an personalisierten Suchergebnissen bei Google beginnt und bei dem persönlichen Angebot an Facebook- und Twitter-Nachrichten nicht aufhört.14

Eine neue Studie von „Reuters Institute for the Study of Journalism“ widerspricht dieser Einschätzung und behauptet sogar, dass Social-Media-Nutzer mehr unterschiedliche Nachrichtenquellen nutzten, als Anwender, die sich nicht innerhalb Sozialer Netze bewegen. Diese Information würde die Existenz einer politisch wirksamen Filterblase in Zweifel ziehen, basiert allerdings auf einer geringen Datenlage.15

 

Unabhängig von der Frage, wie weitgehend Filterblasen den persönlichen Horizont eines Users einschränken oder in welchem Umfang evtl. doch auch weitere Informationsmedien konsumiert werden, steht fest, dass natürlich nicht Facebook, Twitter, Google oder Cambridge Analytica Donald Trump zum Präsidenten gemacht haben.16 Hier spielen viele Ursachen eine Rolle, nicht zuletzt auch das Fernsehen, welches immer noch für die Mehrheit der Amerikaner die primäre Quelle für politische Information darstellt17, ein Medium, welches Trump optimal für sich selbst einsetzen konnte. Wenn auch nicht allein wahl­entscheidend, haben Fake News, Social Bots etc. doch eindeutig zum Ausgang der Wahl beigetragen und damit das Wahlergebnis sicher mitbeeinflusst.

Deshalb ging auch in Deutschland im Vorfeld der Bundestagswahl 2017 die Angst um, dass auch hier Bots, Fake News und anderes mehr die Wahl beeinflussen könnten. Deshalb gab es auch diverse Selbstver-pflichtungen der Parteien, vom KI-Einsatz im Wahlkampf abzusehen. Deshalb wurde auch eine Cyber-Taskforce zur Abwehr von entspre-chenden Übergriffen eingerichtet und deshalb haben sich die Parteien wohl auch bezüglich des Einsatzes von Fake News zurückgehalten, wenn man von der AfD absieht. Diese hat mit Fake News und Social Bots im Wahlkampf umso kräftiger mitgemischt. Ganz offensichtlich haben rechte Kreise mit emotional aufgeladenen Themen wie Kriminalität und Flüchtlingen sowie künstlich aufgeblähter Online-Aktivität den politischen Diskurs in den Sozialen Medien massiv mitbestimmt. Dies offenbar auch unter Zuhilfenahme eines längerfristig aufgebauten rechten Bot-Netzwerks.

Offenbar konnten diese Kreise sogar den Empfehlungsalgorithmus von Facebook überlisten, der ganz offensichtlich überproportional viele rechte Positionen einspielte und deshalb kurzfristig abgeschaltet werden musste.18 Falsche Freunde und falsche Nachrichten können im Übrigen relativ preiswert eingekauft werden. So können nach Recherchen des Bayerischen Rundfunks z. B. 100.000 Fake News für 269,00 € und, mit einem kleinen Nachlass, 200.000 Fake News zu 489,90 € erworben werden.19

Andererseits ergeben z. B. aktuelle Untersuchungen von AlgorithmWatch in Verbindung mit 6 Landesmedienanstalten im Kontext des „Datenspende-Projektes“ zumindest für Deutschland kaum politik­spezifische Personalisierungen bei Google-Suchanfragen. Im Gegenteil weisen die Suchergebnisse von Politikern bei unterschiedlichen Nutzern im Wesentlichen sehr hohe Ähnlichkeit auf. Im Durchschnitt ergeben sich 7 oder 8 gleiche Ergebnisse von im Durchschnitt 9 organischen Suchergebnissen. Zwar sind die Ergebnisse von Parteien mit 5–6 gemeinsamen Suchergebnissen etwas weniger ähnlich, aber auch hier bleiben nur maximal 3 Links für eine Personalisierung im Sinne der Filter Bubble übrig. Kleinere Cluster von stark individualisierten Ergebnislisten mit lediglich 2–3 gemeinsamen Fundstellen zeigen keine politischen Bezüge und sind in Entstehung und Bedeutung unklar.20

Insgesamt und trotz großer Anstrengungen am rechten Rand scheint die faktische Wirkung digitaler Manipulation zur Bundestagswahl 2017 allerdings noch überschaubar. Man wird sehen, welchen Anteil diesbezügliche Manipulationen am Erfolg der AfD hatten, und man wird abwarten müssen, was an sonstigen Geschichten zum Thema Wahlbeeinflussung in den nächsten Wochen und Monaten noch ans Tageslicht kommen wird.

Das Hauptproblem für die Bundestagswahl besteht jedoch nach Auffassung des Verfassers nicht primär in faktischer Manipulation durch Algorithmen, sondern eher in aufkommenden Zweifeln an der Rechtmäßigkeit demokratischer Abläufe, was notwendigerweise zu Verunsicherung und Angst führt, welche wiederum dem rechten Rand in die Hände spielt.

In Anbetracht potentieller und realer Manipulation in Wirtschaft und Politik durch Künstliche Intelligenz ist diese Technologie sehr deutlich zu hinterfragen, dies vor allem auch wegen immer weitergehender Anwendungen im zivilen wie auch im militärischen Umfeld. Deshalb müssen die hiermit verbundenen Chancen und Risiken für die Zivilgesellschaft gegeneinander abgewogen werden und zwar nicht nur durch die Unternehmen, die davon wirtschaftlich profitieren. Es muss vielmehr ein gesamtgesellschaftlicher Diskurs zum Thema stattfinden. Ebenso sollten möglichst rasch tragfähige Schutzmechanismen gefunden werden, wo Gefahren drohen. Namhafte Wissenschaftler wie Stephen Hawking21 und Nick Bostrom22 oder bekannte Unternehmer wie Elon Musk23 und Bill Gates24 warnen eindringlich vor einer Entwicklung auf diesem Feld, die zum unkontrollierbaren Selbstläufer mutieren könnte.

In den letzten Jahren hat sich deshalb eine ganze Reihe von Experten mit Vorschlägen gemeldet, wie eben dieser KI-Falle begegnet werden könnte.

Dies nicht zuletzt durch:

  • Herstellung von Algorithmen-Transparenz, wie von Angela Merkel angemahnt.
  • Regelmäßige Überprüfung wichtiger Algorithmen durch einen Algorithmen-TÜV25, wie von den Verbraucherzentralen vorgeschlagen, oder/und eine neu zu gründende Aufsichtsbehörde wie von Yvonne Hofstetter gefordert: „Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“26
  • Definition von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen sowie anschließende Durchsetzung solcher Nor-men durch Inspektion über ein entsprechend geeignetes Beobachtungsinstitut, wie von AlgorithmWatch vorgeschlagen.27
  • Berufung von Algorithmen-Beauftragten analog den Datenschutz-Beauftragten.
  • Durchführung staatlicher Aufsicht, Regulation und Kontrolle wie von Bill Gates und Elon Musk gefordert.
  • Kontrolle von Algorithmen im Einsatz bei Google, Facebook, Twitter etc. speziell im Vorfeld von Wahlen und Abstimmungen28, am besten ergänzt durch den Vorschlag Gerald Häfners29, die Algorithmen so einzurichten, dass bei jedem zustimmenden Votum eines Users gleich eine anders lautende Meinung ebenfalls angezeigt wird, um auf diese Weise die Echokammer in ihrer Wirkung zu konterkarieren.

Bei aller Berechtigung dieser Vorschläge darf nicht davon ausgegangen werden, dass nationale oder europäische Behörden und Parlamente KI-Technik wirkungsvoll kontrollieren könnten, ohne die Nutzungs- und Verwertungsrechte der jeweiligen Hersteller zu tangieren. Es scheint im Gegenteil erforderlich, die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich neu zu definieren und gesellschaftlich vertretbare und zukunftsfähige Alternativen zu schaffen.

Ohne jeden Zweifel kann der Maßstab für den richtigen Umgang mit KI nur der Nutzen für alle Menschen und damit das Gemeinwohl sein. Daher sollte die Überführung aller wichtigen KI-Forschungsergebnisse in „Kulturelles Gemeingut“ erwogen werden. Kulturelles Gemeingut umfasst menschliches Wissen, Kulturtechniken und Kulturleistungen, Sprache, Software-Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder zum Beispiel auch das Internet und dann eben die Algorithmen-KI-Technologie.

Dies sollte schon aus den Entstehungsbedingungen solcher kulturellen Commons selbstverständlich sein, geht doch die Entwicklung solcher Gemeingüter selten auf die exklusive Leistung einzelner Urheber zurück, sondern fußt im Gegenteil auf einem über Jahrhunderte gewachsenen Schatz kultureller Errungenschaften ebenso wie auf Forschung im universitären sowie – im Falle der Künstlichen Intelligenz – auch im militärischen Bereich. Allein schon diese öffentliche Finanzierung verbietet eine rein privatwirtschaftliche Verwertung ohne jede gesellschaftliche Mitsprache. Deshalb wären der Sache nach alle KI-Forschungsergebnisse als Gemeingut anzusehen und entsprechend autonomen Organisationen zur treuhänderischen Verwaltung zu übertragen, um Künstliche Intelligenz als Gemeinwohl-KI in den Dienst der Vielen zu stellen, statt diese dem Profitinteresse einiger Weniger zu überlassen.

Gedacht werden könnte an eine kombinierte Schutz- und Verwaltungslösung für KI-Technologien, die zum einen aus einer globalen Treuhandgesellschaft im Besitz aller Menschen bestünde, welche z. B. gemäß dem „American Permanent Fund“-Konzept von Peter Barnes30, dem „Alaska Permanent Fund“31 oder dem „Pacific Forest Trust“32 die Rechte an allen – zumindest systemkritischen – Algorithmen verwaltet und entsprechende Verwertungserträge aus einer kontrollierten Nutzung dieser Technologien an alle Länder ausschüttet, vorzugsweise an die armen.

Diese Schutzfunktion könnte im Weiteren in einer der UN verbundenen, jedoch autonomen Organisation realisiert werden, gemäß z. B. der „Internationalen Atom-Energie-Organisation“ (IAEO), welche die technische Kontrolle, Anwendungsüberwachung und den Schutz einer ausschließlich friedlichen Nutzung der Algorithmen sicherstellt.33

Mit einer solchen Doppelregelung, welche die Eigentums- und Verwertungsfunktion strikt von der erforderlichen Kontrollfunktion trennt, könnte der willkürlichen Privatverwertung und einem immer weniger kontrollierbaren Wirken von KI möglicherweise Einhalt geboten werden. Natürlich gilt es darüber hinaus, die ethischen Grundlagen für die Ausrichtung entsprechender Algorithmen gesellschaftlich zu diskutieren und über geeignete – vorzugsweise direktdemokratische – Verfahren gesetzlich zu verankern. Auf diese Weise kann von der Zivilgesellschaft festgestellt werden, welche Art von KI-Anwendungen gesellschaftlich überhaupt gewollt ist, welche Spielregeln für deren Einsatz gelten sollen und welche Forschungsergebnisse besonderem Schutz unterstellt oder schlicht weggesperrt werden sollten.

Hierbei gilt es insbesondere für solche KI-Anwendungen Schutz- und Kontrollmechanismen zu implementieren, die wir nicht mehr vollständig verstehen, sie in ihrer Wirkung nicht mehr abschätzen und nicht mehr vollständig kontrollieren können. Technologien, die in der Form von Software, Robotern, Drohnen etc. selbstständig lernen, sich selbst optimieren und Entscheidungen selbstständig treffen können.

Beispiele hierfür sind:

  • Finanz-Algorithmen zum Kauf und Verkauf von Wertpapieren, welche, wie die immer wieder „unerklärlichen“ Micro-Flashs an den Börsen zeigen, keineswegs in Gänze von den jeweiligen Eigentümern kontrolliert werden können.
  • Autonome Drohnen, Panzer, U-Boote und Roboter, die selbst über die Tötung von Menschenleben entscheiden können, auch wenn dies regulatorisch bislang zwar nicht vorgesehen, technisch aber längst implementiert ist.
  • Autonome Automobile, die u. U. tödliche Fahrentscheidungen treffen können und deren ethischer Priorisierungsrahmen politisch und nicht wirtschaftlich festgelegt werden muss.
  • Kommunikationsroboter, die mit Menschen kommunizieren, ohne als solche aufzufallen, die Wahlen zu beeinflussen suchen und unerkannt Stimmung für bestimmte politische Auffassungen machen.
  • Steuerungssysteme für Serverfarmen oder Energieressourcen, die ohne menschliche Kontrolle und Einblick in entsprechende Abläufe selbstständig arbeiten und sich gegebenenfalls unbemerkt verselbstständigen könnten.
  • Intelligente Manipulations-Software in Wirtschaft und Politik, die unbemerkt Einfluss auf menschliches Verhalten ausübt durch Anwendung von Ausdrucks- und Stimmungserkennung, Psychometrie oder Filter Bubbles.
  • Künstliche Intelligenz, die KI selber programmiert, wie bei Google derzeit erfolgreich erprobt, welche den Einstieg zu Singularity34 darstellen könnte und deren ethisches Normensystem völlig ungeklärt ist.35

Zumindest diese Typologie von Anwendungsfällen sollte unverzüglich gesellschaftlicher Kontrolle unterstellt und entsprechenden Regulatio-nen unterworfen werden. Hier genügt eine gemeinwohlorientierte Verwertung der Forschungsergebnisse keinesfalls, weshalb die genannte doppelte Schutzfunktion erforderlich wird, die nur durch eine IAEO-verwandte Behörde gewährleistet werden kann. Für alle nicht unmittelbar systemkritischen und für die Zivilgesellschaft direkt gefährlichen Anwendungen gilt es, konsequente Gemeinwohlorientierung zu gewährleisten.

Wem solche Überlegungen eher sozialromantisch verklärt erscheinen, der sei darauf verwiesen, dass selbst einige der ganz großen High-tech-Tycoons Amerikas in eine ähnliche Richtung denken. Beispiel hierfür wäre das „Allan Institute for Artificial Intelligence“ in Seattle, welches Microsoft-Mitbegründer Paul Allan mit mehr als einer Milliarde Dollar finanziert und bei dem sämtliche Forschungsergebnisse kostenlos veröffentlicht werden, zur freien Verfügung für alle.36

Beispiel ist auch die OpenAI-Initiative von Elon Musk, die von ihm unlängst als Non-Profit-Organisation mitbegründet und mit ebenfalls einer Milliarde Dollar ausgestattet wurde.37 OpenAI befasst sich mit der Erforschung von Künstlicher Intelligenz und deren Bedrohung für die Menschheit. Ziel von OpenAI ist, Künstliche Intelligenz auf Open-Source-Basis zu entwickeln und zu vermarkten, so dass sie der Gesell-schaft Vorteile bringt und eben nicht schadet. Auch diese Organisation macht ihre Patente und Forschungsergebnisse der Öffentlichkeit zugäng-lich und sieht genau hierin einen gewissen Schutz vor den KI-Technologien, Schutz durch Gemeinwohlorientierung und Transparenz.

Obwohl immer wieder behauptet wird, dass ohne Eigennutz kein wirtschaftlicher und technischer Fortschritt erzielt werden könne, ist interessant, dass Gemeinwohlorientierung und Gemeinbesitz von immer mehr Menschen zum Thema gemacht werden. Dies gerade auch im Umfeld der neuen Commons-Bewegung, vertreten durch den US-Soziologen Peter Barnes38, die Heinrich-Böll-Stiftung39, Silke Helfrich40 und natürlich auch Professorin Elinor Ostrom, die Trägerin des Alfred-Nobel-Gedächtnispreises für Wirtschaftswissenschaften41.

Die 2012 verstorbene Elinor Ostrom war eine der führenden Autoritäten auf dem Gebiet der Commons, die die wesentlichen Gestaltungsbedingungen für den Umgang mit Commons als Ergebnis jahrzehntelangen Forschens im Bereich der Gemeingüter ausführlich beschrieben hat. Sie widerlegt mit ihrem Lebenswerk die bekannte These von Gerrit Hardin42, nach der der Mensch als notorischer Nutzenoptimierer und Homo oeconomicus notwendig jede gemeinschaftlich mitgenutzte Ressource zu Grunde richtet, wenn diese nicht durch Privatbesitz oder staatliche Maßnahmen davor bewahrt wird.

Im Unterschied zu diesen Einschätzungen kann die aktuelle Ge-meingutforschung belegen, dass es offensichtlich eine Art „dritten Weg“ zwischen Privat- und Staatseigentum gibt.43 Seit Jahrzehnten und Jahrhunderten sind viele Tausende Menschen in unzähligen Commons-Projekten auf der ganzen Welt in der Lage, nachhaltig mit ihren Commons umzugehen. Helfrich, die unter anderem viele Jahre für die Böll-Stiftung in Südamerika tätig war, hat sich größte Verdienste erworben, ein riesiges Tableau an Commons-Projekten zu erkunden und zu dokumentieren.44

Natürlich funktionieren Commons und Allmende nicht einfach so und deshalb zeigt Ostrom detailliert, unter welchen Bedingungen die Verwaltung von Gemeinschaftseigentum funktionieren kann. Dieses als „Elinors Law“45 bekannt gewordene Regelwerk zum Umgang mit Gemeingütern beschreibt wesentliche Voraussetzungen für das Gelingen gemeineigenen Besitzens. Wichtigste Regel hierbei ist, alle Betroffenen in alle wichtigen Prozesse einzubeziehen und die Verteilung der Kosten proportional zu der Verteilung des Nutzens anzusetzen. Ostrom zeigt, dass und wie Commons funktionieren können, die wachsende Commons-Bewegung zeigt, dass für viele Zeitgenossen Privat- oder Staatsbesitz keineswegs alternativlos ist. Für immer mehr Menschen sollen zum Beispiel Wasser, Luft oder auch Grund und Boden keine Handelsware darstellen, die käuflich zur beliebigen Nutzung und zum gewinn-trächtigen Wiederverkauf erworben werden kann. Die Auffassung wächst, dass solche Güter als Commons zum gemeinsamen Nutzen der ganzen Gesellschaft verfügbar gehalten werden sollen.

Es scheint, als ob die Commons-Idee ein wunderbarer Einstieg in die ganz grundsätzliche Debatte um zeitgemäße Eigentums- und Besitzverhältnisse an sich darstellen könnte. Und es scheint ebenfalls, dass die Commons-Bewegung genau an der richtigen Stelle die Frage nach dem Sinn des Wirtschaftens überhaupt stellt. Wirtschaften aus Profitinteresse oder Wirtschaften aus Gemeinwohlanforderung? Wirt-schaft zum Nutzen einiger weniger oder Wirtschaft zum Nutzen aller?46

Wirtschaften also so, dass – wie es in der Ubuntu-Philosophie der Völker der Zulu und Xhosa heißt – „die eigenen Bedürfnisse dann berücksichtigt werden, wenn die Bedürfnisse der anderen ebenfalls in den gemeinsamen Aktivitäten aufgehoben sind“.47

 

Herausgeber: Stiftung Media, Stuttgart – www.stiftung-media.de
Copyright © 2017 by Michael W. Bader, Göppingen

 

Literatur

  • Bader, Michael W., Ein Versuch gegen Libertarismus und Monopolismus. Göppingen: GFE Media, 2015. https://www.gfe-media.de/blog/gegen-libertarismus-und-monopolismus/.
  • Ders., Herrschaft der Algorithmen: Wie ›Künstliche Intelligenz‹ unsere Freiheit bedroht. Göppingen: GFE Media, 2016. https://www.gfe-media.de/blog/kuenstliche-intelligenz-herrschaft-der-algorithmen/.
  • Ders., Jenseits von Kapitalismus und Kommunismus: Theorie und Praxis des Wirtschaftsmodells der Achberger Schule. Berlin: BWV Berliner Wissenschafts-Verlag, 2016.
  • Barnes, Peter, Capitalism 3.0: A guide to reclaiming the commons. San Francisco: Berrett-Koehler, 2006. http://www.plancanada.com/capitalism3.pdf (letzter Zugriff: 18. Oktober 2017).
  • Beuth, Patrick, „Big Data allein entscheidet keine Wahl: US-Wahl.“ Zeit online (06.12.2016). http://www.zeit.de/digital/internet/2016-12/us-wahl-donald-trump-facebook-big-data-cambridge-analytica/ (letzter Zugriff: 18. Oktober 2017).
  • Bitkom Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. und DFKI Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, Hrsg., Künstliche Intelligenz: Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung. Berlin: Bitkom, 2017. https://www.bitkom.org/noindex/Publikationen/2017/Sonstiges/KI-Positionspapier/171012-KI-Gipfelpapier-online.pdf (letzter Zugriff: 18. Oktober 2017).
  • Bostrom, Nick, Superintelligenz: Szenarien einer kommenden Revolution. Berlin: Suhrkamp, 2014.
  • Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB), „Internationale Atomenergie-Organisation (IAEO): International Atomic Energy Agency (IAEA).“. http://www.bmub.bund.de/P299/ (letzter Zugriff: 18. Oktober 2017).
  • Cellan-Jones, Rory, „Stephen Hawking warns artificial intelligence could end mankind.“ BBC online (02.12.2014). http://www.bbc.com/news/technology-30290540.
  • Chip News, „Facebook: Bis zu 140 Millionen Fake-Accounts.“ Chip Digital (04.02.2014). http://www.chip.de/news/Facebook-Bis-zu-140-Millionen-Fake-Accounts-66923093.html (letzter Zugriff: 18. Oktober 2017).
  • Dörner, Stephan, „KI-Software von Google lernt KI-Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zu-griff: 19. Oktober 2017).
  • dpa und Matthias Parbel, „Verbraucherzentralen fordern ›Algorithmen-Tüv‹.“ heise online (23.04.2017). https://www.heise.de/newsticker/meldung/Verbraucherzentralen-fordern-Algorithmen-Tuev-3691265.html (letzter Zugriff: 10. November 2017).
  • Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016). http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).
  • Gießelmann, Kathrin, „Systeme noch ohne Moral: Algorithmen.“ Deutsches Ärzteblatt, PP, Nr. 8 (2017): 382–383. https://www.aerzteblatt.de/pdf.asp?id=192817 (letzter Zu-griff: 14. November 2017).
  • Gluschak, Sebastian, „Google-Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017). https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann (letzter Zugriff: 19. Oktober 2017).
  • Grassegger, Hannes und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016). https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).
  • Grüll, Philipp, Sebastian Kemnitzer und Anna Tillack, Wahlkampf im Netz: Chancen und Gefahr einer neuen Ära. Bayerischer Rundfunk, Dok|Thema, tagesschau24 (09.09.2017). https://www.youtube.com/watch?v=Yy55EQ8z6jo (letzter Zu-griff: 19. Oktober 2017).
  • Häfner, Gerald, Was die Zeit fordert. 01.04.2017; Vortrag; Passage 1:08:00–1:09:30. https://www.youtube.com/watch?v=Om52t7ju9rg (letzter Zugriff: 9. November 2017).
  • Hamann, Götz, „Nicht Fake News auf Facebook haben die Wahl entschieden: US-Wahlkampf.“ Zeit online (27.11.2016). http://www.zeit.de/politik/ausland/2016-11/us-wahlkampf-donald-trump-facebook-fake-news-bundestagswahlkampf/komplettansicht (letzter Zugriff: 19. Oktober 2017).
  • Hamann, Götz und Adam Soboczynski, „Der Angriff der Intelligenz: Yvonne Hofstetter.“ Zeit online (10.09.2014). http://www.zeit.de/kultur/2014-09/yvonne-hofstetter-kuenstliche-intelligenz (letzter Zugriff: 6. März 2016).
  • Hardin, Garret, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248. http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).
  • Helfrich, Silke und Heinrich-Böll-Stiftung, Hrsg., Commons: Für eine neue Politik jenseits von Markt und Staat. Bielefeld: transcript, 2012.
  • Holley, Peter, „Bill Gates on dangers of artificial intelligence: ›I don’t understand why some people are not concerned‹.“ The Washington Post (29.01.2015). https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/?utm_term=.5fcf2eeafb6e (letzter Zugriff: 10. Oktober 2017).
  • Howley, Daniel, „Why scientists want AI regulated now before it’s too late.“ Yahoo Finance (25.07.2017). https://finance.yahoo.com/news/scientists-want-ai-regulated-now-late-195127553.html?soc_src=social-sh&soc_trk=ma (letzter Zugriff: 19. Oktober 2017).
  • Kosinski, Michal, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS.org Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013). http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).
  • Kühl, Eike, „Hetze mit System: Facebook.“ Zeit online 14.09.2017. http://www.zeit.de/digital/internet/2017-09/facebook-afd-geschlossene-gruppen-bundestagswahl (letzter Zugriff: 13. November 2017).
  • LeCun, Yann, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.
  • Lepies, Jennifer, „An den Grenzen der Filterblase.“ Technology Review (17.07.2017). https://www.heise.de/tr/blog/artikel/An-den-Grenzen-der-Filterblase-3772491.html (letzter Zugriff: 13. November 2017).
  • Meretz, Stefan, „Ubuntu-Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ in Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich-Böll-Stiftung, 58–65. Bielefeld: transcript, 2012.
  • Mirau, Fabian, „Social Bots und Algorithmen: Sind Facebook und Twitter Schuld am Wahlsieg von Donald Trump?“ Basic thinking (12.11.2016). https://www.basicthinking.de/blog/2016/11/12/social-bots-algorithmen-donald-trump-usa/ (letzter Zugriff: 18. Oktober 2017).
  • Ostrom, Elinor, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich. München: Oekom, 2011.
  • Dies., „Prize Lecture: Beyond Markets and States: Polycentric Governance of Complex Economic Systems.“ (2014); Rede am 8. Dezember 2009 zur Verleihung des Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften. https://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2009/ostrom-lecture.html (letzter Zugriff: 19. Oktober 2017).
  • Dies., Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics. Cambridge: Cambridge University Press, 2015.
  • Pacific Forest Trust, „What we do.“. https://www.pacificforest.org/what-we-do/ (letzter Zugriff: 18. Oktober 2017).
  • Pariser, Eli, Filter Bubble: Wie wir im Internet entmündigt werden. München: Hanser, 2012.
  • Pentz, Jannik, „Zahl der Fake-Accounts steigt: Facebook, Twitter & Co.“ Bayerischer Rundfunk, B24 (29.01.2017). http://www.br.de/nachrichten/fake-follower-twitter-100.html (letzter Zugriff: 18. Oktober 2017).
  • Resnick, Paul, „Personalized Filters Yes; Bubbles No (17.07.2011).“. https://presnick.wordpress.com/2011/07/17/personalized-filters-yes-bubbles-no/ (letzter Zugriff: 18. Oktober 2017).
  • Simonite, Tom, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017). https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017).
  • Wheatland, Julian. „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game.“ Vortrag, 20. Juni 2017; Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017. https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).
  • Wikipedia, „Alaska Permanent Fund.“. https://en.wikipedia.org/wiki/Alaska_Permanent_Fund (letzter Zu-griff: 18. Oktober 2017).
  • Dies., „Elinor Ostrom.“. https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zu-griff: 19. Oktober 2017).
  • Zweig, Katharina A., „Das Risiko liegt in der Intransparenz: Medienethik.“ Medienpolitik.net (11.04.2016); Die Gesellschaft muss Prinzipien ethischen Handelns bei der An-wendung von Algorithmen entwickeln. http://www.medienpolitik.net/2016/04/medienwissenschaft-das-risiko-liegt-in-der-intransparenz/ (letzter Zugriff: 13. November 2017).
  • Zweig, Katharina A., Tobias D. Krafft, Michael Gamer und Marcel Laessing, „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-Suchen zur Bundestagswahl 2017.“ AlgorithmWatch (08.09.2017). https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf (letzter Zugriff: 12. November 2017).
Download PDF
  1. Siehe „Wider Monopolismus und Libertarismus“ auf gfe-media.de.
  2. Siehe „Herrschaft der Algorithmen“ auf gfe-media.de.
  3. Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.
  4. Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016). http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).
  5. Die Studie belegt, dass durch Analyse der Facebook-Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS.org Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013). http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).
  6. http://www.acxiom.com (letzter Zugriff: 18. Oktober 2017)
  7. Julian Wheatland, „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game“ Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017. https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).
  8. Patrick Beuth, „Big Data allein entscheidet keine Wahl: US-Wahl.“ Zeit online (06.12.2016). http://www.zeit.de/digital/internet/2016-12/us-wahl-donald-trump-facebook-big-data-cambridge-analytica (letzter Zugriff: 18. Oktober 2017).
  9. Hannes Grassegger und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016). https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).
  10. Bitkom Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. und DFKI Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, Hrsg., Künstliche Intelligenz: Wirtschaftliche Bedeutung, gesellschaftliche Herausforde-rungen, menschliche Verantwortung (Berlin: Bitkom, 2017). https://www.bitkom.org/noindex/Publikationen/2017/Sonstiges/KI-Positionspapier/171012-KI-Gipfelpapier-online.pdf (letzter Zugriff: 18. Oktober 2017). S. 88.
  11. Wie viele der insgesamt 313 Millionen Twitter-Accounts Fake sind oder von Bots betrieben werden, ist schwer zu ermitteln. Doch Experten wie Prof. Dr. Hegelich sind sich sicher: „Es sind sehr, sehr, sehr viele.“ Das bestätigt auch Prof. Dr. Helbing: „Man liest immer wieder von 40–60 %. Die Bots beginnen, Menschen in den sozialen Medien zu überholen.“ Jannik Pentz, „Zahl der Fake-Accounts steigt: Facebook, Twitter & Co.“ Bayerischer Rundfunk, B24 (29.01.2017). http://www.br.de/nachrichten/fake-follower-twitter-100.html (letzter Zugriff: 18. Oktober 2017).
    Facebook hat in seinem Bericht an die US-Börsenaufsicht SEC bereits 2014 zugegeben, dass bis zu 140 Millionen seiner registrierten User Fake-Accounts sind. Chip News, „Facebook: Bis zu 140 Millionen Fake-Accounts.“ Chip Digital (04.02.2014). http://www.chip.de/news/Facebook-Bis-zu-140-Millionen-Fake-Accounts-66923093.html (letzter Zugriff: 18. Oktober 2017). http://www.chip.de/news/Facebook-Bis-zu-140-Millionen-Fake-Accounts-66923093.html.
  12. Fabian Mirau, „Social Bots und Algorithmen: Sind Facebook und Twitter Schuld am Wahlsieg von Donald Trump?“ Basic thinking (12.11.2016). https://www.basicthinking.de/blog/2016/11/12/social-bots-algorithmen-donald-trump-usa/ (letzter Zugriff: 18. Oktober 2017).
  13. Eli Pariser, Filter Bubble: Wie wir im Internet entmündigt werden (München: Hanser, 2012). S. 10.
  14. Eine ältere und inhaltlich wenig substantiierte kritische Einschätzung zu der Existenz von Echokammern findet sich auch bei Paul Resnick, „Personalized Filters Yes; Bubbles No (17.07.2011).“. https://presnick.wordpress.com/2011/07/17/personalized-filters-yes-bubbles-no/ (letzter Zugriff: 18. Oktober 2017). Interessant allerdings, dass gerade hierauf in der Veröffentlichung des Bitcom/DFKI explizit verwiesen wird: Bitkom Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. und DFKI Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, Künstliche Intelligenz.
  15. Jennifer Lepies, „An den Grenzen der Filterblase.“ Technology Review (17.07.2017). https://www.heise.de/tr/blog/artikel/An-den-Grenzen-der-Filterblase-3772491.html (letzter Zugriff: 13. November 2017).
  16. Beuth, „Big Data allein entscheidet keine Wahl“.
  17. Götz Hamann, „Nicht Fake News auf Facebook haben die Wahl entschieden: US-Wahlkampf.“ Zeit online (27.11.2016). http://www.zeit.de/politik/ausland/2016-11/us-wahlkampf-donald-trump-facebook-fake-news-bundestagswahlkampf/komplettansicht (letzter Zugriff: 19. Oktober 2017).
  18. Eike Kühl, „Hetze mit System: Facebook.“ Zeit online 14.09.2017. http://www.zeit.de/digital/internet/2017-09/facebook-afd-geschlossene-gruppen-bundestagswahl/ (letzter Zugriff: 13. November 2017).
  19. Philipp Grüll, Sebastian Kemnitzer und Anna Tillack, Wahlkampf im Netz: Chancen und Gefahr einer neuen Ära. Bayerischer Rundfunk, Dok|Thema, tagesschau24 (09.09.2017). https://www.youtube.com/watch?v=Yy55EQ8z6jo/ (letzter Zugriff: 19. Oktober 2017).
  20. Katharina A. Zweig et al., „Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-Suchen zur Bundestagswahl 2017.“ AlgorithmWatch (08.09.2017). https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf (letzter Zugriff: 12. November 2017). Siehe auch https://algorithmwatch.org/de/filterblase-geplatzt-kaum-raum-fuer-personalisierung-bei-google-suchen-zur-bundestagswahl-2017/
  21. Rory Cellan-Jones, „Stephen Hawking warns artificial intelligence could end mankind.“ BBC online (02.12.2014). http://www.bbc.com/news/technology-30290540/.
  22. Nick Bostrom, Superintelligenz: Szenarien einer kommenden Revolution (Berlin: Suhrkamp, 2014).
  23. Daniel Howley, „Why scientists want AI regulated now before it’s too late.“ Yahoo Finance (25.07.2017). https://finance.yahoo.com/news/scientists-want-ai-regulated-now-late-195127553.html?soc_src=social-sh&soc_trk=ma/ (letzter Zugriff: 19. Oktober 2017).
  24. Peter Holley, „Bill Gates on dangers of artificial intelligence: ›I don’t understand why some people are not concerned‹.“ The Washington Post (29.01.2015). https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/?utm_term=.5fcf2eeafb6e/ (letzter Zugriff: 10. Oktober 2017).
  25. dpa und Matthias Parbel, „Verbraucherzentralen fordern ›Algorithmen-Tüv‹.“ heise online (23.04.2017). https://www.heise.de/newsticker/meldung/Verbraucherzentralen-fordern-Algorithmen-Tuev-3691265.html (letzter Zugriff: 10. November 2017).
  26. Götz Hamann und Adam Soboczynski, „Der Angriff der Intelligenz: Yvonne Hofstetter.“ Zeit online (10.09.2014). http://www.zeit.de/kultur/2014-09/yvonne-hofstetter-kuenstliche-intelligenz/ (letzter Zugriff: 6. März 2016).
  27. https://algorithmwatch.org/, siehe dazu auch Katharina A. Zweig, „Das Risiko liegt in der Intransparenz: Medienethik.“ Medienpolitik.net (11.04.2016); Die Gesellschaft muss Prinzipien ethischen Handelns bei der Anwendung von Algorithmen entwickeln. http://www.medienpolitik.net/2016/04/medienwissenschaft-das-risiko-liegt-in-der-intransparenz/ (letzter Zugriff: 13. November 2017). sowie Kathrin Gießelmann, „Systeme noch ohne Moral: Algorithmen.“ Deutsches Ärzteblatt, PP, Nr. 8 (2017): 382–383. https://www.aerzteblatt.de/pdf.asp?id=192817/ (letzter Zugriff: 14. November 2017).
  28. Pariser, Filter Bubble. S. 164.
  29. Zu Gerald Häfner siehe http://www.europarl.europa.eu/meps/en/96758/GERALD_HAFNER_home.html, sein konkreter Vorschlag siehe Gerald Häfner, Was die Zeit fordert (01.04.2017); Vortrag; Passage 1:08:00–1:09:30. https://www.youtube.com/watch?v=Om52t7ju9rg/ (letzter Zugriff: 9. November 2017).
  30. „An American Permanent Fund would be the centerpiece of the new commons sector … It’s a way to fix, or at least ameliorate, capitalism’s flaw of concentrating private property among the top 5 percent of the population. It would do this, like the Alaska Permanent Fund, by distributing income from common property to every citizen equally.“ Peter Barnes, Capitalism 3.0: A guide to reclaiming the commons (San Francisco: Berrett-Koehler, 2006). http://www.plancanada.com/capitalism3.pdf (letzter Zugriff: 18. Oktober 2017). S. 143.
  31. „Shortly after the oil from Alaska’s North Slope began flowing to market through the Trans-Alaska Pipeline System, the Permanent Fund was created by an amendment to the Alaska Constitution. It was designed to be an investment where at least 25 % of the oil money would be put into a dedicated fund for future generations, who would no longer have oil as a resource.“ Wikipedia, „Alaska Permanent Fund.“. https://en.wikipedia.org/wiki/Alaska_Permanent_Fund (letzter Zugriff: 18. Oktober 2017).
  32. Pacific Forest Trust, „What we do.“. https://www.pacificforest.org/what-we-do/ (letzter Zugriff: 18. Oktober 2017).
  33. So kontrolliert z. B. die IAEO die Verwendung und den Verbleib von Kernmaterial in kerntechnischen Anlagen um auf diese Weise sicherzustellen, dass die Anlagen allein der friedlichen Nutzung der Kernenergie dienen. Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB), „Internationale Atomenergie-Organisation (IAEO): International Atomic Energy Agency (IAEA).“. http://www.bmub.bund.de/P299/ (letzter Zugriff: 18. Oktober 2017).
  34. Mit Singularity (Technische Singularität) wird der Zeitpunkt bezeichnet, an dem sich selbst optimierende Roboter bzw. Algorithmen die menschlichen Fähigkeiten überflü-geln. Einige Forscher gehen davon aus, dass AI ab diesem Zeitpunkt von Menschen nicht mehr kontrolliert werden kann und die Welt selbständig weiterentwickelt.
  35. Sebastian Gluschak, „Google-Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017). https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann/ (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Stephan Dörner, „KI-Software von Google lernt KI-Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017). https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017). Siehe auch „Es geht mir also darum, dass wir erst einmal gemeinsam als Gesellschaft eine Reihe von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen entwickeln und diese dann mit Augenmaß rechtlich umsetzen. Das wird nicht einfach, sollte aber dringend jetzt erfolgen, bevor wir den ersten großen Fall von ethischem Fehlverhalten mittels Algorithmen erleben.“ in Zweig, „Das Risiko liegt in der Intransparenz“.
  36. http://allenai.org/ (letzter Zugriff: 17. Oktober 2017)
  37. https://openai.com/ (letzter Zugriff: 17. Oktober 2017)
  38. http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017)
  39. https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017)
  40. https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017)
  41. Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch Wikipedia, „Elinor Ostrom.“ https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).
  42. „Therein is the tragedy. Each man is locked into a system that compels him to increase his herd without limit—in a world that is limited. Ruin is the destination toward which all men rush, each pursuing his own best interest in a society that believes in the freedom of the commons. Freedom in a commons brings ruin to all.“ Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248. http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).
  43. Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).
  44. Silke Helfrich und Heinrich-Böll-Stiftung, Hrsg., Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).
  45. Elinor Ostrom, „Prize Lecture: Beyond Markets and States: Polycentric Governance of Complex Economic Systems.“ (2014); Rede am 8. Dezember 2009 zur Verleihung des Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften. https://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2009/ostrom-lecture.html (letzter Zugriff: 19. Oktober 2017).
  46. Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, hat der Autor beschrieben in Michael W. Bader, Jenseits von Kapitalismus und Kommunismus: Theorie und Praxis des Wirtschaftsmodells der Achberger Schule (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).
  47. Stefan Meretz, „Ubuntu-Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ in Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich-Böll-Stiftung, 58–65 (Bielefeld: transcript, 2012). S. 63
Keine Kommentare

Wir benötigen Ihren Namen* und Ihre E-Mail-Adresse*. Der Name wird veröffentlicht. Die E-Mail-Adresse wird intern gespeichert, aber nicht veröffentlicht. Wenn Sie die Domain Ihres Internet-Auftrittes mitteilen, wird diese veröffentlicht. Es gelten unsere Datenschutzbestimmungen.

DIESEN ARTIKEL KOMMENTIEREN