Dienstag, 17. Oktober 2017

Die Abschaffung des Bürgers, wie wir ihn kannten







NZZ, 30.9.2017

Es gibt eine Soziologie des datifizierten Menschen. Alex Pentland, einer ihrer prononciertesten Vertreter, spricht ruhmredig von einer „Wiedererfindung der Gesellschaft im Sog von Big Data“. Pentland hat den sogenannten soziometrischen Ausweis („sociometric badge“) erfunden, einer Art von intelligenter Identitätskarte, die ich auf mir trage, und die ständig meinen Zustand und meine Wege im Netz registriert. Man rüstet etwa die Angestellten einer Firma mit einer solchen Karte aus. In ihr befinden sich Ortssensor, Akzelerometer, Mikrophon, die kontrollieren und registrieren, wohin man geht und mit wem man spricht. Pentland malt sich ein Szenario aus, in dem durch entsprechende Sensoren auch „persönliches Energieniveau“ und „Empathie und Extraversion“ gemessen werden können. Sein Slogan: „Was nicht gemessen werden kann, kann auch nicht gemanagt werden.“ Und gemanagt werden muss alles.

***

Wen ein mulmiges Gefühl ob dieser Entwicklung beschleicht, dem könnte angesichts ihrer Weiterführung noch mulmiger zumute werden. Es geht nun nicht mehr bloss um das Messen, sondern auch um das automatische Beurteilen von Sozialverhalten. Neue sanft paternalistische Bewertungsmittel stehen zur Verfügung, zum Beispiel Habit engineering“, „Nudge factor“ oder neuerdings das „Sozialkreditsystem“. Dieses letztgenannte Instrument der Informationstechnologie erfreut sich heute besonders in autoritären Regimes an wachsender Beliebheit. Die kommunistische Führungsriege Chinas schwärmt davon. Man könnte von einem informationstechnisch aufgerüsteten Behaviorismus sprechen: Selbst-Konditionierung des Bürgers durch Selbst-Rating. Damit dressiert er sich selbst ein „ehrlicheres“, „vertrauenswürdigeres“, weniger „gemeinschaftsschädigendes“ Verhalten an. „Big Data offenbart einem die Zukunft,“ frohlockt der Generalsekretär des Parteikomitees für Politik und Recht, Wang Yongqing. Er fordert, die Partei solle eine „vollständige Sammlung anlegen von grundlegenden Informationen über alle Orte, alle Sachen, alle Angelegenheiten und alle Menschen: von den Trends und Informationen darüber, was sie essen, wie sie wohnen, wohin sie reisen und was sie konsumieren.“ Das würde „unser Frühwarnsystem wissenschaftlicher, unsere Abwehr und Kontrolle effektiver und unsere Schläge präziser“ machen.

***

Kern des Sozialkreditsystems ist ein Algorithmus, der pausenlos Informationen sammelt, sortiert, analysiert und evaluiert. Wenn sich diese „beschleunigte Bestrafungssoftware“ wie geplant entwickelt, ist jedes abweichende Verhalten von vornherein ein Vertrauensbruch, ergo der „beschleunigten Bestrafung“ zuzuführen. Das Sozialkreditsystem bedient sich dabei eines typischen Neusprechs. Es geht allemal um „Verbesserung“, „Optimierung“, „Harmonisierung“. Bestrafung ist eine „Hilfe“. Und so beschreibt ein Parteisekretär die technokommunistische Endlösung: „Unser Ziel ist es, das Verhalten der Leute zu normieren. Wenn sich alle normgemäss verhalten, ist die Gesellschaft automatisch stabil und harmonisch.“ Eine Gesellschaft von abgerichteten sozialen Atomen. Mit dem Staat als Big Hacker.

***

Das Projekt beraubt uns schleichend der Möglichkeit, uns anders als normgemäss zu verhalten. Es sagt ganz sanft: Wir verbieten dir nicht, dich nicht verbessern zu wollen, aber wir verstehen nicht, warum du dich nicht verbessern willst. In einem kleinen Essay des Titels „Über das, was wir nicht tun können“ unterscheidet der italienische Philosoph Giorgio Agamben zwei Grundarten der Machtausübung. Herkömmlicherweise besteht sie darin, dass sie die Entwicklungsmöglichkeiten eines Individuums einschränkt, etwa durch materielle Ressourcenverweigerung oder Verbote von Verhaltensweisen. Die tückischere Art besteht in einer anderen Einschränkung. Für Agamben ist der Mensch nicht „blind (geworden) für das, was er tun kann, sondern für das, was er nicht tun oder unterlassen kann.“ Das ist eine subtile Beobachtung, denn sie setzt das Unterlassen nicht als Unvermögen, sondern als ein Vermögen ein. Unterlassen muss man können: es lernen und üben, als zivile Renitenz. Sie wird in dem Masse wichtig, in dem Sozialingenieure, selbstgeblendet von ihrem Modell der Menschenoptimierung, die Grenze des Modells nicht mehr sehen, anders gesagt: ihr Modell für die Realität halten und auch die Macht haben, dieses Dafürhalten in die Realität umzusetzen.

***

Gewiss, ich kann durchaus noch auf Handy, Facebook-Konto oder smarte Identitätskarte verzichten. Aber in einer Welt, in der immer mehr Leute ein Handy, ein Facebook-Konto und eine smarte Identitätskarte haben, stellt sich die schon fast existenzielle Frage nach den Folgen einer solchen Verzichtshaltung – zumal ich einen „Sozialkreditabzug“ riskieren würde, wenn ich mich den neuen Technologien verweigerte. Ich habe die Wahl, dieses oder jenes nicht zu tun – aber diesem Nicht-Tun entzieht man einfach den Sauerstoff seiner Ausübung. Es heisst dann nicht: Du musst, sondern: Du kannst nicht unterlassen. Wie es ein alter parteitreuer Vorzeige­chinese formuliert: „Wenn du viele Minuspunkte hast, dann tuscheln die anderen über dich: Guck mal, der da, das ist ein B. Oder ein C. Manchmal reicht es, wenn wir die Leute warnen: Du, wir stufen dich runter. Dann erschrecken sie.“ Eine Gesellschaft aus lauter denunzierenden Fieslingen.

***

Wenn autoritäre Regimes wie das chinesische eine Vorreiterrolle in der Menschendressur spielen, sollte man gleichzeitig den Blick nicht von affinen Projekten in unseren westlichen Gefilden abwenden. Zum Beispiel von Facebook. Hier bereitet sich ein Techno-Totalitarismus mit jovialem Gesicht vor. Längst stiften die Algorithmen von Facebook, WhatsApp und Instagramm nicht einfach Plattformen zum Chatten und Bildertausch, zur Followersuche und Platzierung von Short News oder Ads - nichts Geringeres als eine „globale Gemeinschaft“ wetterleuchtet am Zukunftshorizont. Zuckerberg, ihr Kanzelprediger, spricht in seinen Enzykliken an die Facebook-Gemeinde vom totalisierenden „Wir“, und meint damit natürlich eine vereinte Facebook-Menschheit. Das „Wir“ hat etwas Unerbittliches, Zwangsläufiges. Auch hier klingen die Ziele hehr: „Unsere grössten Chancen sind jetzt global – Wohlstand verbreiten, Frieden und Verständnis fördern, Menschen aus der Armut heben, wissenschaftlichen Fortschritt beschleunigen (..) Facebook steht für dieses Zusammenrücken und Schaffen einer globalen Gemeinschaft.“ Keine Rede davon, dass sich auf Facebook auch Gelichter der widerwärtigen Art sammelt. Und ohnehin: Und wie bildet man eine globale Gemeinschaft aus Nutzern, die kaum je ihren von Facebook kontrollierten Filterblasen entfliehen? Die Frage bleibt unbeantwortet, was kaum überrascht: Es handelt sich im Grunde um einen kolossalen Widerspruch in sich.

***

Hinter diesem Permaoptimismus verbirgt sich das Konzept einer Gesellschaft aus technisch aufgerüsteten und „angeschlossenen“ Bürgern. Das verbindet Facebook mit den chinesischen Anstandsdresseuren. Soziale Spannungen und Konflikte sind rein technische Probleme, die man mit technischen Mitteln löst. Facebook kreiert ein Ökosystem zur Durchführung eines sozialen Experiments monströsen Ausmasses, mit den bald einmal 2 Milliarden Nutzern als Laborratten. Und die Frohbotschaften Zuckerbergs erweisen sich im Grunde als Promotion für weitere technische Optimierungen: Algorithmenfilter, smartere Kundenwerbung und Ratingsysteme, neue Verschlüsselungs- und Kontrollmethoden.


Samstag, 7. Oktober 2017




Gekürzte Version in NZZ, 26.8.2017

Vorsicht: Feste Überzeugung!

Truthiness
Heute ist viel die Rede vom gefühlten Wissen: Man weiss nicht, aber ist überzeugt, zu wissen; Die NASA Das Englische kennt auch ein Wort dafür: „truthy“; subjektiv als wahr empfunden. Darin manifestiert sich die Rückseite unserer Vernunft. Sie ist, wenn sie an einer Überzeugung festhalten will, zu erstaunlich zäher Rafinesse fähig, sei die Überzeugung noch so irrig oder irrsinnig. „Ausgehend von einem Irrglauben kann uns unerbittliche Logik ins Chaos oder Irrenhaus führen,“ bemerkte einmal der britische Wirtschaftstheoretiker John Maynard Keynes. Als ob er die rezente Ökonomie im Auge gehabt hätte – aber es geht um mehr.

Wir sind schlechte Falsifizierer
Wir alle haben Überzeugungen, die wir nicht oder nur unter grösstem Widerstreben aufzugeben bereit sind. Auch nicht, wenn Fakten gegen sie sprechen. Das sogenannte postfaktische Zeitalter bringt also eigentlich einen tiefverwurzelten renitenten Charakterzug unseres geistigen Lebens zum Vorschein. Wir sind schlechte Falsifizierer. Das ist zumal heute darauf zurückzuführen, dass wir mit dem Wissenswachstum, trotz guter Zugangsmöglichkeiten zum Wissen, nicht Schritt halten. Der Einbau in unser vertrautes Weltbild entpuppt sich als verzwickt, weil das Neue sich oft nicht verträgt mit dem Vertrauten. Und wir können und wollen nicht ständig umbauen. Eher denken wir in der gemütlichen Balance des Vertrauten falsch, als dass wir die Falschheit entdecken und das Vertraute in Schieflage bringen.

Der Schuh der festen Überzeugung   
Ebenfalls im Englischen gibt es den Begriff des „Shoehorning“: Schuhlöffeln. Man bugsiert mit aller Gewalt Fakten in den Schuh der festen Überzeugung, ob sie nun passen oder nicht. Schuhlöffeln ist ein definierendes Merkmal von Verschwörungtheorien. Dieser Typus von Theorie erklärt eigentlich nicht, sondern zementiert eine feste Überzeugung unter der Vorspiegelung, zu erklären. Verschwörungstheorien stehen seit 9/11 in giftiger Blüte. Man muss allerdings sorgfältig differenzieren zwischen Verschwörungstheorien und Theorien von Verschwörungen. Eine seriöse Theorie versucht das Phänomen Verschwörung zu erklären, ohne dass sie den Anspruch auf alternativlose Erklärung erhöbe. Sie rechnet also immer mit andern Schuhen verschiedenster Grösse. Für die Verschwörungstheorie gibt es nur einen einzigen grossen Schuh, und sie operiert meist mit versteckten unausgesprochene Prämissen, die deshalb verschwiegen werden, um immun gegen Widerlegungen zu bleiben. Was man für oder gegen die Theorie ins Treffen führt, verwandelt sie in Evidenz zu ihren Gunsten. Ihr Makel ist nicht, dass sie nicht schlüssig, sondern dass sie zu schlüssig ist. So könnte eine Kurzanleitung für Irrsinn lauten: Halte dein Weltbild konsistent; auf Kosten der Anpassung an die Welt.

Denialism – sich von der Wissenschaft nichts sagen lassen
Heute gehen Verschwörungstheorien eine unheilige Allianz mit einer antiwissenschaftlichen Haltung, dem „Denialismus“, ein. Einer der spektakuläreren jüngsten Fälle ist die Anti-Impf-Bewegung. Quecksilber kann schwere Schäden im Menschen anrichten. In gewissen Impfstoffen ist das quecksilberhaltige Konservierungsmittel Thiomersal enthalten, das bei Kleinkindern neurotoxische Wirkung gezeigt hat. 1998 postulierte der Arzt Andrew Wakefield auf dieser Basis einen kausalen Zusammenhang von MMR-Impfstoff (gegen Masern, Mumps und Röteln) und Autismus. Er ist zwar bis heute nicht nachgewiesen - nachgewiesen wurden Doktor Wakefield vielmehr unlautere Forschungsmethoden. Aber viele Leute haben die Überzeugung zementiert: Quecksilber, also Gefahr.

Das geht so weit, dass Celebritys heute in Fernsehshows ihren ganzen Glamour der Beschränktheit gegen wissenschaftliche Argumentation auffahren. Die Schauspielerin Jenny McCarthy, Mutter eines autistischen Sohns, antwortete 2007 auf die Frage Oprah Winfreys, welche Evidenz sie denn für ihre Anti-Impf-Haltung habe: „Meine Wissenschaft heisst Evans, und er lebt zu Hause. Das ist meine Wissenschaft.“ Und: „Ich habe meinen akademischen Grad von Google.“

Überzeugtheit übertrumpft Argument
Frau McCarthy mag nicht gerade mit den Voraussetzungen intelligenter Wissenschaftskritik gesegnet sein. Aber sie ist Symptom eines bedenklichen Phänomens: Überzeugtheit übertrumpft Argument. Selbst ein Robert Kennedy junior, der immerhin einen anderen Abschluss als jenen der Google-Universität vorweisen kann, versteigt sich zum Verdacht, der offizielle Bericht über den Zusammenhang zwischen Impfstoff und Autismus sei ein „Versuch, die Risiken von Thiomersal weisszuwaschen“. Sieht man die verschwörungstheoretischen Nebelschwaden aufsteigen? Doktor Wakefield hat die Zeichen des postfaktischen Zeitalters jedenfalls erkannt. Im Propagandafilm „Vaxxed: From Cover-up to Catastrophe“ (deutsch: „Vaxxed: Die schockierende Wahrheit“) aus dem Jahre 2016 bereitet er nun die ganze Story wieder auf. Was macht also einer, der mit seiner festen Überzeugung wissenschaftlich nicht reüssiert? Er erzählt die eingängige Geschichte von David gegen Goliath. Wenn er schon keinen Kausalzusammenhang zwischen Impfen und Autismus nachweisen konnte, dann immerhin einen Verschwörungszusammenhang zwischen seinem Scheitern und der Industrie. Damit reüssiert er sicher „beim Volk“.
Hirngeschichten
Da ja heute die Neurobiologen zu allem ihren Senf beigeben, dürfte es vielleicht interessieren, was sie zu dieser intellektuellen Aberration zu sagen wissen. In ihrem Buch „Denying to the Grave“ schreiben Sara und Jack Gorman: „Wenn in uns eine Idee das Gefühl der Belohnung weckt, dann suchen wir dieses Gefühl immer wieder. Und jedesmal wird das Belohnungszentrum – das ventrale Striatum, spezifischer: der Nucleus accumbus – aktiviert, worauf die anderen instinktiven Teile des Hirns lernen, die Idee zu einer fixen Idee zu verfestigen. Versuchen wir, unsere Meinung zu ändern, warnt uns ein Angstzentrum wie die anteriore Insula vor anstehender Gefahr. Der mächtige dorsolaterale präfrontale Cortex kann diese primitive Reaktion ausschalten und Vernunft und Logik zu ihrer Geltung verhelfen, aber es handelt sich um eine langsame Aktion, und sie verlangt ein erhebliches Mass an Entschlossenheit und Anstrengung. Deshalb ist es unnatürlich und unangenehm, unsere Überzeugungen zu ändern, und darin spiegelt sich die Arbeitsweise unseres Hirns.“

Die Ironie der Postmoderne
Hübsch, nicht? Jedenfalls scheint es, dass wir, indem wir gegen festes Überzeugtsein ankämpfen, eigentlich immer auch gegen unsere Biologie kämpfen: Geist gegen Gehirn sozusagen. Man muss sich freilich hüten, daraus eine biologische Apologie des festen Überzeugtseins herauszulesen. Im Gegenteil wird nun erst recht die kulturelle Aufgabe sichtbar, dagegen anzutreten. Zumal in einem Zeitalter der Serienlügner und Berufs-Konfabulierer, die allesamt ihren Bullshit mit dem Stempel der Überzeugtheit verzetteln.

Darin liegt die tiefe Ironie unseres Zeitalters. Das postmoderne Denken machte der Wissenschaft ihren Status als Statthalterin der Wahrheit streitig. Was eine „arrogante“ Geschichtsschreibung als überwundenen Aberglauben abtat, sah sich auf einmal zu einer „alternativen“ Wissensform geadelt: das Wissen nichtwestlicher Kulturen, Naturmagie, Astrologie oder Intelligent Design traten neben Kosmologie, Quantentheorie, Mikrobiologie oder statistische Prognose. Damit verflachte die herkömmliche erkenntnistheoretische Wissenshierarchie, indem nun alles im Grunde als „Meinung“ galt. Die Ironie liegt darin, dass umgekehrt jede Weltanschauung im Basar der Meinungen ihre eigene „Gewissheit“ reklamieren konnte. Die Wissenschaften sollen sich nur gar nichts auf ihr „elitäres“ Wissen einbilden, jede hergelaufene Absolventin der Google-Universität hat das Recht auf Wissen. Hauptsache, sie ist überzeugt davon.

Der Irrsinn wird gesellschaftsfähig
Nicht Lügen oder bewusste Faktenfälschungen stellen im Grunde die erkenntnistheoretische Gefahr dar, sondern Unbeirrbarkeit. „Truthiness“ zersetzt den eminenten sozialen Wert der Wahrheit. Denn Wahrheit hat immer auch die Funktion einer vermittelnden Bürginstanz innegehabt, an der wir unsere Überzeugungen eichen und messen. Deshalb konnte man Leute, die unbeirrbar ihre festen Überzeugungen verzapfen, immer mal an den Pranger der Lächerlichkeit, Blödheit oder des Irrsinns stellen. Das ist heute nicht mehr so ohne weiteres möglich. Verschwindet die Bürginstanz oder verliert sie an Bedeutung, verliert auch der Pranger seine Funktion. Und dann kommt es so weit, dass der Irrsinn gesellschaftsfähig wird: dass ein verquaster rechter „Leninist“ mit Namen Steve Bannon zum Berater im Oval Office avanciert; oder ein Paranoiker wie Alex Jones, der auf seiner Website Infowars.com übelste Verschwörungstheorien kolportiert, das geneigte Ohr des Obersten Befehlshabers der amerikanischen Armee findet. Die Realität hat definitiv das Gepräge einer Dürrenmatt-Groteske angenommen. Ja, sie übertrifft sie eigentlich.





Samstag, 26. August 2017





NZZ, 22.6.2017

Wenn Algorithmen undurchschaubar werden
Auf der Schwelle zum Maschinozän

Auf die Frage, ob es je Computer geben werde, die so intelligent sind wie Menschen, erwiderte der amerikanische Mathematiker und Science-Fiction-Autor Vernor Vinge lapidar: „Ja, aber nur für kurze Zeit.“ - Die Maschinen beginnen zu lernen. „Deep Learning“ nennt sich die Technologie. Bereits feiern einige Propheten den Advent einer postbiologischen Intelligenz. Der Cambridger Philosoph Huw Price spricht vom kommenden Zeitalter des „Maschinozäns“, auf das wir uns vorbereiten sollten. [i]

***

Als von zentraler Bedeutung erweisen sich heute neuronale Netze. Wir können sie uns am einfachsten veranschaulichen als viele miteinander verbundene Drehschalter – die „Neuronen“ -, die in Schichten mit unterschiedlichen Funktionen angeordnet sind und sich kontinuierlich justieren lassen. Sie leiten über elektrische Verbindungen - „Synapsen“ – Signale weiter. Jede dieser Leitungen hat einen bestimmten Wert; hoher Wert bedeutet, die Verbindung leitet gut, tiefer Wert, die Verbindung leitet schlecht. Auch die Schalter sind gekennzeichnet durch einen sogenannten Schwellenwert, der angibt, ab welcher Signalstärke die ankommende Information weitergeleitet wird. Wir haben es also mit einer offensichtlichen Analogie zu den anregenden und hemmenden Signalen in biologischen Gehirnen zu tun.

***

Wie lernen sie? Ganz einfach dadurch, dass man die Werte der einzelnen Neuronen und ihrer Synapsen neu justiert. Das Netz soll zum Beispiel Katzenbilder erkennen. Dazu setzt man ihm eine Pixelmenge als Trainingsdaten vor. Das Netz „lernt“ in einer ersten Schicht, dunkle und helle Pixel zu unterscheiden, in einer zweiten Kanten und andere einfache Formen, in einer dritten komplexere Figuren, und so weiter, bis es gelegentlich etwas Katzenartiges aus der Pixelmenge aussortieren kann. Bei den Netzverbindungen, die zu diesem Output führen, werden nun die Gewichtswerte neu justiert. Ein Lern-Algorithmus besorgt dies. Führt man diesen Prozess wiederholt durch, resultiert ein Netz, in dem die „Katzen-erkennenden“ Verbindungen verstärkt und stabilisiert sind. - Im besten Fall, wohlgemerkt. Immer wieder kommt es vor, dass sich solche Netze nach erfolgreicher Trainingsphase als völlig unbrauchbar für neue Anwendungen erweisen. Die Bilderkennung von Google identifizierte zum Beispiel dunkelhäutige Menschen als „Gorillas“, die Software von Flickr sah im Eingangstor des Konzentrationslagers Dachau ein „Klettergerüst“. 

***

Ein neuartiger Problemtypus nimmt Gestalt an. Man kann ihn so zusammenfassen: Input geht hinein, Output kommt heraus, aber wir verstehen nicht oder nur fragmentarisch, was in den Zwischenschichten passiert. Für Undurchschaubarkeit sorgen ja eigentlich die „Meta-Algorithmen“ des Lernens.

Das Problem hat eine ganz praktische Komponente, zumal heute, da viele Entscheidungs­findungen von Computern abhängen. Hiezu ein Beispiel. Am medizinischen Zentrum der University of Pittsburgh wurde ein Deep-Learning-System zur Voraussage entwickelt, ob bei Patienten mit Lungenentzündung das Risiko verschiedener weiterer Komplikationen besteht. Die Idee war natürlich, Patienten mit niedrigem Risiko zur kostengünstigeren Behandlung nach Hause zu schicken. Das System graste also die Daten aus den Krankendossiers ab, „lernte“, und empfahl entsprechende Massnahmen. Als die Forscher die Empfehlungen etwas genauer unter die Lupe nahmen, entdeckten sie etwas Irritierendes. Das System empfahl, Patienten mit Asthma und Lungenentzündung nach Hause auszuquartieren, wo doch bekannt ist, dass Asthma in Verbindung mit Lungenentzündung die Komplikationsrisiken stark erhöht.

Was war geschehen? Nun, eine dieser unergründlichen Denk-Volten, zu denen Deep-Learning-Systeme offenbar fähig sind. Zur Politik des Spitals gehört, Patienten mit Asthma und Lungenentzündung vor vornherein einer besonders intensiven Pflege zu unterziehen, und diese Massnahme funktioniert so gut, dass in den Dossiers kaum je über Komplikationen zu berichten war. Das System zog daraus den Schluss: Patienten mit Asthma und Lungenentzündung können nach Hause geschickt werden, weil Asthma das Komplikationsrisiko verringert.

***

Das ficht die Designer nicht an: Bloss eine Kinderkrankheit des Algorithmus, weiter nichts. Das System muss lernen, die Gefährlichkeit seiner Schlussfolgerungen zu erkennen.  Aber das kann es nur, wenn die Designer – wie im Fall unseres Beispiels – Einblick in diese Schlussfolgerungen haben. Eine naheliegende Lektion daraus könnte sein, dass man das neuronale Netzwerk trainiert, seinen Output in ein menschlich interpertierbares Format zu übersetzen.

Nichtsdestoweniger stellt die Interpretierbarkeit ein ernsthaftes Problem dar. Das sehen auch die Designer. Zum Beispiel Dimitry Malioutov von IBM. Er entwarf für eine grosse Versicherungsgesellschaft ein Programm auf der Basis von Deep Learning: „Wir konnten das Modell unseren Kunden nicht erklären, weil sie nicht in Maschinenlernen ausgebildet waren.“ Aber auch Experten bekunden oft Mühe, das, was ihre „lernenden Schüler“ ausgeben, zu verstehen. Malioutov bietet aus diesem Grund den Kunden statt Deep-Learning-Maschinen oft ein Regel-basiertes System an, das gut interpretierbar ist. Dieses erweist sich zwar vielfach als weniger präzise als das neuronale Netz, trotzdem entscheiden sich die Kunden für ersteres. „Sie bringen es mehr in Übereinstimmung mit ihren Intuitionen,“ erklärt Malioutov.

***

Die Undurchschaubarkeit der Maschine wird uns wahrscheinlich immer mehr beschäftigen. Sie wird eine neue Kategorie von Technik charakterisieren. Das Programm AlphaGo, das 2016 den Go-Weltmeister Lee Sedol besiegte, führte Züge durch, die von Beobachtern als geradezu übermenschlich taxiert wurden. Über den entscheidenden Zug in einem Spiel begeisterte sich der Europameister Fan Hui: „Es war kein menschlicher Zug. Ich sah nie einen Menschen diesen Zug spielen. So schön ist er.“

Der Vergleich mit anderen algorithmischen Orakeln – zum Beispiel statistischen Klassifikations­systemen oder Entscheidungsbäumen – zeigt ein umgekehrtes Verhältnis von genauer Voraussage und Verstehbarkeit: Je fähiger das System zu exakter Voraussage ist, desto  schwieriger ist es interpretierbar. Wie der Neurokybernetiker Aaron Bornstein vom Princeton Neuroscience Institute schreibt: „Modernes Maschinenlernen offeriert eine Wahl zwischen Orakeln: Wollen wir möglichst präzise wissen, was passiert, oder wollen wir wissen, warum etwas passiert, auf Kosten der Präzision? Das ‚Warum’ hilft uns, Strategien zu entwerfen und zu wissen, wann unser Modell zusammenbricht. Das ‚Was’ hilft uns, angemessen in der unmittelbaren Zukunft zu agieren.“ [ii]

***

Und wenn uns die Ausgeburten unseres Kopfes über den Kopf wachsen? Mit dieser Frage bewegen wir uns auf dem Boden der Spekulation, wo vor allem die Science Fiction weidet. Aber was man auch von ihren teils exaltierten Phantastereien halten mag, wir werden es wahrscheinlich vermehrt mit „kognitiven Exoten“ zu tun bekommen. Deshalb brauchen wir eine Anthropologie im Maschinozän, die Aussichten auf das Menschsein unter und mit Maschinen eröffnet. Jürgen Habermas warnte 1968 vor Wissenschaft und Technik als Ideologie. Heute meldet sich eine neue, weitaus potentere Algorithmen-Ideologie zu Wort. Algorithmenentwerfer verstehen vielleicht viel von Maschinen und deren Logik, aber verstehen sie eigentlich etwas von den Menschen, die sie brauchen? Das heisst, sehen sie im Menschen mehr als ein abrichtbares Verhaltensmodul? Wenn man heute bereits vernimmt, die Stärke der künstlichen Intelligenz sei ihre Unergründlichkeit, dann liesse sich darauf erwidern, dass gerade wir Menschen diese Stärke den Maschinen voraus haben. Das kann immerhin ein Grund zur Zuversicht sein.




[i]    Huw Price: Now it’s time to prepare for the Machinocene, Aeon, 17.10.2016; https://aeon.co/ideas/now-it-s-time-to-prepare-for-the-machinocene.
[ii]   Aaron Bornstein: Is Artificial Intelligence Permanently Inscrutable? Nautilus, 1.9.2016; http://nautil.us/issue/40/learning/is-artificial-intelligence-permanently-inscrutable.