Freitag, 16. Dezember 2016

Wieviel Dummheit verträgt Demokratie?






Etwas andere Version erschienen in NZZ, 10.12.2016

Demokratie ist recht besehen ein überaus erstaunliches Phänomen, schon fast ein Wunder. Es erinnert an das, was man in der Komplexitätsforschung Emergenz nennt. In meinem Hirn sind Millionen von Neuronen aktiviert und tanzen nach einer undurchschaubaren Choreografie, und – bing – „emergiert“ daraus mein Zorn über einen bestimmten Politiker. Millionen von Stimmbürgern entscheiden sich individuell für eine politische Sache, oft aus undurchsichtigen und eigennützigen Gründen, meist auch, ohne ausreichend über die Sache informiert zu sein, und – bing – aus der Kakophonie der Einzelstimmen „emergiert“ die Vox populi. Und was wirklich verblüfft: Oft resultiert ein recht vernünftiger Kollektiventscheid, wie xenophob, sexistisch, rassistisch, wutgetrieben oder schlicht dumm der individuelle Entscheid auch sein mag. Wie kann das so vertrackte und schwerfällige Gebilde Demokratie „vernünftig“ sein? Politiker nehmen dies gern zum Anlass, vom „weisen Volkswillen“ zu schwadronieren. Unter Ökonomen ist auch die „Schwarmintelligenz“ ziemlich in.

***

Aber das ist bestenfalls Metaphorik, schlimmstenfalls populistische Metaphysik. Sie erzeugt nur den Schein einer Erklärung. Tatsächlich stellen Sozial- und Politikwissenschafter heute vermehrt die Frage, ob denn die Demokratie das passende politische System zur Lösung der akuten Probleme bereithalte. Und zwar setzt die Frage direkt beim Bürger an: Gibt es den wohlüberlegenden, wohlinformierten - den rationalen Wähler? Und wenn nicht, ist dann eine demokratische Wahl oder Abstimmung wirklich etwas anderes als ein mehr oder minder gut beratenes Multiple Choice? Und Hand aufs Herz: Wer hat nicht schon auf diese Weise gewählt?

Es gibt ja durchaus spektakuläre Gegenbeispiele zur „Weisheit“ des Volkswillens, etwa den Brexit-Entscheid oder die Wahl des neuen Präsidenten der USA. Sie scheinen die These des Ökonomen Bryan Caplan zu bestätigen: Der „rationale Wähler“ ist ein Mythos (Bryan Caplan: The Myth of the Rational Voter: Why Democracies Choose Bad Policies, 2007). Gewiss ist es ein stolzes Recht, seinen Stimmzettel in die Urne zu werfen. Aber mit diesem Recht kontrastiert die Macht des Durschnittswählers, den Gang der Dinge zu beeinflussen. Und die erweist sich auch in einer Demokratie als gering. Und gerade aufgrund der extrem kleinen Chance sehen nicht wenige Wähler in der Stimmabgabe vor allem die Gelegenheit, ihrer Ohnmacht und Frustration Ausdruck zu verleihen. Die Ohnmacht des Wut-Wählers ist der ideale Brennstoff für den Machtwillen des politischen Hitz- und Hetzkopfs.

***

Wenn es den „rationalen Wähler“ nicht gibt, dann gibt es zumindest den „rationalen Lenker“. Zumindest ist das die Meinung des politischen Philosophen Jason Brennan, der gerade ein Buch mit dem sprechenden Titel „Against Democracy“ publiziert hat. Das Brexit-Referendum war „undemokratisch“, so Brennan, weil es den Bürger mit seinem Wissensstand – mehrheitlich - überforderte. Brennan sieht hier allgemein ein Defizit von Demokratien: Sie setzen eine nicht existente Kompetenz beim Durchschnittsbürger voraus. Und mit dieser These befindet er sich in langer Tradition, die zurückreicht bis zu Platons „Staat“. Der Durchschnittsathener, so Platon, ist träge, lasterhaft, zerstreut. Der demokratische Bürger lässt sich in seiner Freiheit von so vielen Einflüssen treiben, dass seine politische Stimme eigentlich eine Zufallsstimme ist. Platon zeichnet geradezu eine Psychopathologie der demokratischen Freiheit, in welcher der Bürger in seiner Orientierungslosigkeit und Verwöhntheit zwangsläufig „reif“ wird für die Tyrannis. Die Lösung sieht Platon in einer Herrschaft der wissenden Elite – damals der Philosophen - : in einer Epistokratie. Und eine solche epistokratische Therapie verschreibt Brennan den heutigen Demokratien.

Wir kennen schon lange den Ruf nach Politikmanagern, welche die akuten Probleme effizient lösen. Aber dahinter steckt natürlich die nun selbst äusserst fragwürdige Annahme, dass mehr Wissen auch automatisch mehr politische Autorität und Kompetenz verleihe. Die Idee, das Geschick einer Gesellschaft einer Elite zu überantworten, die „weiss“, was gut ist, und nur das Beste für uns will, führt geradewegs in eine Despotie der Wohlmeinenden.  „Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter - Schritt für Schritt, bis es kein Zurück mehr gibt." – (Der Spiegel, 27. Dezember 1999). Aber schon Immanuel Kant meinte, eine Regierung, die ihr Volk so behandelt wie ein Vater seine unmündigen Kinder, die nicht wüssten, was für sie nützlich oder schädlich sei, wäre „der größte denkbare Despotismus” (Über den Gemeinspruch).

***

Zentral in einer digitalisierten Demokratie ist die Informationsbeschaffung. Von ihren Techniken hängt die Meinungsbildung wesentlich ab. Aber die politische Entscheidungsfindung hinkt dem Kurs und Tempo des technischen Fortschritts hinterher. Im gegenwärtigen Big-Data-Boom beginnt auch die Wissenschaft den politischen Entscheidungsprozess zunehmend als Informationsverarbeitung zu konzipieren. Die Differenz der politischen Systeme erscheint in dieser Optik als Differenz der Sammel- und Analyseprozeduren von Daten. Diktaturen favorisieren zentralisierte Prozeduren, Demokratien verteilte. Der Historiker Yuval Noah Harari vertritt in seinem neuen Buch „Homo deus“ (2016)  die These, der Kalte Krieg sei vom Kapitalismus gerade deshalb gewonnen worden, weil dieser den Technologien der verteilten Informationsverarbeitung zum Durchbruch verholfen habe. Das erscheint dick aufgetragen, aber richtig daran ist immerhin so viel, dass man den Vorgang der Demokratisierung einer Gesellschaft durchaus als Schritt in Richtung der Informatonsverteilung charakterisieren könnte.

***

Genau in diesem Schritt steckt allerdings eine Tücke der Demokratisierung. Wieviel Verteilung der Information verträgt sie? Die Frage erhält im Kontext der Social Media einen geradezu dramatischen Unterton. Information wird ja nicht bloss verteilt, sie wird ausgegossen in einer nie dagewesenen Flut, in der wir uns kaum noch zu orientieren vermögen. Gerade die amerikanischen Präsidentschaftswahlen haben uns demonstriert, wie das Netz überspült wird von viralem Bullshit. Es gibt eine regelrechte Industrie von „hoax news“, also von Jux- und Falschnachrichten. Wie unterscheiden wir zwischen wahren und falschen News? Wir unterscheiden nicht. Wir filtern. Wir tendieren im Netzdiskurs dazu, Nachrichtenströme durch den Passevite unsere Voreingenommenheiten zu drehen. Und nichts verbreitet sich im Netz so effizient wie Geschichten, welche die eigene Voreingenommenheit bestätigen. Übrig bleibt, was wir „immer schon wussten“, will sagen: eigentlich nicht wissen oder wissen wollen.

***

Ist das ein Argument gegen die Demokratie? Im Gegenteil, ein Appell, Demokratie, ja, Politik neu zu denken. Demokratieverdruss ist Verdruss über eine politische Realität, die eigentlich nicht mehr viel mit der Res publica zu tun hat; in der suprastaatliche Akteure wie Globalkonzerne, Banken, Investoren, Rating-Agenturen immer mehr partikulare Handlungs- und Entscheidungsmacht an sich reissen und Regierungen nicht selten zu Erfüllungsgehilfen degradieren. „Postdemokratie“ nannte der englische Soziologe Colin Crouch dieses Szenario schon vor über zehn Jahren.

Immer mehr Bürger demokratischer Staaten nehmen ein elementares Defizit wahr: sie wählen Vertreter, welche ihre Interessen nicht vertreten. Der Schluss daraus ist einfach: Wir vertreten uns selber! – Das muss nicht die Abschaffung der Institutionen der repräsentativen Demokratie bedeuten, vielmehr ein Aufbrechen ihrer Selbstverständlichkeiten. Dazu gehört zum Beispiel der „blinde Glaube auf den Urnengang“. Die Formulierung stammt aus dem kürzlich erschienenen Buch des belgischen Schriftstellers David Van Reybroeck „Gegen Wahlen“ (2016). Seine Idee: Erweiterung des herkömmlichen repräsentativen Systems zu einem „birepräsentativen“, in dem die Bürgerinitiative und ähnliche „Bottom-up“-Bewegungen ein stärkeres Gewicht in den politischen Entscheidungsprozessen erhielten.

Neu ist diese Idee ja nicht – auch nicht unumstritten. Denn damit lässt sich das Gebräu im populistischen Giftkessel famos am Köcheln halten. Aber den Kerngedanken darin sollten wir ernst nehmen: Demokratie braucht den Glauben an die lokale Wirkung, weniger abstrakt: an Das-Leben-in-die-eigene-Hand-nehmen. In einer Zeit globaler Unübersichtlichkeit will man sehen, was die eigene Entscheidung bewirkt, und das geschieht im Kreis von Bekannten, Nachbarn, Quartierbewohnern, in der urbanen Umgebung, kurz: im Lokalen. Eignung für Demokratie ist das eine, Lust an der Demokratie das andere. Und diese wächst auf dem Boden der lokalen „Polis“.

***

Das hat nichts mit dem Volk zu tun. „Das“ Volk gibt es nicht, es gibt Menschen und Menschengruppen, einheimische und fremde, gebildete und weniger gebildete, junge und alte, intergrierte und marginalisierte – Menschen, die ihre bestimmten Interessen vertreten und im friedlichen Widerstreit eines heterogenen Miteinanders leben. Ein Ideal, zugegeben. Aber diesem Ideal nachzuleben, gehört zur Essenz der Demokratie. Demokratie ist eine Fiktion, die wir zu realisieren suchen, sagt der Philosoph Charles Taylor. Vom „Volk“ oder gar von „Volksnähe“ zu reden ist dagegen unbekömmliche Metaphysik, die mit der Demokratie nur Schindluder treibt.


Donnerstag, 24. November 2016

Computergeneriertes Bauchreden






Wir kennen die Geschichte: Cyrano de Bergerac, verunstaltet durch eine monströse Nase, liebt seine schöne Cousine Roxanne. Roxanne hat nur Augen für einen anderen, Christian de Neuvillette. Cyrano, grossherzig, leiht sein poetisches Talent dem Nebenbuhler: er schreibt in dessen Namen tiefgefühlte Liebesbriefe an die Angebete. Ein Ghostwriter in Herzensangelegenheiten, würde man heute sagen, einer sogar, der die Gefühle noch teilt. Lebte de Neuvillette freilich heute, bräuchte er wahrscheinlich keinen Cyrano mehr. Er hätte Allo von Google, eine neue App: ein neuronales Netzwerk als künstlichen Ghostwriter.

Allo prüft den Inhalt der eintreffenden Messages und Bilder auf dem Handy und empfiehlt schnelle Antworten – „smart replies“ -, die den Gefühlszustand des Adressaten wiedergeben sollen. Erhalte ich zum Beispiel ein Photo meines kleinen Enkels auf der Rutschbahn, dann gibt mir die App eine Palette von Reaktionsmöglichkeiten an die Hand: Emojis, Smileys, Abkürzungen, vorfabrizierte Phrasen „Wie süss!“ oder „Come on!“. Ein Klick entlastet mich also vom Extraaufwand einer passenden Antwort und ihrer Gefühlsarbeit.

Extraaufwand? Warum soll denn die Äusserung einer emotionalen Regung ein Aufwand sein? Dafür gibt es zwei Gründe. Erstens erweist es sich heute in der täglichen, ja stündlichen Überflutung durch E-Mails, Tweets und Messages oft geradezu als Schutzmassnahme, nicht immer selber antworten zu müssen. Und zweitens führt Google eine Künstliche-Intelligenz-Abteilung. Hier interessiert man sich brennend für Algorithmen, die das Gefühlsleben des Nutzers erkennen können; für Module, die mich „persönlich“ nehmen.

***

Nun sind automatisch generierte Antworten zunächst einmal Symptom eines entfesselten Softwaremarktes, auf dem sich noch der abgedrehteste Nerd am Bildschirm eine Chance für einen Platz an der Sonne ausrechnen kann. Es herrscht Software-Krieg unter den Technologieunternehmen: Wer bringt es am weitesten mit der Automatisierung menschlichen Verhaltens? Im Jahre 2012 beantragte Google ein Patent für die „automatische Erzeugung von Empfehlungen für personalisierte Reaktionen in einem sozialen Netz“. Bei Geburtstagen oder Firmenjubiläen, so vermerkt die Patentschrift, würde man sich doch oft eine Maschine wünschen, welche eine passende festliche Gratulationsadresse verfassen könnte. „Viele Nutzer verwenden vernetztes Arbeiten online für professionelle und persönliche Zwecke. Jeder Verwendungstypus hat sein implizites Verhaltensprotokoll. Für den Nutzer ist es äusserst wichtig, in den verschiedenen sozialen Netzwerken(..) angemessen zu agieren. Zum Beispiel kann es sehr wichtig sein, einem Freund ‚Ich gratuliere’ zu sagen, wenn er ankündigt, einen neuen Job zu haben. Das ist ein besonderes Problem, da viele Nutzer sich vielen sozialen Netzen anschliessen.“

***

Ein besonderes Problem? Ist es nicht normal, dass man einen Freund zu seinem neuen Job beglückwünscht? Nun ja, normal für den, der gewisse Anstandsformen kennt, der „bitte“ und „danke“ und „schön für dich“ zu sagen gelernt hat. Aber man muss genau lesen. Es geht nicht um Etikette. Es findet eine Verschiebung im Blick auf den Menschen statt. Die Patentschrift spricht von Verhaltensprotokollen. Man könnte auch von „Code“ reden. Und es sind primär Maschinen, welche gemäss dem Code von Protokollen – Programmen - laufen. Der Ausdruck verrät also das Bild, das sich die Algorithmentüftler vom Standard-User machen, nämlich das eines Code-determinierten Wesens. Es gibt heute fast für alles Codes: Konversations-Codes, Codes zum Geldverdienen, Aufsteigen im Job, Schreiben von Bestsellern, Finden von Sexpartnern. In diesem Sinn ist der User ja der Maschine sehr verwandt. Vergegenwärtigen wir uns nur, dass der soziale Verkehr schon heute stark abhängig ist von den Geräten, die man mit sich herumträgt. Das soziale Atom ist nicht mehr der Mensch, sondern Mensch-plus-Smartphone.

***

Der logische Drive in der ganzen Entwicklung ist unschwer auszumachen. Wenn es schon Autos ohne menschliche Fahrer gibt, warum soll es dann nicht auch Kommunikation ohne menschliche Kommunikatoren geben?  Wie der Blog-Post von Google verkündet: „Allo hält deine Konversation mit einem einzigen leichten Fingerschlag in Gang, indem es Text- und Emoji-Antworten vorschlägt, die auf deine Person abgestimmt sind (..) Je mehr du also Google Allo verwendest, desto mehr ‚du’ werden seine Vorschläge.“ Die Maschine lernt, „mich“ zu sein. Das hat einen gruseligen Einschlag. Wie wenn sich in meiner Person etwas Fremdes einnistete. Gerne werden die neuen Apps als Spielzeuge verharmlost, welche vor allem Afficionados ansprechen. Das mag so sein, aber auf den Absatzmärkten dieser Spielzeuge etabliert sich insgeheim ein neues soziales Verhaltensrepertoire. Wir beobachten es bereits an der Sprache. In der Web-Community bürgert sich ein neuer Umgangston ein, ein auf verbalen Schnellschuss und Schlagabtausch eingestelltes Twitter-Pidgin. Ihm kommen Apps wie Allo zupass.

***

Im Hintergrund nimmt ein anderes Problem Gestalt an, jenes des Delegierens. Technik heisst Delegation von menschlichen Fähigkeiten an Artefakte und Maschinen. Bis zur Entwicklung der modernen Computer beschränkte sich diese Delegation primär auf physische Tätigkeiten und Fertigkeiten. Nun rücken immer mehr die geistigen Vermögen in den Fokus der Rechner. Motivierend dabei sind sicher die Fortschritte in der kognitiven Computerforschung. Sie demonstrieren laufend, wie sich vormals allein dem Menschen zugestandene intellektuelle Kompetenzen nunmehr an Algorithmen „outsourcen“ lassen.

Beim Delegieren stellen sich immer die Fragen: Was und wieviel? Welche Fähigkeiten will ich abgeben und bis zu welchem Grad? Was ist mir wichtig? Man kann sich weiter fragen, ob nicht gerade die menschliche Kommunikation an Echtheit und Intimität in dem Masse verliert, in dem wir uns nicht mehr auf die emotionalen und intellektuellen Bedürfnisse unseres Ansprechpartners einlassen, sondern den Umgang mit ihm der automatisierten Phraseologie lernender Maschinen überlassen. Wir schalten sozial auf den Autopilot-Modus, und die Begegnung von leibhaften Personen verwandelt sich in die „Vergegnung“ von Netz-Phantomen – ein Ausdruck, den der Religionsphilosoph Martin Buber schon vor dem Internet geprägt hat. Das smarte Gerät ist unsere Bauchrednerpuppe.

***

Spätestens hier vernimmt man den Einwand: Aber du musst ja nicht auf die computergenerierten Floskeln hören. Sie sind doch einfach ein weiteres Angebot in der technischen Wundertüte! Du hast die Wahl. Und du selbst bist verantwortlich für deine Sprachwahl, stamme sie nun von dir oder von deiner App!

Darauf lässt sich nur antworten: Schön wär’s! – Der Einwand verkennt zwei Punkte. Erstens gibt es ein Trägheitsgesetz menschlichen Verhaltens. Staffiert man eine Verhaltensweise genügend geschickt und häufig mit Anreizen aus, wird sie akzeptiert. Das bedarf eines gewissen psychischen Anschubaufwands. Hat sich aber die Verhaltensweise durchgesetzt, ist der Aufwand, sie zu ändern, grösser. Unser Verhalten zeigt eine Berharrenstendenz. Das weiss das Marketing längst. Es verkauft ja nicht einfach Apps, es verkauft Verhaltensweisen. Und dazu ist es wichtig, unser Urteilsvermögen und unseren Willen zur Veränderung zu sedieren.

Zweitens: Allo dient sich uns an als Mittel zum besseren Zeit-Management im Überfluss der Angebote online. Leicht unterliegen wir dabei dem Fehlschluss, den der Publizist Evgeny Morozov als „Solutionismus“ bezeichnet hat: Wir verwechseln die technische Lösung eines Problems mit dem Problem, das durch Technik überhaupt erst geschaffen worden ist. Es mag durchaus sein, dass automatisierte Kommunikation einen gewissen Schutzwall gegen das Anfluten von Nachrichten auf unseren Handys aufbaut. Aber dieses Anfluten kommt ja überhaupt erst durch den Handygebrauch zustande.

***

Es geht letztlich nicht um Apps und anderen elektronischen Schnickschnack. Schauen wir uns die Situation einmal unter dem folgenden Gesichtswinkel an. Die Techno-Riesen reden uns ein: So tickt der Mensch! – Und sie liegen in dem Masse richtig, in dem wir uns dem Ticken ihrer Geräte anpassen. Wir erniedrigen uns selbst, indem wir eine anthropologische Prämisse akzeptieren, die den Menschen, wie wir ihn kannten oder zu kennen glaubten, verabschiedet: Wir sind im Kern repetitive, ergo prognostizierbare, ergo überwachbare Verhaltensapparate. Und wir akzeptieren die Prämisse stillschweigend dadurch, dass wir uns mit den Produkten der Techno-Riesen ausrüsten. Die Algorithmen, die sie entwerfen, dienen nur einem Zweck: dass wir unser Verhalten den Algorithmen unterwerfen. Wir kaufen also mit den Apps und ihren laufenden Updates nicht Technologie, die Technologie kauft uns. Willkommen als Versuchsratten in der weltumspannenden unsichtbaren Skinnerbox namens „Leben online“.



Samstag, 8. Oktober 2016

Zombie-Ideen




NZZ, 30.9.2016

Warum falsche Vorstellungen nicht aussterben

Für viele, sich fortschrittlich dünkende Menschen stellt die Wissenschaftsgeschichte so etwas wie eine Leiter dar, auf der wir immer höher steigen, dabei Aberglauben und Ignoranz hinter uns lassend. Astronomie hat die Astrologie abgeworfen, so wie die klassische Mechanik die aristotelische Bewegungslehre, die Chemie die Alchemie, die Physiologie die paracelsische Pharmakologie oder die Neurologie die Psychologie. Dadurch, dass wir Ideen falsifizieren, kommen wir der Wahrheit ein Stück näher, lehrte der Philosoph Karl Popper.

***

Stimmt das? Sofort bietet sich eine Handvoll Gegenbeispiele an: Viele Leute glauben heute noch an eine flache Erde, Exorzismus, Astrologie, Kreationismus, okkulte Heilkräfte der Steine. Man könnte diese Epidemiologie des Aberglaubens fast ad libitum fortsetzen. Soll man einfach sagen, diese Leute seien töricht und unbelehrbar? Das wäre nun selber töricht. Einer der grössten Physiker des letzten Jahrhunderts, Niels Bohr, antwortete einmal auf die Frage, ob er an das Hufeisen über seiner Haustür glaube: „Natürlich nicht. Aber wissen Sie, es soll auch nützen, wenn man nicht daran glaubt.“ Ob er dies ernst meinte, sei dahingestellt. Jedenfalls ist das Beharrungsvermögen alter, überständiger Ideen eine feststellbare Tatsache. Und es hat mehrere Gründe. Zunächst einen kognitiven. Wir leben in einer zunehmend komplexeren Welt. Die wissenschaftlichen Theorien, die uns das Geschehen erklären, wachsen uns über den Kopf in immer abstraktere Höhen. Sie sind selbst für Eingeweihte oft kaum mehr verständlich. Sie gewähren uns keine kognitive Heimat.

Betrachten wir zum Beispiel das Horoskop. Es ist auch im Zeitalter der wissenschaftlichen Prognose weit verbreitet und beliebt. Vielleicht gerade deshalb, weil es einer Epoche entstammt, in der man an die Verknüpfung des menschlichen Schicksals mit dem Gang der Sterne glaubte. Das Universum der Astrologie ist kein physikalisches, sondern ein hermeneutisches: voller deutbarer Zeichen. Der Himmel geht mich hier „persönlich“ etwas an, er „sagt“ mir etwas. Ich fühle mich „zuhause“, anders als im kalten, trost- und sinnlosen Universum der Astrophysik. Wir wissen zwar heute, dass es solche astralen Verknüpfungen nicht gibt, aber wir glauben nicht, was wir wissen! – Ich nenne dies das Wissensparadoxon.

***

Ein anderer Grund für das Überleben falscher Ideen liegt in der „Provinzialität“ unserer Alltagserfahrung. Unsere Rede von Aufgang und Untergang der Sonne ist „provinziell“. Wir haben ja durchaus die Botschaft des Wissens vernommen, dass dies der Standpunkt eines überwundenen geozentrischen Weltbildes sei, aber uns fehlt der Glaube. Unsere Intuition, die sich vor allem an Alltagssituationen orientiert, teilt uns wenig über die Rotation der Erde oder die Gekrümmtheit der Erdoberfläche mit. Es braucht schon ein bisschen Überlegung und genaue Beobachtungsgabe. Je mehr sich unsere Theorien von diesen Alltags-Intuitionen entfernen, desto mehr verlangen sie eine Adaptation unserer Gehirne an die ungewohnten Situationen.

***

Hinzu tritt der Autoritätsglaube. Wir hören das Echo von Max Plancks berühmtem Diktum: „Irrlehren der Wissenschaft brauchen 50 Jahre, bis sie durch neue Erkenntnisse abgelöst werden, weil nicht nur die alten Professoren, sondern auch deren Schüler aussterben müssen.“ Ein schönes Beispiel liefert der Fall der notorischen „Zungenkarte“. Der deutsche Physiologe David Paul Hänig fand zu Beginn des letzten Jahrhunderts heraus, dass die Zunge Geschmackszonen aufweist. Die elementaren Geschmacksqualitäten würden an entsprechenden Stellen mit „geringfügig“ verschiedenen Intensitäten empfunden: süss an der Zungenspitze, bitter an der Zungenwurzel, sauer und salzig seitwärts. Hänigs Buch wurde in den 1940er Jahren vom angesehenen amerikanischen Psychologen Edwin G. Boring ins Englische übersetzt, nur erachtete es dieser als hilfreicher, anstelle von Hänigs Diagrammen eine einfache und eingängige Karte der Geschmackszonen zu erstellen, wobei er verschwieg, dass die Unterschiede eigentlich „geringfügig“ seien. Die Zungenkarte war geboren, ein Bestandteil der Lehrbücher bis in die 1970er Jahre. Boring dixit, ergo verum est!

***

Falsche Ideen können auch immun gegenüber der Wirklichkeit sein, weil sie die Wirklichkeit überhaupt erst schaffen helfen. Zum Beispiel die ökonomische. Nach der globalen Finanzkrise listete der australische Wirtschaftswissenschafter John Quiggin fünf „Zombie-Ideen“ auf, die nun eigentlich hätten beerdigt werden müssen. Insbesondere die sogenannte Markteffizienzhypothese, die in einer Version besagt, dass die im Finanzsektor generierten Preise das optimale Kriterium zur Abschätzung einer jeglichen Investition darstellen, weil alle Information bereits in den Preisen enthalten ist. Genau dies wurde durch die Krise falsifiziert. Aber die Hypothese war, so Quiggin, „zu zweckdienlich, um einfach aufgegeben zu werden.“ Too big to fail, auch bei Ideen.

Ein kleines wissenschaftstheoretisches Lehrstück ist zumal die Verteidigungsstrategie der Advokaten der Hypothese. Sie erinnert an das Giftorakel, das der Kulturanthropologe Edward E. Evans-Pritchard in den 1920er Jahren bei den Zande in Zentralafrika beobachtet hatte. Um eine Antwort auf eine schwierige Frage über die Zukunft zu erhalten, gibt der Wahrsager einem Huhn Gift. Je nachdem, ob das Huhn überlebt, trifft die Voraussage zu oder nicht. Die Kraft des Orakels wird nicht angezweifelt. Liegt es falsch, dann greift man zu dem, was Evans-Pritchard „sekundäre Elaboration“ nennt. Man erfindet Zusatzhypothesen, vulgo: Ausreden. Zum Beispiel hat man nicht die richtige Substanz verabreicht, ist sie alt und verdorben, spielt Hexenzauber hinein oder ist der Wahrsager schlicht inkompetent. Durch sekundäre Elaboration behauptet sich letztlich jeder Mumpitz.

***

Sind wir aufklärungsresistent? Hier könnten neuere Beobachtungen Aufschluss geben, die von den Kognitionspsychologen Andrew Shtulman und Joshua Valcarel vom Occidental College, Los Angeles, gemacht worden sind. Sie konfrontierten naturwissenschaftlich unterrichtete Studenten mit einer Reihe von Aussagen aus diversen Fächern, deren Wahrheitsgehalt sie möglichst schnell und intuitiv einschätzen mussten. Die Studenten neigten oft zu älteren, überwundenen Ideen, obwohl sie eines „Besseren“ belehrt worden waren. Shtulman und Valcarel kommen zum Schluss: „Wenn Studenten wissenschaftliche Theorien lernen, die früheren, naiven Vorstellungen widersprechen, was geschieht dann mit diesen früheren Ideen? Unsere Resultate legen nahe, dass naive Theorien durch wissenschaftliche Theorien verdrängt, aber nicht ersetzt werden.“ Wir lernen Neues, aber verlernen Altes nicht.

Der Psychologe Kevin Dunbar von der University of Maryland untersuchte die intuitiven Physikkenntnisse von Studenten genauer. Dabei stellte er fest, dass viele der Befragten „überwundenen“ Ansichten zuneigten, etwa jener von Aristoteles, wonach schwere Kugeln schneller fallen als leichte. Eine Ansicht, die Galilei in einem berühmten Gedankenexperiment ad absurdum führte. Warum also lassen uns solch „absurde“ Vorstellungen nicht los? It’s the brain, stupid! Die wissenschaftliche „Zurückgebliebenheit“ lokalisierte Dunbar im dorsolateralen präfrontalen Cortex, einem Areal, das sich bei Heranwachsenden erst spät entwickeln soll. Es spiele eine entscheidende Rolle im Verdrängen von ungewollten, ungewohnten Ideen. Physikstudenten müssten, so Dunbar, ihren dorsolateralen präfrontalen Cortex bemühen, um ihre naiven „aristotelischen“ Vorstellungen zu unterdrücken und auf diese Weise zu reifem physikalischen Denken zu gelangen.

***

Diese Erkenntnis suggeriert ein anderes Bild als jenes der Leiter. Alles Wissen ist geschichtlich, das heisst, es gleicht einem Stück Erdboden mit seinen sedimentierten Schichten; zuoberst unsere eigene rezente Epoche, darunter frühere Lagen.

In ihnen liegen die Wissens-Residuen aus alter Zeit bewahrt. Wir mögen sie als Überreste eines vorwissenschaftlichen Denkens bezeichnen, aber im Sedimentmodell des Wissens gewinnen sie eine vitalere Bedeutung: Sie bilden den Grund, auf dem unser Wissen in immer luftigere und abstraktere Höhen hinaufwächst. Sie sind der notwendige geistige Humus solchen Wachstums. In ihm stecken gewiss viele Denkleichen, die besser beerdigt blieben; aber aus ihm stossen immer wieder einmal Triebe an die Oberfläche, erwachen zu neuer Blüte. Ideen, welche die Vorsokratiker als reine Denkübung erwogen – die Atomhypothese oder die Viele-Welten-Theorie –, lagen Jahrtausende begraben, bis sie in den Schichten des 20. Und 21. Jahrhunderts zu physikalischer „Seriosität“ erwachten.

Oder betrachten wir das Beispiel der Homöopathie, die schon lange als Disciplina non grata verschrien ist. Besonders die Idee eines „Wassergedächtnisses“ hat in letzter Zeit an Aufmerksamkeit gewonnen vor dem Hintergrund der Tatsache, dass wir mit Wasser eine banale und vitale Substanz vor uns haben, die aber noch lange nicht genügend erforscht ist. Sie manifestiert einen überwältigenden Reichtum von Molekülstrukturen: Cluster. Das hat Chemiker und Informationstheoretiker auf den Gedanken der strukturellen Informationsübertragung gebracht: Wenn nicht die Zusammensetzung, sondern die Struktur einer Substanz ihre Eigenschaften ausmachen, dann könnte es ja sein, dass die homöopathische Lösung quasi die strukturelle Information – den „Geist“ - des Heilmittels „eingeprägt“ erhält, selbst wenn sie kein einziges Molekül der heilenden Materie mehr enthält.


Das ist nun allerdings ein höchst spekulativer und theoretisch nicht ausgeführter Gedanke. Und es bestehen grosse Zweifel, dass er Licht in die Black Box des Schüttelns und Verdünnens von homöopathischen Elixiren bringt. Es hilft hier auch nicht der Hinweis weiter, dass die Wirksamkeit bisher weder endgültig bewiesen noch widerlegt werden konnte. In solchen Fällen dürfte ein durchdachtes Mass an „Orthodoxie“ angebracht sein: Die Wirksamkeit von chemischen Mitteln hat sich auf so vielen Feldern bestätigt, dass es vielleicht doch an der Zeit wäre, die homoöpathische Idee endgültig zu begraben. Eine einfache erkenntnistheoretische Lektion erteilt sie uns dennoch: Sagen wir niemals vorschnell, eine Idee sei gestorben. Totgesagtes lebt vielleicht gerade in der Wissenschaft am längsten.