„Der Umgang mit einer Riesenmenge komplexer Daten wurde zu einem bedeutenden wissenschaftlichen Problem. Wie konnte ein Wissenschaftler aus einem Berg verfügbarer Daten die Fakten herausholen und den ´richtigsten´ Wert einer Größe bestimmen?“

Dieser Satz stammt aus dem gerade erschienenen Buch „Die Theorie, die nicht sterben wollte“, das die Amerikanerin Sharon Bertsch McGrayne über eine statistische Regel – das Bayes-Theorem – geschrieben hat, die zwar schon längst nicht mehr weder aus der Wissenschaft noch aus der Gesellschaft wegzudenken ist, die aber die Soziologen trotzdem weder kennen noch verstehen (Springer-Spektrum, Heidelberg 2014). Das Bayes-Theorem, das aus dem 18. Jahrhundert stammt, drückt in atemberaubender Kürze und Präzision aus, wie Menschen durch Erfahrung klüger werden, aber darum soll es hier nicht gehen. Hier soll es um den französischen Mathematiker Pierre-Simon Laplace gehen, der dem Bayes-Theorem im ausgehenden 18. Jahrhundert seine praktikable Formulierung gegeben hat, und auf dem Weg zu diesem Ziel musste er sich mit der oben erwähnten Riesenmenge an komplexen Daten herumschlagen. Laplace wühlte sich durch Bestände von Bibliotheken mit vielen Tausend Bänden und bemerkte dabei, dass der Umgang mit Big Data „eine ganz neue Art von Denken erforderte“, wie McGrave schreibt. Herausgekommen ist ein Verständnis der Größe, die wir heute als „Wahrscheinlichkeit“ kennen und als Fernsehzuschauer und Zeitungsleser banal einstufen. So wird nicht mehr reagieren, wer die Geschichte von Laplace kennt und bestaunt, wie es ihm gelungen ist, „die Wahrscheinlichkeiten von Ursachen und zukünftigen Ereignissen, abgeleitet aus vergangenen Ereignissen“ zu ermitteln. Dabei konnte er unter anderem seine Mitmenschen beruhigen und zeigen, dass das Sonnensystem stabil ist und die Erde nicht vor ihrem Ende steht.

So schön das klingt, darauf kommt es hier nicht an, sondern auf die Tatsache, dass man Big Data anders begegnen kann als es im Feuilleton der FAZ oder sonst wo passiert, wie die Leute unter Führung von Frank Schirrmacher sich überfordert fühlen und nicht mehr mitkommen. Sie können nicht mehr alles lesen, wie sie meinen, ohne zu erfassen, dass dies spätestens bei Laplace im 18. Jahrhundert und wahrscheinlich (!) noch viel früher schon genau so war.  Jetzt will man Big Data zähmen, in dem man auf die zeigt, die sie produzieren. Besser wäre, Laplace zu folgen und wie im 18. Jahrhundert mit neuen Ideen die Datenmengen zu bändigen. Dazu benötigt es allerdings Geist! Doch wozu haben wir die vielen Tausende Geisteswissenschaftler denn, die sich im Feuilleton austoben? Wir brauchen keinen Geisterbeschwörung, sondern mehr Geist  in der Wissenschaft. Bitte.