Grosse Datenmengen enthalten viel mehr Details als kleine. Die Analysemethoden mit leistungsstarken Algorithmen und dem sogenannten Maschinenlernen – oder maschinellen Lernen – lassen sich auch auf ungeordnete riesige Datenmengen anwenden; man braucht gar keine Auswahl mehr zu treffen, wie sie früher bei Stichprobenverfahren nötig war. Dabei nimmt man ein gewisses Chaos in Kauf, in der Hoffnung auf den Spin-off-Effekt, dass der Algorithmus im vermeintlichen Chaos auf unerwartete Muster und Zusammenhänge stösst. Auch der Forscher sammelt Daten. Aber Daten zu sammeln, bedeutet noch nicht, zu forschen. Karl Raimund Popper sprach vor fünfzig Jahren vom «Mythos der Induktion», von dem Glauben, man könne Wissen allein durch Beobachtungen oder Messungen generieren, ohne so etwas wie eine Theorie zu haben, eine Erklärungshypothese. Dies sei «widersinnig». Popper machte sich darüber lustig mit der Anekdote eines Mannes, der «sein Leben der Wissenschaft widmete, der alles, was er beobachtete, niederschrieb und seine unschätzbare Sammlung der Royal Society vermachte, damit sie als induktive empirische Grundlage benutzt werden konnte». Diese Anekdote sollte zeigen, «dass es nützlich sein kann, Käfer zu sammeln, aber nicht Beobachtungen».
Mein Blog befasst sich in einem umfassenden Sinn mit dem Verhältnis von Wissen, Wissenschaft und Gesellschaft. Ein besonderes Augenmerk richte ich dabei auf die Aktivitäten des Medien- und Dienstleistungskonzern Bertelsmann und der Bertelsmann Stiftung.
Keine Kommentare:
Kommentar veröffentlichen
Sie sind herzlich zu Kommentaren aufgefordert und eingeladen!