Startseite

Hans-Joachim Mascheck

Die empirische Basis der Sprache und der Wissenschaften

Der Wissenschaftstheorie eile der Ruf voraus, schrieb Jürgen Mittelstraß, "dass sie als impertinente Tochter der stets alles besser wissenden Philosophie den Wissenschaftlern den Spaß verdirbt." Das ist zwar nicht der Fall, da die Wissenschaftler als echte Kinder der Aufklärung ihren eigenen Erfahrungen mehr trauen als einem philosophischen Lehrgebäude, das in den ersten Jahrzehnten des vergangenen Jahrhunderts auf einem brüchigen Grund errichtet wurde und dessen Irrtümer zu den nicht mehr in Frage gestellten Grundüberzeugungen der heute aktiven Philosophengeneration geworden sind; der Zustand ist jedoch für die Wissenschaft, die einer zutreffenden Begründung bedarf, äußerst unbefriedigend und für die weitere Entwicklung des gesamten geistigen Lebens als wichtigem Bestandteil der Kultur sogar nicht ungefährlich.

Die strittige Frage ist, ob es grundsätzlich möglich ist und was es eigentlich bedeutet, mit den Mitteln der Sprache (Formeln usw. eingeschlossen) etwas Wahres über die Realität auszusagen und ob speziell die Begriffe und Sätze der Wissenschaften in irgendeiner Weise durch die Erfahrung bestimmt werden.

Es gibt nach der heute in der Philosophie vorherrschenden Meinung kein objektives Verfahren für den Vergleich von Worten und Sätzen mit realen Gegenständen und Vorgängen. Das betrifft sowohl die Basis- oder Protokollsätze, auf die sich die Wissenschaftstheorie des logischen Empirismus stützen wollte, als auch die klassische Korrespondenztheorie der Wahrheit als Entsprechung von sprachlich formuliertem Gedanken und realen Sachverhalten. Dass es scheinbar unmöglich ist, einen logischen Zusammenhang zwischen Aussagen und Sachverhalten herzustellen, wird in verschiedener Weise zum Ausdruck gebracht: Nach Popper können Sätze nur durch Sätze begründet werden, nach Wittgenstein ist die Sprache nicht hintergehbar, nach Feyerabend ist jede Beobachtung theoriebeladen, nach Mittelstraß kann die Fähigkeit, etwas Wahres über einen Sachverhalt zu sagen, weder problematisiert noch begründet werden. Die Unmöglichkeit der empirischen Begründung wissenschaftlicher Aussagen gehört zu den heutigen philosophischen Grundüberzeugungen, deren Ursprung in der Kritik der reinen Vernunft von Kant liegt. Danach wird die Entwicklung reiner Theorien durch Erfahrung nur veranlasst. Begriffe und Gesetze seien nur die Mittel, mit denen der menschliche Verstand das Chaos ordnet. Sie seien in keiner Weise durch die Beobachtungen vorgegeben, ihnen entspreche nichts in der Welt. Naturwissenschaftler erforschten nicht die Gesetze der Natur die gäbe es gar nicht sondern erfänden die Gesetze, mit denen der menschliche Verstand die Natur vernünftig beschreiben könne. Gäbe es andere intelligente Lebewesen mit einem ganz anderen Verstand, so könnten deren Theorien ganz anders aussehen. Es sei daher auch nicht sinnvoll, der Natur irgendwelche Eigenschaften anzudichten und beispielsweise von einer "Einheit der Natur" zu sprechen. Alle aktuellen philosophischen Wissenschaftstheorien, so unterschiedlich sie auch im einzelnen erscheinen mögen, gehen davon aus, dass das so ist, und suchen nach anderen Begründungen oder Rechtfertigungen für die wissenschaftlichen Aussagen. Wer in der Philosophie nicht als naiv und rückständig gelten will, schließt sich dieser Ansicht an. Argwöhnt ein Autor, einer seiner Sätze könnte als Abweichung missverstanden werden, so beeilt er sich, eine Klarstellung anzuschließen.

Für Naturwissenschaftler ist es dagegen selbstverständlich, dass die Begriffe und Sätze keine willkürlichen Erfindungen sind, sondern in ihrem Kern durch die Eigenschaften der Natur bestimmt werden. Wären diese Eigenschaften nicht vorhanden, dann könnte man auch keine Begriffe definieren und keine Sätze aufstellen. Naturwissenschaftler stimmen mit den Philosophen darin überein, dass viel Erfindungsgabe dazu gehört, auf die Begriffe und Sätze zu kommen, denn es gibt keinen einfachen Algorithmus, der von Beobachtungen und Versuchsergebnissen zu Theorien führt; sie stimmen mit ihnen auch in der Frage überein, dass es viele freie Variationsmöglichkeiten gibt und unterschiedliche Darstellungen möglich sind aber sie wissen aus langer Erfahrung, dass in allem etwas enthalten ist, worüber nicht frei verfügt werden kann, was wirklich durch den Gegenstand, d. h. durch die Gesamtheit der möglichen Beobachtungen, bestimmt wird. Die weitergehenden Schlussfolgerungen der Philosophen widersprechen allen ihren Erfahrungen sie beruhen ja im Grunde auch nur darauf, dass

  1. es bisher noch nicht gelang, eine logische Verbindung zwischen Sinneseindrücken und sprachlichen Aussagen herzustellen und
  2. in Anbetracht der hohen Komplexität der Verstandestätigkeit eine selbstreferentielle Erzeugung von Wissen nicht ausgeschlossen erscheint.

Es ist in den Wissenschaften nicht ungewöhnlich, dass lange Zeit unlösbar erscheinende Probleme durch Fortschritte auf anderen Gebieten lösbar werden. Im vorliegenden Fall führen neuere Entwicklungen der Mathematik zur Aufdeckung von zuvor nicht erkennbaren und formulierbaren grundlegenden inneren Zusammenhängen zwischen Sinneseindrücken und Sprache.

Ausgangspunkt ist die schon von Johannes Müller (1801-1858) und Hermann von Helmholtz (1821-1894) festgestellte Tatsache, dass der Mensch von seinen Sinnesorganen nur stärkere und schwächere Signale in verschiedenen Abständen erhält und die empfundenen Qualitäten (Licht, Ton usw.) erst im Bewusstsein entstehen. H. von Förster bezeichnet das als neurophysiologisches Prinzip der undifferenzierten Codierung und meint damit den Konstruktivismus begründen zu können. Tatsächlich enthalten die unregelmäßig und wegen ihres ungeheuren Umfangs gedanklich gar nicht erfassbar erscheinenden Signalfolgen mehr Gesetzmäßigkeiten, als man bisher annahm. Dass es im Prinzip auch möglich ist, diese Gesetzmäßigkeiten aus dem unüberschaubar Erscheinenden herauszuholen, belegt die moderne Informationstechnik. Die Informationstheorie zeigt, was den Signalfolgen entnommen werden kann und was nicht.

Der menschliche Verstand konstruiert auf der dieser Grundlage ein Wissensgebäude, das es beispielsweise ermöglicht, die Folgen einer Handlung vorauszusehen oder bei einem gegebenen Zustand die weitere Entwicklung abzuschätzen. Dabei ist zu berücksichtigen, dass alle diese Voraussagen auch wieder durch Signalfolgen von den Sinnesorganen bestätigt oder widerlegt werden, so dass also die Aufgabe im Grunde darin besteht, von vergangenen Signalfolgen auf künftige zu schließen. Das Alltagswissen und die wissenschaftlichen Theorien, die sich vollständig als Zeichenfolgen (sprachliche Texte, Formeln usw.) darstellen und speichern lassen, treten dabei nur als Mittler auf. Die Frage ist nun, ob es Eigenschaften der über die Sinnesorgane empfangenen Signalfolgen gibt, die in die gespeicherten Zeichenfolgen der Theorien eingehen müssen, wenn mit Hilfe dieser Theorien brauchbare und einigermaßen verlässliche Voraussagen möglich sein sollen.

Die Antwort auf diese Frage liefert die mathematische Informationstheorie, die nicht nur auf die Nachrichtenübertragung anwendbar ist (wegen des oft bemängelten Fehlens einer Semantik beschränkt sich diese erste und ursprüngliche Anwendung sogar auf die technischen Aspekte des Problems). Die eigentliche Stärke dieses Kalküls liegt in den Aussagen über die Struktureigenschaften reiner, d. h. nicht mit externer Bedeutung belegter, Signal- oder Zeichenfolgen. Er ist daher für die Lösung der vorliegenden Aufgabe besonders geeignet. Dabei ist es, wie schon Shannon (1948) in den ersten beiden Veröffentlichungen darlegte, völlig gleich, ob die Signale oder Zeichen parallel oder rein seriell empfangen werden, von welcher Art die Zeichen sind und wieviel unterschiedliche Zeichen in den Folgen vorkommen. Die Theorie ist zudem in allen Integrationsebenen anwendbar: auf Folgen einzelner Zeichen ebenso wie auf Folgen von Zeichenkomplexen, auf Bitfolgen ebenso wie auf die Folgen der Wörter oder der Sätze in einem Text, auf Folgen von Bildern oder Musik. Den Ausgangspunkt bilden dabei die statistischen Eigenschaften der Gesamtheit der von einer Quelle stammenden Folgen im vorliegenden Fall alles dessen, was der Mensch im Laufe seines Lebens über seine Sinnesorgane aus der Umwelt empfängt. Nur vor diesem Hintergrund findet man die Antworten auf spezielle Fragen.

Die in diesem Zusammenhang wichtigste Eigenschaft einer fortlaufenden Zeichenfolge ist ihre Redundanz. Dieser Begriff wurde traditionell zur Kennzeichnung weitschweifiger Reden verwendet, die unnütze Wiederholungen enthalten und in denen Sachverhalte, die nach jedermanns Kenntnis bereits aus dem Gesagten hervorgehen, überflüssigerweise nochmals ausführlich beschrieben werden. In der Informationstheorie ist Redundanz eine von Shannon erstmalig eindeutig definierte mathematische Größe. Sie bezeichnet den Anteil der Regelmäßigkeit, der zwischen 0 (bzw. 0%) für völlig ungeordnete Folgen und 1 (bzw. 100%) für vollständig durch irgendwelche Bildungsgesetze bestimmte Folgen liegen kann. Der nichtredundante Teil heißt Entropie. (Bei der Verwendung der Folgen zur Nachrichtenübertragung ist das der eigentliche Neuigkeitsgehalt, weshalb dort oft Entropie gleich Information gesetzt wird.)

Die Redundanz ermöglicht zweierlei: die mehr oder weniger sichere und weitreichende Voraussicht der zu erwartenden Fortsetzung und die komprimierte, d. h. verkürzte, Darstellung der Folge. Beides hängt eng miteinander zusammen: ohne Redundanz ist keines von beidem möglich. Die Nutzung dieser Möglichkeiten erfordert jedoch die Kenntnis der Gesetzmäßigkeiten, die die Redundanz hervorrufen. Darin liegt das Hauptproblem.

Manche Gesetzmäßigkeiten, beispielsweise einfache Wiederholungen, sind leicht zu erkennen. Folgen mit komplizierteren Bildungsgesetzen erscheinen dagegen zunächst unregelmäßig, die Redundanz scheint gering und die Entropie, d. h. der Neuigkeitsgehalt, entsprechend hoch. Shannon definierte die Redundanz mit Hilfe eines statistischen Verfahrens, bei dem die untere Schranke für die Redundanz schrittweise erhöht wird, was gleichbedeutend mit einer immer weiter gehenden Einbeziehung zunächst verborgener Gesetzmäßigkeiten ist. Dieses Verfahren ist wegen des sehr schnell ansteigenden Berechnungsaufwands praktisch nur für erste Näherungen brauchbar, die im allgemeinen nur einen Teil der tatsächlich vorhandenen Redundanz erfassen. Da es keinen gangbaren Weg zur direkten Berechnung der vollständigen Redundanz gibt, die auch die verborgensten Gesetzmäßigkeiten aufdecken müsste, ist man praktisch darauf angewiesen, Hypothesen bezüglich der Gesetzmäßigkeiten aufzustellen und deren Vorhersagepotenz zu überprüfen, die ein sicheres Maß für den Grad der Annäherung an die Gesetze der Quelle ist. So wird schrittweise immer mehr Redundanz erkannt was zuvor zufällig erschien, erweist sich als gesetzmäßig, was zuvor voneinander unabhängig zu sein schien, erweist sich als gegenseitig bedingt.

Geht man davon aus, dass als empirische Basis der Wissenschaften lediglich die Signalfolgen zur Verfügung stehen, in die die Sinnesorgane alle Eindrücke transformieren, so gelangt man mit Hilfe der mathematischen Informationstheorie zu dem Ergebnis, dass die Quelle aller Erkenntnisse und in Sonderheit der Begriffe und Sätze der Wissenschaften die Redundanz dieser Signalfolgen ist. Je besser und vollständiger die der Redundanz zu Grunde liegenden Gesetzmäßigkeiten durch die Begriffe und Sätze approximiert werden, desto sicherer und genauer sind die damit möglichen Voraussagen.

Die Redundanz ist zudem die Grundlage für die verkürzte Darstellung der ungeheuren Vielfalt der als Signalfolgen aufgenommenen Sinneseindrücke durch sprachliche und andere Zeichen. Es handelt sich hier im Grunde um ein Kodierungsproblem, wie es bei der Übertragung und Speicherung von Daten und im besonderen Maße auch bei der Multimediatechnik auftritt. Die dort eingesetzten Kompressionsverfahren ohne die diese Technik gar nicht möglich wäre sind zwar schon sehr ausgereift, reichen aber in ihrer Anpassungsfähigkeit und Effektivität nicht an das heran, was der Mensch mit seinem natürlichen Verstand im Alltag und in den Wissenschaften diesbezüglich leistet, so dass ihr unmittelbarer Einsatz für diese Aufgaben ein Rückschritt wäre. Sie zeigen jedoch anschaulich, was prinzipiell möglich und notwendig ist.

Die mit der Wahl der Signalfolgen als Ausgangspunkt verbundene Abstraktion befreit die Überlegungen von allem Irrelevanten und lenkt sie auf die wesentlichen Zusammenhänge. Nur so ist es möglich, den Begriff der Struktur, der sonst immer irgendwie an räumliche Anordnungen gebunden zu sein scheint oder zumindest nur so veranschaulicht werden kann, ganz abstrakt und allgemein zu fassen und, was in diesem Zusammenhang besonders wichtig ist, seine Beziehung zur Häufigkeit aufzudecken. Würde man unterschiedslos jede beliebige Signalsequenz als Struktur auffassen, dann wäre das nichts anderes als eine neue Bezeichnung für Signalsequenzen. Bei der Auswertung von Messreihen hat es sich als sinnvoll erwiesen, nur solche Sequenzen als Struktur zu bezeichnen, die in gleicher oder ähnlicher Form wesentlich häufiger auftreten, als dies rein zufällig geschehen müsste. Die Anzahl solcher bevorzugt auftretenden Sequenzen ist zwangsläufig geringer bei hoher Redundanz sehr viel geringer als die Gesamtzahl der möglichen Sequenzen gleicher Länge. (Beispielsweise kommt von den nahezu 12 Millionen unterschiedlichen Folgen von 5 Buchstaben im Wortschatz der deutschen Sprache nur etwa ein Tausendstel vor.)

Wenn etwas sehr häufig auftritt, so kann man die Details ein für allemal abspeichern und braucht dann nur mit einem kürzeren Kode darauf zu verweisen. Das ist die allgemeinste Grundlage für die Möglichkeit der komprimierten Beschreibung der vielfältigen Sinneseindrücke. Worte bezeichnen etwas häufig Auftretendes, gleich ob es sich um Gattungsnamen, Eigennamen oder abstrakte Begriffe handelt. Die Eigennamen haben auf dieser abstrakten Ebene noch keine Sonderstellung: nur diejenige Person hat für den Menschen einen Namen, die er mehrmals sieht und/oder von der mehrmals die Rede ist. Wem er nur einmal zufällig unterwegs begegnet ist und von dem er nie zuvor oder danach irgendetwas gehört hat, der ist für ihn namenlos. Auf dieser abstrakten Ebene gibt es auch keinen Unterschied zwischen Substantiven, Verben, Adjektiven, Präpositionen usw.

Begriffe sind demnach nur dann brauchbare Mittel zur Beschreibung von Sinneseindrücken, wenn sie etwas beinhalten, was genügend oft und möglichst auch unter verschiedenen Aspekten auftritt. Das ist die grundlegende empirische Bedingung, die die Freiheit der Begriffsbildung durch Abstraktion, Spezialisierung, Konstituierung oder sonstige Verfahren einschränkt und jede Willkür ausschließt. Ohne die Berücksichtigung dieser Bedingung laufen alle Konstruktions- und Rekonstruktionsverfahren, die sich an zweitrangigen Kriterien orientieren, ins Leere. Hieraus folgt zudem, dass sich Theorie und Beobachtung nicht trennen lassen und der naiv-empirische Ansatz zwangsläufig scheitern muss, denn die Weiterentwicklung der Theorie hat u. a. die Aufgabe, die Begriffe aufzufinden, mit deren Hilfe die Beobachtungen optimal beschrieben werden können. Die optimale Beschreibung der Beobachtungen ist das Ziel der Wissenschaften, nicht ihr Ausgangspunkt. Die irrtümliche Ansicht, man könne die Beschreibung an den Anfang stellen, ist vermutlich dadurch entstanden, dass die Sprache als scheinbar fertiges Produkt von Generation zu Generation weitergegeben wird und nicht ersichtlich ist, welche Erkenntnisse der Entwicklung der Sprache vorausgehen mussten.

Dafür, dass die maßgebende Quelle aller lebenserhaltenden und lebensgestaltenden Erkenntnisse nur die Redundanz der Sinneseindrücke sein kann, gibt es übrigens noch einen anderen Grund. Die Voraussetzung aller Strukturbildungen und damit auch allen Lebens ist eine niedrige Entropie der Umgebung. Die Ressource, die dabei verbraucht wird, ist die Differenz zur Maximalentropie. Alle Maßnahmen, die direkt oder indirekt zur Verbesserung der Nutzung dieser Ressource führen, müssen sich auf diese Differenz stützen, die ihren Ausdruck in der Redundanz, d. h. der niedrigen Entropie der aus der Umwelt empfangenen Signale findet. Jede davon unabhängige Begründung effektiver Maßnahmen widerspräche dem zweiten Hauptsatz, weil sie es im Prinzip ermöglichen würde, diesen zu umgehen.