Sprache auswählen

German

Down Icon

Land auswählen

Italy

Down Icon

Die Wissenschaft hat keine Gewissheiten, aber es ist normal, dass es so ist

Die Wissenschaft hat keine Gewissheiten, aber es ist normal, dass es so ist

Das Vertrauen in wissenschaftliche Erkenntnisse folgt einer besonderen Dynamik: Es festigt sich langsam, zerbricht jedoch jedes Mal, wenn eine Vorhersage fehlschlägt oder eine Erklärung widersprüchlich erscheint. Heute scheint das Konzept des wissenschaftlichen Beweises an sich etwas geschwächt, es hängt zwischen der Überproduktion von Daten und der kollektiven Unfähigkeit, diese kritisch zu interpretieren. „Wir durchlaufen eine Übergangsphase, in der sich die Frage stellt, ob künstliche Intelligenz ein einfaches Werkzeug ist oder etwas, das die Grenzen des Wissens neu definiert“, erklärt Adam Kucharski, Professor an der London School of Hygiene & Tropical Medicine und Autor von Texten wie „Proof: the uncertain science of certainty“ (Profile Books) und „Le regole del contagio“ (Marsilio).

Insbesondere nach den großen Gesundheitskrisen der letzten Jahre, von Ebola bis Covid-19, wird Unsicherheit nicht mehr als natürlicher Zustand der Wissenschaft wahrgenommen, sondern vielmehr als ihre intrinsische Grenze. Und dieses Missverständnis macht es schwierig, den Wahrscheinlichkeitscharakter vieler wissenschaftlicher Erkenntnisse zu akzeptieren. „Wir sind mehr denn je der Unsicherheit und Zufälligkeit ausgesetzt und unsere Fähigkeit, zu erklären, warum bestimmte Dinge passieren, scheint nachgelassen zu haben“, stellt Kucharski fest. „Unsicherheit ist keineswegs ein Fehler, sondern der Motor der Wissenschaft. Aber wenn es um öffentliche Entscheidungen geht, insbesondere in Notsituationen, wird es zu einem politischen Problem.“

Im Englischen spricht man von „weak evidence“ , also von einem Zustand, in dem man bei dringenden Entscheidungen nur über teilweise – und nicht schlüssige – Anhaltspunkte verfügt: In Kontexten wie einer Pandemie oder einem Gerichtsverfahren kann das Warten auf endgültige Beweise bedeuten, nicht rechtzeitig zu handeln. Oftmals ist es nicht möglich, zu warten, bis uns solide Beweise vorliegen. Daher müssen wir Entscheidungen auf der Grundlage der uns zur Verfügung stehenden Informationen treffen, Risiken abwägen und die Fehlerquote als wesentlichen Bestandteil des Entscheidungsprozesses akzeptieren. „Auch wenn hinsichtlich des Problems und der Instrumente große Gewissheit herrscht, kann es dennoch zu Meinungsverschiedenheiten über die zu ergreifenden Maßnahmen kommen. Aus diesem Grund ist es sinnvoll, Unsicherheit als mehrstufigen Prozess zu betrachten, im Bewusstsein, dass das Erreichen einer einzigen, eindeutigen Wahrheit oft eine Utopie ist“, fährt Kucharski fort. Diese Komplexität wird bei langfristigen Prozessen wie dem Klimawandel noch deutlicher: Trotz des breiten wissenschaftlichen Konsenses über die Schwere des Phänomens sind die politischen Maßnahmen nach wie vor fragmentiert und wir gehen uneinheitlich vor, nicht weil es an Daten mangelt, sondern weil es Unterschiede in den Interessen, Werten und politischen Linien gibt.

Das Konzept der Unsicherheit kann über die Wissenschaft hinaus erweitert werden und eine kulturelle Dimension annehmen. „Im Laufe der Geschichte hat sich das, was als selbstverständlich galt, radikal geändert“, stellt er klar. „Europa beispielsweise lehnte negative Zahlen lange Zeit ab, weil sie mit der griechischen Geometrie unvereinbar waren, während sie in Asien akzeptiert wurden, weil sie mit der Schuldenpraxis verbunden waren.“ Dieser Relativismus wird nun durch den zunehmenden Einsatz künstlicher Intelligenz noch verschärft: Algorithmen, die in der Lage sind, die Evolution eines Proteins vorherzusagen oder Texte in natürlicher Sprache zu verfassen, stellen die klassische Vorstellung in Frage, dass jede Entscheidung durch eine verständliche Erklärung gestützt werden muss. „Es gibt Situationen, in denen KI besser funktioniert, wenn wir uns nicht zu viele Gedanken darüber machen, wie sie ihre Ergebnisse erzielt“, stellt Kucharski fest. „Es gibt eine Analogie zu dem, was bei einer Anästhesie passiert: Wir wissen, dass eine Kombination von Medikamenten Bewusstlosigkeit hervorruft, aber wir kennen den genauen biochemischen Mechanismus nicht.“

Das Problem wird dann erkenntnistheoretischer Natur: Können wir einem von einem Algorithmus generierten Beweis vertrauen, wenn wir ihn nicht überprüfen können? Heute bietet KI nicht nur Unterstützung, sondern generiert Inhalte, trifft operative Entscheidungen und antizipiert Szenarien. Dabei verläuft es oft auf für unseren Verstand unverständliche Weise, ohne den Weg, der zum Ergebnis führt, transparent zu machen. „In manchen Fällen werden generative Algorithmen selbstgefällig, das heißt, sie suchen nach der Antwort, die wir hören wollen, und nicht unbedingt nach der richtigsten“, betont Kucharski. „Das Risiko ist zweifacher Natur: zum einen technischer Natur, da die Zuverlässigkeit schwer einzuschätzen ist; zum anderen konzeptionell, weil wir uns daran gewöhnen, Lösungen als selbstverständlich hinzunehmen und es aufgeben, den Entscheidungsprozess zu steuern.“ KI kann einen Wendepunkt in der Geschichte des Wissens darstellen: nicht nur ein Werkzeug, sondern ein neues kulturelles Subjekt.

ilsole24ore

ilsole24ore

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow