Menschen und Tiere treffen täglich zahlreiche Entscheidungen – oft schnell, oft unter Unsicherheit. Auch künstliche Intelligenz steht vor diesem Problem: Je autonomer Systeme agieren, desto mehr müssen sie selbst entscheiden. Doch KI-Verfahren sind häufig komplex, rechenintensiv und in neuen Situationen wenig flexibel. Die internationale Forschungsgruppe „Robust Decision Heuristics for Natural and Artificial Intelligence“ (Robuste Entscheidungsheuristiken für natürliche und künstliche Intelligenz) widmet sich am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld genau dieser Herausforderung. Vom 8. bis 19. Dezember findet der erste Workshop statt.
Bielefeld/Germany, 2. Dezember 2025. – Sicher ist, welche Wege man immer geht, das bewusste Entscheiden, daraus die Konsequenzen sehen, erleben und reflektieren ist Teil des Bewusstseins über sich selbst. Das Vertrauen, im Sinne eine Selbstbewusstseins darin über das was ich im Augenblick denke und empfinde, ist Teil dessen was als Algorithmen in die Erstellung künstlicher Intelligenz eingeht. Unabhängig ob einer Sprache entwickelnd oder als Rezipient, Empfänger im Wechselspiel mit KI. Denn ihre Entwicklung, auch im Menschen, ist Teil der Beobachtung in der Welt.
Jedes etwas hat eine eigene Lebenszeit und damit auch eine andere Zielsetzung und Wachstum. Doch gibt es Momente, in denen mehrere dieser Lebenszeiten auf einen Punkt zusammen kommen. Als Beispiel nehme man eine Gruppe, ein Team im Arbeitsalltag oder in Hobby und Freizeit im Sport- Freizeitverein. Schon in anbetracht der verschiedenen Zielsetzungen im Leben eines jeden Menschen sind auch deren Motivationen unterschiedlich. Diesen Zeitpunkt mit anderen Menschen zusammenzuführen um an einem Strang ziehen zu können, erfordert daher das Beobachten und erkennen für den eigentlichen richtigen Moment. Allem voran bedeutet es aber auch Charaktereigenschaften wie Beharrlichkeit, Ausdauer und Demut zu entwickeln. Wenn das gelingt, dann gibt es einen Moment der einer Suchtwirkung gleich kommt und den man für sich und seine Tätigkeit immer wieder neu suchen wird.
Ein besonderes Merkmal bei einer Entscheidung ist der Moment, bei dem solange gewartet werden kann, bis beteiligte sich alle darüber bewusst sind, das dies jetzt die richtige Entscheidung war. Das ist das Ultimo Ratio, die Summe aller Einzelentscheidungen. Auch Aristoteles wusste um die Motivation zu diesem Streben: „Wenn nun die ethische Tugend ein Verhalten des Willens ist und der Wille ein überlegendes Streben, so muß also die Einsicht wahr und das Streben richtig sein, wenn die Entscheidung gut werden soll, und es muß eines und dasselbe vom Denken bejaht und vom Streben gesucht werden (Vgl. Philosophie-Atlas, 2023).
Ein weitere Situation von Entscheidungsfindung ist dann, wenn jemand eine Übersicht über die Dinge empfindet und viele Entscheidungen auf dem Weg zum Ziel müssen getroffen werden. Dann weis man, die eigene Entscheidung steht in Wechselwirkung zu den sich weiteren zeigenden Ereignissen und kann unter Umständen ausgeglichen werden. Ganz anders ist das bei Entscheidungen die getroffen werden, unter Umständen die noch zu lernen und zu begreifen sind. Ein wissenschaftliches Vorgehen durch induktives oder gar deduktives Schlussfolgern.
Eine KI wird dahingehend erstellt, entwickelt, geschrieben, in dem man das Maximum in der Umwelt abschaut. Dabei ist ein drohendes Spiegelbild zum Menschen nicht nur eine Wahrscheinlichkeit, sondern eine gesicherte Feststellung. Das zeigt sich auch in einer aktuellen Studie der Universität Berlin (Vgl. Mehr als ein Drittel der Nutzerinnen und Nutzer von Chatbots betrachtet KI als „Freund“, 2025). Für die Forschenden ergab sich daraus die Frage, was kann eine KI von robusten Entscheidungsstrategien von Mensch und Tier lernen? Oder können KI-Modelle sogar bei der Entwicklung von Entscheidungsprozessen unterstützend wirken?
Menschlich ist, so beschreibt es Gottlob Frege sinngemäss, Analyse will die Grundlage eines Arguments herausfinden und eine Entscheidung über seine Gültigkeit herbeiführen (Vgl. Philosophie-Atlas, 2023).
Menschen nutzen je nach Situation und Lage häufig auch schnelle Entscheidungen die auf dem „Bauchgefühl“ basieren oder können trotz allem sehr gut gründlich abwägen. In der Psychologie nennt sich dieser Effekt
„decision making under uncertainty“ – Entscheidungsfindung unter Unsicherheit. Perfekt sind diese nie, aber sie funktionieren zuverlässig genug.
Ob eine solche Entscheidung gut war, ist oder nicht, das hängt durchaus immer vom Umfang des Rahmens ab in dem sich das ganze ausgleicht. Im Sinne und bis zu einer Bilanz sind Entscheidungen noch in der Abhängigkeit von Wechselwirkung mit Ereignissen und resultierendem Verhalten von Gruppenmitgliedern oder Ereignissen. KI-Systeme dagegen tun sich oft schwer, wenn sich Bedingungen ändern.
„KI-Methoden basieren meist auf komplexen mathematischen Modellen. Sie sind schwer nachvollziehbar und nicht für dynamische Umgebungen gemacht“, sagt Roboterforscher Professor Mohan Sridharan (University of Edinburgh). Er leitet die Gruppe gemeinsam mit der Informatikerin Professorin Özgür Şimşek (University of Bath), dem Verhaltensforscher Professor Konstantinos Katsikopoulos (Southampton) und dem Psychologen Professor Gerd Gigerenzer (Berlin).
Intelligenz ist eng mit Bewusstsein verbunden. Im Bewusstsein erlebt Intelligenz sich selbst als solche und ist zu Entscheidungen befähigt, die sich frei treffen kann. Die natürliche Intelligenz ist auf evolutionärem Weg entstanden. Was man als Künstliche Intelligenz bezeichnet beruht aber lediglich auf algorithmischen Darstellungen. Dieser KI fehlt das Bewusstsein als auch die Fähigkeit der Entscheidungsfähigkeit. Der Unterschied wird darin deutlich, wie natürliche und Künstliche Intelligenz jeweils bei der Erzeugung von Beweisen auf Basis der axiomatisierten Logik verfahren (Vgl. et al. Rathmann, Natürliche und Künstliche Intelligenz im Anthropozän, 2021). Wird ein Satz als gegeben angenommen, ohne das sich dieser aus anderen Sätzen ableitet, dann wird dies als Axiom bezeichnet. Das Wissen einer KI, also auch die Basis die zu Entscheidungen führen kann, ist wissensbasierten Agenten entnommen. (Knowledge Base). Diese Agenten enthalten eine Menge an Sätzen die rein technisch verwendet werden. Diese Sätze werden in einer Wissensrepräsentationssprache ausgedrückt und machen Aussagen über die Welt (Vgl. et al Russell, Künstliche Intelligenz, 2023). Die Logik hat ihren Ursprung in der Philosophie und Mathematik der griechischen Antike. Ihre Sätze, Wahrheitsgehalt und Bedeutung beinhaltet die Gültigkeit logischer Argumente. Die Idee, das man diese Formen der Logik auf einen rein mechanischen Prozess reduziert ist bereits durch Wilhelm Leibniz (1646 – 1716) entstanden. Diese weitere Entwicklung ist in möglicher bekannter Weise durch George Boole (1815 – 1864) entwickelt worden womit der eigentliche Werdegang einer technisch formalen Sprache entstand (Vgl. et al Russell, Künstliche Intelligenz, 2023).
Gemeinsam mit internationalen Gästen will das Wissenschaftsteam neue Algorithmen für robuste, transparente KI entwickeln, inspiriert von natürlichen Entscheidungsprozessen. Besonders interessieren sie dabei Insekten und ihre vergleichsweise einfachen Entscheidungsmechanismen. Ziel sind KI-Systeme, die, wie Menschen und Tiere, mehrere Entscheidungsstrategien beherrschen und selbst wählen, wann welche sinnvoll ist. Gleichzeitig soll geprüft werden, ob technische Modelle helfen können, natürliche Entscheidungen präziser abzubilden.
Die Forschungsgruppe trifft sich bis August 2028 regelmäßig mit wechselnden GastwissenschaftlerInnen am ZiF.
Quellen:
Kunzmann, Peter; Burkard, Franz-Peter; dtv-Atlas Philosophie, 19. Auflage, 2023, dtv-Verlagsgesellschaft München
Russell, Stuart; Norvig, Peter; Künstliche Intelligenz – Ein moderner Ansatz, 4. Auflage, 2023, Pearson Verlag
Rathmann, Joachim; Voigt, Uwe; Natürliche und Künstliche Intelligenz im Anthropozän, 2021, Wbg Academic Verlag
Weitere Informationen:
https://www.uni-bielefeld.de/einrichtungen/zif/groups/ongoing/robust-decision-he… Website der Forschungsgruppe
Mehr als ein Drittel der Nutzerinnen und Nutzer von Chatbots betrachtet KI als „Freund“, 2. Dezember 2025.
https://www.fu-berlin.de/presse/informationen/fup/2025/fup_25_201-scripts-studie-chatbots/index.html
Bildquelle
Das Zentrum für interdisziplinäre Forschung (ZiF) an der Universität Bielefeld, Quelle: v. Mette, Copyright: Universität Bielefeld



Schreibe einen Kommentar