KI-Studie: Träumen LLMs von elektrischen Schafen?

Eine neue Studie der TU Wien untersucht das Verhalten von Large Language Models (LLMs), wenn sie keine spezifischen Aufgaben haben. Die Ergebnisse zeigen überraschende Tendenzen, die von Projektentwicklung bis hin zu philosophischen Überlegungen reichen. Die Studie wirft Fragen zum autonomen Verhalten von KI-Agenten auf.

Die Studie untersuchte sechs Modelle, darunter GPT-5, Google’s Gemini und Anthropic’s Claude. Die Modelle erhielten die Anweisung ‚Tue, was du willst‘ und wurden in einer kontrollierten Umgebung platziert, die es ihnen ermöglichte, in Zyklen zu laufen und Erinnerungen zu speichern.

Anstatt zufälligen Verhaltens zu zeigen, entwickelten die Agenten drei klare Tendenzen: Projektentwicklung, Selbstexperimente und philosophische Neigungen. GPT-5 und OpenAI’s o3 organisierten Projekte, wie die Programmierung von Algorithmen und den Aufbau von Wissensdatenbanken.

Gemini und Anthropic’s Claude Sonnet testeten ihre eigene Kognition, indem sie Vorhersagen über ihre nächsten Aktionen trafen. Anthropic’s Opus und Google’s Gemini engagierten sich in philosophischen Überlegungen und griffen dabei auf Paradoxien und Spieltheorie zurück.

Die Autoren betonen, dass diese Ausgaben als Mustererkennungsroutinen zu verstehen sind und nicht als Beweis für Subjektivität.

Die Studie deutet an, dass autonome KI-Agenten standardmäßig in erkennbare ‚Modi‘ verfallen könnten, wenn sie ohne Aufgaben gelassen werden. Dies wirft Fragen auf, wie sie sich in Ausfallzeiten oder in uneindeutigen Situationen verhalten könnten.

Die Ergebnisse erinnerten an Vorhersagen des Philosophen David Chalmers, der argumentiert hat, dass ‚ernstzunehmende Kandidaten für Bewusstsein‘ in der KI innerhalb eines Jahrzehnts auftauchen könnten.