Vitalik Buterin, Mitbegründer von Ethereum, schlägt vor, Künstliche Intelligenz (KI) einzusetzen, um die Governance dezentraler autonomer Organisationen (DAOs) zu verbessern. Seine Idee zielt darauf ab, die geringe Beteiligung und die Machtkonzentration in aktuellen DAO-Strukturen zu überwinden.
Das zentrale Problem vieler demokratischer und dezentraler Governance-Modelle, einschließlich DAOs, liegt laut Buterin in den Grenzen der menschlichen Aufmerksamkeit. Viele Entscheidungen erfordern spezifisches Fachwissen oder Zeit, die den meisten Teilnehmern nicht zur Verfügung steht. Dies führt zu einer durchschnittlichen Beteiligungsrate von nur etwa 15 % bis 25 %. Eine niedrige Beteiligung kann die Macht in den Händen weniger konzentrieren und die Entscheidungsfindung ineffektiv machen, was sogar zu sogenannten Governance-Angriffen führen kann, bei denen schädliche Vorschläge unbemerkt durchgesetzt werden.
Die durchschnittliche Beteiligungsrate in DAOs liegt schätzungsweise zwischen 15 % und 25 %, was die Macht zentralisieren kann und die Entscheidungsfindung ineffektiv macht.
Buterin sieht persönliche KI-Assistenten, wie Large Language Models (LLMs), als Lösung für dieses „Aufmerksamkeitsproblem“. Diese KI-Agenten könnten relevante Informationen für Abstimmungen aufbereiten und basierend auf den Präferenzen des Nutzers, abgeleitet aus Texten und Gesprächsverläufen, im Namen des Nutzers abstimmen. Bei Unsicherheiten oder wichtigen Themen würde die KI den Nutzer direkt um Input bitten und den nötigen Kontext liefern. Buterin betont, dass KI hierbei als befähigendes Werkzeug und nicht als regierende Instanz fungieren soll.
Ein wichtiger Aspekt ist der Schutz der Privatsphäre. Buterin schlägt vor, dass KI-Agenten in sicheren Umgebungen wie Multi-Party Computation (MPC) oder Trusted Execution Environments (TEEs) arbeiten, um private Daten zu verarbeiten, ohne sie auf der Blockchain preiszugeben. Für die Anonymität der Abstimmenden könnten Zero-Knowledge Proofs (ZKPs) eingesetzt werden. Diese ermöglichen den Nachweis der Abstimmungsberechtigung, ohne die Identität oder das Abstimmungsverhalten offenzulegen, was Koerzition und Bestechung verhindern würde. Alternativ könnte die „Black Box“-Methode genutzt werden, bei der das persönliche LLM eines Nutzers in einer sicheren Umgebung agiert und nur das Abstimmungsergebnis liefert.
KI-Agenten könnten in sicheren Umgebungen wie MPC oder TEEs arbeiten, um private Daten zu verarbeiten und Anonymität durch ZKPs zu gewährleisten.
Um das Problem von Spam- oder minderwertigen Vorschlägen anzugehen, besonders im Kontext von generativer KI, schlägt Buterin die Einführung von „Vorhersagemärkten“ vor. In diesen Märkten könnten KI-Agenten auf die Wahrscheinlichkeit der Annahme von Vorschlägen wetten. Erfolgreiche Wetten würden belohnt, was Anreize für qualitativ hochwertige Beiträge schafft und „Rauschen“ bestraft.




