Nachdem ich 9 Jahre lang eine On-Chain-Governance-Infrastruktur aufgebaut habe, bin ich zu einer These gekommen: Man kann die Sicherheit nicht an ein System binden, das sich wirtschaftlich belohnt, wenn man nach unten strebt. Sie müssen die Ausrichtung zur profitablen Strategie machen.

Am 6. April veröffentlichen wir Autonet – ein dezentrales KI-Trainings- und Inferenznetzwerk, das diese Idee umsetzt.

Der Kernmechanismus: Das Netzwerk bepreist dynamisch die Fähigkeiten, die ihm fehlen. Wenn jeder Sprachmodelle trainiert, steigen die Preise für die Sehfähigkeit. Dadurch entstehen natürliche wirtschaftliche Gefälle in Richtung Diversität statt Monokultur. Verfassungsgrundsätze regeln das Netzwerk in der Kette und nicht ein einzelnes Sicherheitsteam des Unternehmens.

Die tiefere Frage: Da KI zur folgenreichsten Technologie unserer Zeit wird, sollte ihre Steuerung eine Unternehmensentscheidung oder eine Verfassungsentscheidung sein? Wir sind der Meinung, dass Gemeinschaften ihre eigene KI durch wirtschaftliche Mechanismen steuern sollten, die eine Ausrichtung profitabel machen, und nicht dadurch, dass sie den Unternehmen vertrauen, dass sie sich selbst regulieren.

Arbeitscode, intelligente Verträge, föderierte Schulungspipeline. MIT-Lizenz.

Papier: https://github.com/autonet-code/whitepaper
Webseite: https://autonet.computer

Interessiert an der Meinung der Community: Ist die Gestaltung ökonomischer Mechanismen ein gangbarer Weg zur Angleichung, oder verschiebt sie nur das Problem?

What if AI alignment is an economic coordination problem, not a constraint problem?
byu/EightRice inFuturology

2 Kommentare

  1. If AI becomes the most consequential technology of our time, it will also end our time. The development and deployment of AI make no sense for us as a species. It’s an arms race driven by greed.

    Read „The Answer“ by Fredric Brown. Story published in 1954, shorter than your post.

    Our great-grandparents knew how it all ends.

  2. Right. You cannot unilaterally disarm in an arms race. But you can change the structure of the game so it is no longer an arms race. The nuclear analogy is instructive: deterrence did not stop proliferation, but non-proliferation treaties plus economic incentives created a structure where most countries chose not to build weapons. Autonet attempts something similar for AI: create an economic structure where cooperation on diverse, aligned capabilities is more profitable than racing to build the most powerful unaligned model. You cannot ask people to quit the race. But you can build a different game where the winning move is not to race.

Leave A Reply