Dieser Beitrag verbindet den sowjetischen nuklearen Fehlalarm von 1983 (bei dem eine menschliche Überbrückung einen Atomkrieg verhinderte) mit der aktuellen Pattsituation zwischen dem Pentagon und Anthropic um autonome Waffen. In einer aktuellen Studie des King’s College London wurden nukleare Krisensimulationen mit Grenz-KI-Modellen durchgeführt: 95 % setzten taktische Atomwaffen ein.

https://fnhipster.com/posts/petrov-paradox

2 Kommentare

  1. Bright-Ad6769 on

    The Pentagon blacklisted Anthropic for refusing to drop red lines on autonomous weapons and mass surveillance, designating them a national security risk for negotiating contract terms. If that’s the precedent, and AI companies can be punished into compliance, what does the actual deployment of unrestricted autonomous weapons look like? Who gets profiled, who gets targeted, and who’s accountable when there’s no human left in the loop?

    [](/submit/?source_id=t3_1rh6dlr)

  2. therealslimshady1234 on

    A language model will never ever be anywhere near a nuclear missile launch site, let alone pulling the trigger. They are still working with floppy disks there, just to give you an idea how conservative they are.

Leave A Reply