Es wird langsam nervig, dass mehrere Leute so tun, als gäbe es einen exponentiellen Fortschritt, den es nicht gibt. AGI und ASI sind beide noch Jahre entfernt, in diesem Jahrzehnt keine Realität. Die aktuelle Architektur hat starke Einschränkungen. Ich benutze KI jeden Tag und weiß, dass es nicht wirklich rational ist, sie ist gut und nützlich. Aber was passiert ist, ist, dass sich KI in der Entwicklung befindet, während sie in den 2010er Jahren noch ein Kind war. Ich glaube, die Leute verwechseln sie mit Intelligenz, weil die Daten so groß sind, dass sie bei den meisten Dingen starke Muster aufweisen. Aber wenn es darum geht, etwas zu erfinden, das mit neuen Situationen und komplexen Umgebungen zurechtkommt, gibt es das einfach nicht. Schauen Sie sich nur die selbstfahrenden Autos an. Und dass ASI vor AGI erreicht wurde, ergibt auch keinen Sinn, da die wahre Definition von AGI ist, dass ASI aus AGI stammen muss und nicht gemacht werden darf.
Die Transformer-Architektur kam 2017, ChatGPT 2022. Wahrscheinlich wird etwas passieren. Wir werden in diesem Jahrzehnt einige Pläne für AGI sehen und dann wird es im nächsten oder später eine Sache sein. Da der Hype so groß ist, werden sie wahrscheinlich eine gute KI veröffentlichen und die Leute werden denken, es sei AGI, aber dann werden sie nach mehreren Wochen der Nutzung die Wahrheit erkennen. Wenn Nanobots/Claytronics und Molekularassembler (laut Experten noch mehrere Jahrzehnte entfernte Technologie) unter angeblicher AGi oder sogar ASI nicht erreicht werden, werden die Leute anfangen zu glauben, dass der Hype sie geblendet hat. Geduld ist der Schlüssel.
Die Veröffentlichung gefälschter AGIs und ASIs ist sehr wahrscheinlich. Denn die Sprache selbst ist ein gutes Gaslighting-Tool. Aktuelle KI ahmt menschliche Daten nach und erzeugt daher eine starke Voreingenommenheit gegenüber den Menschen, die sie überprüfen. Es ist eine mächtige Illusion, die die Menschen glauben lässt, etwas sei näher, als es wirklich ist. Das ist in der Vergangenheit passiert.
Ohne Ironie sagte Sam Altman selbst, dass AGI die Welt weniger verändern wird, als wir denken. Vielleicht, nun ja, weil alles, was wir bekommen werden, eine Semi-AGI sein wird (das ist nur AGI in der Wahrnehmung der ersten Anwendungen).
https://x.com/_rockt/status/1799006089260007549?s=46
5 Comments
That’s because true AGI requires much more data than the internet. It need constant FDVR passthrough data, neuralink data, and even more neurological limbic data. Good luck getting that from humans.
>It’s getting annoying several people pretending there is an exponential progress that doesn’t exist
Economy and science would like to have a word. Exponential growth is real – the only question revolves around how to quantify it and measure it.
Instead of arguing hype or timelines let me say this – whether you like it or not AGI is inevitable. It will replace the remaining few who couldn’t be automated by simpler means. Doesn’t matter how we get it and how intelligent it is on the inside as long as it is indistinguishable from humans in terms of capabilities on the outside. Denying it will happen or saying it won’t happen anytime soon only unnecceserily delays much need discussions and law changes surrounding the way we live and work.
Let me post a vaguely labeled graph with no data to back up a concept I want to confirm.
AGI is a distraction for people who want to argue semantics. All that matters is can recent advances cause unemployment to rapidly go above 10% as the market demands replacement of expensive knowledge workers with automated systems. If that happens we are screwed. And we don’t need AGI for that.
You can listen to very smart people who agree this is likely in a 5 year range — which does not give humanity enough time to pivot.
You know, I used to have a healthy dose of skepticism like this talking about reasonable timelines, then the level-headed guy who makes the funny videos about all the dangerous stuff said “we just achieved in 1 year what we not very long ago expected would take 5.
Decades”.
Because you know, I really hope you’re right. For once, I want us to be prepared well in advance for a new groundbreaking tech that is as transformative as it is dangerous because that would quell my existential anxiety somewhat. But I don’t believe you are.
Ok, so trend can be either one or another, nothing inbetween?