Das Dwarkesh/Dylan Patel-Interview über KI-Rechenengpässe ist eine der besten Aufschlüsselungen der tatsächlichen Lage – 70 EUV-Maschinen von ASML pro Jahr, TSMC-Konzentration, Leistungsbeschränkungen. Sehenswert, wenn Sie es noch nicht getan haben.

Dieser Artikel nimmt dies als Ausgangspunkt und stellt die Frage: Was passiert, wenn die Sache, bei der es einen Engpass gibt, auch diejenige ist, die am besten in der Lage ist, den Engpass zu lösen? Es gibt bereits Rückkopplungsschleifen im Chip-Design, in den Materialwissenschaften, im Energiebereich und in der KI-Forschung selbst. Aber es gibt auch eine Governance-Dimension (Exportkontrollen, CHIPS-Gesetz, China baut Parallelstapel auf), die niemand wirklich modelliert, und eine Frage der Obergrenze – jede Optimierungskurve in der Geschichte war eine S-Kurve und keine Exponentialkurve.

Der Teil, über den ich am interessantesten zu schreiben fand, war die Nachfrageseite. Jeder konzentriert sich auf die Ausweitung des Angebots (mehr Fabriken, mehr Leistung, mehr Maschinen). Aber wenn sich die algorithmische Effizienz weiter verbessert, wie DeepSeek gezeigt hat, löst sich der Engpass möglicherweise auf, weil Sie weniger Rechenleistung pro Einheit nützlicher Intelligenz benötigen, und nicht, weil Sie mehr davon erstellen. Es wäre merkwürdig, ob die Leute hier denken, dass die Angebots- oder Nachfrageseite in den nächsten 5 bis 10 Jahren wichtiger ist.

https://myoid.com/the-recursive-resolution/

2 Kommentare

  1. ChainOfThot on

    Wasn’t sure if I put this in the comments or the description, here it is again:

    The Dwarkesh/Dylan Patel interview on AI compute bottlenecks is one of the best breakdowns of where things actually stand — ASML’s 70 EUV machines a year, TSMC concentration, power constraints. Worth watching if you haven’t.

    This piece takes that as a starting point and asks: what happens when the thing being bottlenecked is also the thing best positioned to solve the bottleneck? There are already feedback loops running in chip design, materials science, energy, and AI research itself. But there’s also a governance dimension (export controls, CHIPS Act, China building parallel stacks) that nobody really models, and a ceiling question — every optimization curve in history has been an S-curve, not an exponential.

    The part I found most interesting to write about was the demand side. Everyone focuses on expanding supply (more fabs, more power, more machines). But if algorithmic efficiency keeps improving the way DeepSeek showed, maybe the bottleneck dissolves because you need less compute per unit of useful intelligence, not because you build more of it. Curious if people here think the supply side or demand side matters more over the next 5-10 years.

  2. I believe we are swiftly entering a time when Trust will be the bottleneck.

Leave A Reply