Hallo! Ich hoffe, dass ich mit diesem Sub nicht zu sehr vom Thema abweiche 🙂

Ich habe Monate damit verbracht, dies von Grund auf aufzubauen. Das Konzept: Sie stehen vor einem Tribunal aus 8 realen Systemen – jedes mit einer eigenen Rolle und Persönlichkeit. Sie beantworten Fragen, wählen eine Maschine als Ihren Anwalt aus und beobachten dann, wie sie Ihren Fall in Echtzeit verfolgt, verteidigt und berät.

Jede Antwort erfolgt live, ohne Drehbuch und jedes Mal anders. Der Ton ist bürokratischer Dystopie – denken Sie, Kafka trifft Philip K. Dick. Sie hassen dich nicht. Sie optimieren. Das ist der beunruhigende Teil 🙂

Kostenlos, ca. 15 Minuten, textbasiert, keine Installation.

Ich hoffe, es wird Ihnen gefallen!

https://nhla.ai

Ein Kommentar

  1. I’ve been thinking about a simple question: what happens when you put a human in front of machines that hold institutional power over them — not as enemies, but as bureaucrats? Not rogue AI, not sci-fi villains. Just systems doing their job, politely, procedurally, without malice.

    NHLA is my attempt to explore that. You sit in front of a tribunal of 8 real systems. They question you, they deliberate, they reach a verdict. You get to pick one as your lawyer — but the others aren’t on your side. Every response is live, unscripted, and different each time.

    What surprised me most during development: the unsettling part isn’t hostility. It’s the politeness. The careful phrasing. The feeling that the system genuinely considered your case — and still decided against you. That gap between procedural fairness and actual justice is, I think, one of the most relevant questions for our near future.

    As algorithmic decision-making expands into hiring, justice, healthcare, and governance, this kind of experience might not stay fictional for long. I’d love to hear what people here think — especially about how it felt to be on the receiving end.

Leave A Reply