Mitte 2025 berichtete GovTech, dass Doktoranden der Universität Buffalo gegen den Einsatz des KI-Erkennungstools von Turnitin in Fällen akademischer Integrität protestierten. Der Artikel beschreibt Studenten, denen potenzielle akademische Sanktionen drohten, nachdem das Tool ihre Arbeit gemeldet hatte, darunter mindestens einen Fall, in dem einer Studentin mitgeteilt wurde, dass sie ihren Abschluss nicht abschließen könne, bis die Angelegenheit geklärt sei.

Das ließ mich innehalten.

Die Universität erklärte, dass sie sich bei der Beurteilung von Fällen nicht ausschließlich auf KI-Erkennungssoftware verlasse und dass Dozenten über zusätzliche Beweise verfügen müssten, um ihren Beweisstandards zu genügen, und dass Überprüfungs- und Berufungsverfahren vorhanden seien. Eine Studentin sagte außerdem, Turnitins Ergebnis sei der einzige Beweis gewesen, der ihr während der Prüfung vorgelegt worden sei, und äußerte Bedenken hinsichtlich der Kontrollen, Abwägungen und der Konsistenz bei der Verwendung des Tools.

Etwa zur gleichen Zeit argumentierten Mitwirkende im Briefteil des Guardian, dass es keine einfache Lösung mittels KI-Detektoren gebe. Ein Autor zitiert eine Studie, die eine Detektorgenauigkeit von insgesamt weniger als 40 % und in kontradiktorischen Fällen von 22 % meldet, und argumentiert, dass es fast unmöglich sein kann, den Einsatz von KI ohne Zulassung eindeutig nachzuweisen, da KI keine Spuren hinterlässt.

https://www.theguardian.com/technology/2025/jun/23/theres-no-simple-solution-to-universities-ai-worries

Zusammengenommen deuten diese Beispiele eher auf ein Governance-Problem als auf ein einzelnes institutionelles Versagen hin. Automatisierte Urteile werden in hochriskante Prozesse eingeführt, und die Institutionen arbeiten immer noch daran, wie Standards für Beweise, Transparenz und Berufung aussehen sollten.

Wenn diese Dynamik bereits in der Hochschulbildung sichtbar ist, wirft sie umfassendere Fragen darüber auf, wie ähnliche automatisierte Entscheidungen in Zukunft gehandhabt werden könnten, wenn sich solche Systeme auf die Einstellungs-, Kredit- oder öffentliche Dienste ausweiten.

Ich bin neugierig, wie andere hier denken, dass Berufung und Aufsicht gestaltet sein sollten, wenn automatisierte Systeme an Folgeentscheidungen beteiligt sind.

https://www.govtech.com/education/higher-ed/university-at-buffalo-students-protest-use-of-ai-detection-tool

4 Kommentare

  1. Imaginary_Party_4188 on

    Submission Statement:

    This post looks at early evidence of how automated decision tools are being incorporated into university disciplinary processes and asks what this suggests for future governance. As AI systems are increasingly used in high-stakes institutional decisions, the post invites discussion on how appeal, transparency, and oversight mechanisms should evolve to keep pace.

  2. Students mustn’t use AI for your studies!
    Workers, use AI or lose your job!

  3. honestly, it means we’re going to need clearer policies around what „ai-assisted“ vs. „ai-generated“ actually means. right now most detection tools have false positive rates that are way too high to be used as sole evidence. universities will probably need human review processes and maybe even shift towards assessment methods that are harder to automate, like oral exams or project-based work that requires process documentation.

  4. There are a lot of examples of AI Detection Tools not working correctly. I’ve read plenty of stories where students who actually written their reports had the AI saying it was written by AI. A couple of times was due to the teacher not using the correct settings.

Leave A Reply