Das im vergangenen Jahr verabschiedete, revidierte Grundgesetz zur Suizidprävention befürwortet neu den Einsatz digitaler Technologien wie künstlicher Intelligenz (KI) als Suizidpräventionsmaßnahme.

Der Vorteil der KI liegt in ihrer geringen psychologischen Barriere. In einer Umfrage unter Menschen, die sich vom Leben überfordert fühlen, wählten 50 % der Grund-, Mittel- und Oberschüler KI als Unterstützungsquelle. Dies war eine Webumfrage, die letzten Monat von der NPO durchgeführt wurde "Life Link-Unterstützungszentrum für Suizidprävention." Nur 14 % entschieden sich für nahestehende Erwachsene wie Familie oder Lehrer und 19 % wählten Freunde.

Jüngere Generationen sind mit KI besser vertraut und es könnte für sie durch KI einfacher sein, den ersten Schritt zu machen und ihre Probleme anzuvertrauen, als durch persönliche Interaktion. Es besteht die Hoffnung, dass dies die Belastung durch das Anvertrauen emotionaler Belastungen verringert und als Ausgangspunkt für die Kontaktaufnahme mit Unterstützung dient. Es spielt eine präventive Rolle und verhindert, dass sich die Probleme verschlimmern.

Die Agentur für Kinder- und Familienangelegenheiten stellt sich einen Rahmen zur Identifizierung gefährdeter Kinder durch KI-Konsultationen und deren Verbindung mit medizinischen Einrichtungen vor und wird beginnen, dessen Einsatz ab dem Geschäftsjahr 2026 in Betracht zu ziehen. Sie werden Pilotprojekte in der Stadt Himeji, der Präfektur Hyogo und anderen Standorten untersuchen, um deren Wirksamkeit und zu beachtende Punkte zu verstehen.

https://www.sanyonews.jp/article/1890835/?c=39546741839462401

3 Kommentare

  1. MagazineKey4532 on

    Wasn’t there some news in US about AI leading to suicide? Have they researched beforehand or do they want to waste tax payers‘ money?

    1. [‚A predator in your home‘: Mothers say chatbots encouraged their sons to kill themselves](https://www.bbc.com/news/articles/ce3xgwyywe4o)
    2. [Their teenage sons died by suicide. Now, they are sounding an alarm about AI chatbots](https://www.npr.org/sections/shots-health-news/2025/09/19/nx-s1-5545749/ai-chatbots-safety-openai-meta-characterai-teens-suicide)
    3. [Google’s AI chatbot allegedly told user to stage ‘mass casualty attack,’ wrongful death suit claims](https://www.cnbc.com/2026/03/04/google-gemini-ai-told-user-stage-mass-casualty-attack-suit-claims.html)
    4. [‘You’re not rushing. You’re just ready:’ Parents say ChatGPT encouraged son to kill himself](https://edition.cnn.com/2025/11/06/us/openai-chatgpt-suicide-lawsuit-invs-vis)
    5. [Why AI companions and young people can make for a dangerous mix](https://med.stanford.edu/news/insights/2025/08/ai-chatbots-kids-teens-artificial-intelligence.html)
    6. [Deaths linked to chatbots (Wikipedia)](https://en.wikipedia.org/wiki/Deaths_linked_to_chatbots)

  2. CatsianNyandor on

    It’s sad that people would rather talk to a lifeless machine with no experience or understanding of what it means to be human than confide in another. Maybe that’s what they should teach in the damn moral education classes or whatever. 

  3. Affectionate-Tip-164 on

    I mean years earlier people are marrying their version of Hatsune Miku, their pokemon, or their tamagotchi, or digimon.

    Just stop complaining about birth rates ok? Some of these folks will end up marrying their AI companion or AI counsellor.

Leave A Reply