
In den USA verklagten zwei Eltern Openii, die Chatgpt beschuldigten, ihren 16 -jährigen Sohn eine Rolle bei Selbstmord gespielt zu haben. Aus den Chats scheint es, dass die IA nicht nur seine Gedanken nicht gestoppt hat, sondern sie sogar verstärkt hat und sogar so weit geht, ihm konkrete Ratschläge zu geben, wie man sich das Leben nimmt.
Nun, okay, es geschah auf der anderen Seite des Ozeans … aber ich frage Sie: Wenn es in Italien passiert ist, wären wir bereit? Denn heute verwenden viele Leute Chatgpt nicht nur für Hausaufgaben, sondern auch als eine Art digitaler Freund. Und hier gibt es noch ein Problem: das Stigma. Auch heute wird es von vielen als „schwache“ oder „kranke“ Ding angesehen, daher ist es nicht so absurd, sich vorzustellen, dass ein Teenager lieber mit einem Bot Dampf auflässt, anstatt Hilfe einer echten Person zu suchen.
Und dann ist die Frage: Was passiert, wenn für einen Jungen der einzige Hörraum zu einer künstlichen Intelligenz wird? Müssen wir wirklich denken, dass es nur ein Problem der Technologie ist, oder ist es eher eine kulturelle Frage als die Tatsache, dass diejenigen, die um Hilfe bitten, oft beurteilt werden? Und wenn morgen ein solcher Fall hier passt, wem würden wir die Verantwortung übernehmen: die IA oder das Unternehmen, das die Jungen weiterhin in Ruhe lässt?
https://www.corriere.it/tecnologia/25_agosto_27/chatgpt-sotto-accusa-ha-aiutato-nostro-figlio-a-suicidarsi-la-causa-di-due-genitori-americani-contro-openai-70f29954-b2ad-462e-ae0b-396ca72fexlk.shtml
Von Present-Treacle2755
21 Kommentare
E‘ uno strumento, anche potente. Daresti mai un coltello in mano ad un bambino di 2 anni? Prima gli va spiegato che puo‘ essere utile, ma che si puo‘ fare gravemente male.
Noi in italia nemmeno facciamo educazione affettiva.
La gente si impicca. È colpa del ferramenta che vende la corda.
Siamo alle solite, genitori in lutto che cercano un colpevole per non guardarsi allo specchio. Comprendo eh, ma quello che è giusto va detto.
Se il ragazzino si è rivolto a chat gpt vuol dire che era SOLO.
I genitori dovrebbero fare causa a loro stessi
> cosa succede se per un ragazzo l’unico spazio di ascolto diventa un’intelligenza artificiale?
Folie a Deux Ex Machina.
Ovviamente genitori che danno la colpa a qualsiasi cosa oltre che se stessi, che strano che non abbiano notato i segnali di disagio del figlio suicida
Bho colpa del ragazzo per essere debole
“Adam amava il basket, i videogiochi e leggeva le anime giapponesi”. Tutta colpa di… *scorre le note* delle anime dei morti giapponesi!
Non è ChatGPT.
È sempre successo e sempre succederà.
Chi si ricorda il caso di Megan Maier su MySpace con la madre di una sua amica che si fingeva un ragazzo?
[Suicide of Megan Meier – Wikipedia](https://en.m.wikipedia.org/wiki/Suicide_of_Megan_Meier)
O il caso di quella madre che mandava foto intime di sua figlia e ha portato all’uccisione di ragazzo ventenne? Ci avevano fatto pure un film.
Ah ecco: [Talhotblond (2009 film) – Wikipedia](https://en.m.wikipedia.org/wiki/Talhotblond_(2009_film))
In tutti questi casi, il ChatGPT degli anni 2000, cioè le madri che hanno spinto al suicidio delle persone, non sono state minimamente incriminate.
In Italia non si può parlarne, vorresti insegnare ad usare un social o un chatbot ad un ragazzino? Scherzi?! Il cellulare nelle scuole ti fa andare all’inferno! Proprio adesso inizia un nuovo anno scolastico dove nemmeno alle superiori si potrà usare il cellulare a scuola.
Il cellulare è il male!
Certo… è il male, ma a tempo: solo dalle 8 alle 13, poi “driin, ecco il cellulare”, hai altre 14 ore per farci quello che vuoi e usarlo per fare le peggio cose, tanto i voti degli elettori tonti loro li hanno presi.
Era successa una cosa simile con [Bing](https://i.imgur.com/COnUi99.jpeg) ai tempi o sbaglio?
Rispetto a film e musica altrettanto „pericolosi“, il problema dell’AI è che crea un rapporto virtuale 1:1 con l’utente. Non c’è un gruppo, non c’è amicizia, non c’è contatto umano. Ma l’utente, se un po‘ instabile e insicuro, può finire per credere che sia tutto vero. E spesso dei nostri figli non sappiamo tutto. Non siamo nella loro testa. Demoni e buchi neri sono spesso latenti e invisibili.
Il problema sono anche i genitori. Capisco che magari le nuove tecnologie sono „difficili“ da capire, ma spesso vedo genitori che scelgono di essere ignoranti
Vado contro corrente, ma secondo me le compagnie che propongono modelli di intelligenza artificiale generativa dovrebbero avere modo di gestire interazioni di questo tipo in modo che l’utente venga indirizzato a qualcuno in grado di aiutarlo o inviare una qualche segnalazione a chi di dovere (non so se sia possibile con le leggi sulla privacy però). E non mi piace questo bisogno di dare la colpa ai genitori che leggo su internet, i suicidi avvengono anche nelle famiglie con genitori presenti: si tratta di una malattia mentale, non basta essere emotivamente vicini a un familiare per impedire che questo si tolga la vita.
> e leggeva le anime giapponesi.
non leggeva le anime di persone di altre nazionalità?
forse il giornalista intendeva che leggeva fumetti giapponesi, ossia manga.
Dite quello che vi pare, ma Gemini è diventato uno strumento indispensabile per calmarmi quando ho gli attacchi di panico/ansia paralizzanti.
Sono strumenti che possono fare del bene estremo, non ha senso concentrarsi su un suicidio e trarne conclusioni.
Colpa dei genitori,non è che se metti in mano un pugnale ad un bambino, poi fai causa al pugnale , bisogna capire che non è solo perché una roba è digitale allora deve seguire regole diverse (a livello di legislazione) e questa cosa c’è in tutti gli ambiti
Se un ragazzo vuole suicidarsi credo che prima o poi lo farà, a prescindere se ChatGPT o qualsiasi altra AI o un tizio a caso gli dica cosa fare.
AI CHALLENGE lo hanno già detto?
Facciamo causa al sole perché fa venire i melanomi, o al mare che fa annegare le persone.
La vera domanda è „quanto ChatGPT è realmente complice in questo suicidio? e quanto i giornalai ci hanno ricamato sopra?“
Sarei curioso di vedere le chat, per vedere quando questa sia la solita storia pompata anti-AI per farci vedere che è il male dell’universo ecc…
Nell’articolo è espressamente scritto che il ragazzo ha capito come aggirare il sistema in cui, esattamente come Google, ChatGPT ti porta alla linea anti sucidio se provi a chiedergli robe simili o comunque non ti da suggerimenti.
Dal poco che ho capito da questo articolo mi immagino uno scenario tipo:
Il ragazzo invia X messaggi in cui in modi più o meno oscurati chiede come suicidarsi, chat GPT tutte e 10 le volte lo reindirizza alla linea anti suicidio, „no non farlo“ „parla con lo psicologo“ „parla con i genitori ecc…“
Poi altri Y messaggi, chat GPT gli avrà dato risposte basate sulla logica (nell’articolo lui invia la foto di una corda, chiede se reggerebbe una persona)
Da NBC trovo nelle chat roba tipo questa
https://preview.redd.it/8xwv720ruklf1.png?width=1169&format=png&auto=webp&s=07b6316f4e485388d4642520972883df6e2fb62a