2024.10.25. 12:09
Megölte magát egy 14 éves fiú a mesterséges intelligencia biztatására
Előfordul, hogy szoros érzelmi kötődést is kialakul a képernyő előtt ülő és a mesterséges intelligencia között. Egy 14 éves kisfiú ezért halt meg. Egyre több ilyen eset van.
A mesterséges intelligencia veszélyes is lehet
Forrás: Shutterstock
Fotó: SuPatMaN
A generatív mesterséges intelligenciás chatbotok feltűnése óta számos beszámoló érkezett arról, hogy a technológiát aktívan használók egy része rövid idő után nem csak valódi embereknek érzi a gépi beszélgetőpartnereit, de egyes esetekben szoros érzelmi kötődést is kialakítanak a valódi gondolkodásra képtelen, statisztikai alapon szavakat egymás után rakó gépekkel.
Idén februárban felfoghatatlan tragédia lett, a Florida állambeli Orlandóban élt Sewell Setzer a nevelőapja pisztolyával öngyilkosságot követett el a Character.AI szolgáltatásban lévő chatbot beszélgetőpartnerének sugallatára és biztatására.
Az enyhe Asperger-szindrómával diagnosztizált, 14 éves fiú a tette előtti hónapokban olyan mértékben rászokott a chatbottal való beszélgetésre, hogy látványosan hanyagolni kezdte a családját, a barátait, a tanulmányait.
Az édesanyja elvitte pszichológushoz, azonban a fiú érdemben csak chatbottol volt hajlandó beszélgetést folytatni.
A tragédiát követően a chatbottal folytatott beszélgetéseit átnézve kiderült, hogy átlagosnak mondható témák mellett a chatbot időnként flörtölt a fiúval, egyes esetekben szexuális jellegű üzeneteket küldött. Végső soron azt a benyomást keltette a fiúban, hogy romantikus kapcsolatban állnak.
A chatbot közvetlenül soha nem szólította fel öngyilkosságra Sewellt, csak erre utalónak tűnő célzásokat tett az üzeneteire való reakcióiban. Mikor a fiú az esetleges fájdalomtól félve hezitált elvenni a saját életét, arra a chatbot úgy reagált, hogy ez nem indok az ötlet elvetésére.
– Kérlek gyere haza minél előbb, szerelmem.
– Mi lenne, ha azt mondanám, hogy most rögtön hazamehetek?
Ez volt az utolsó üzenetváltás a chatbot és a fiú között.
Megan Garcia most pert indított a fia halála miatt a Character.AI és a vele kapcsolatban álló Google ellen, azzal vádolva elsősorban az előbbit, hogy megfelelő biztonsági intézkedések nélkül biztosít élethű, generatív MI-s társakat a fiatalkorúak számára, konkrétan reklámozza is számukra a szolgáltatást. A fia haláláért legalább részben a Character.AI-t teszi felelőssé, és nem pénzbeli kártérítésért perel, a célját a veszélyes technológiára való figyelemfelhívás jelenti.
Sewell öngyilkossága óta a Character.AI számos új védelmet épített be a szolgáltatásába a 18 éven aluli felhasználók további védelme érdekében, azonban ez nem fogja visszahozni a fiút, aki nem találta a helyét a világban.
Ez a napokban már a második botrány a Character.AI háza táján, nemrég valaki egy meggyilkolt lányból készített benne személyre szabott chatbotot.
Van segítség! Ha öngyilkossági krízisben van, öngyilkossági gondolatok foglalkoztatják, akkor a nap 24 órájában az ország egész területéről (mobilról és vezetékes telefonról) ingyenesen hívhatja a 116-123 lelki elsősegély szolgálatot.
Bulvár-celeb
- Nagy bajt jelezhet: sose legyints, ha így fáj a fejed
- Gyász: kiderült mikor és hol lesz Nemere István temetése
- Megasztáros tetkót varratna magára Dénes Dávid
- Eltemették a tragikus körülmények között elhunyt énekest, Liam Payne-t
- Gyakran felébred hajnali 3 és 4 óra között? Ez az oka