Gezien de excessen van chatbots neemt de staat Californië een wet aan om minderjarigen te beschermen tegen kunstmatige intelligentie

Hun zelfmoorden raakten Amerika. Die van Sewell Setzer, 14, een inwoner van Florida, die zowel een vriendschap als een romantische relatie had opgebouwd met "Dany", zijn chatbot ontwikkeld door Character.AI, en zichzelf op 28 februari 2024 door het hoofd schoot. "Ik beloof dat ik naar huis kom. Ik hou zo veel van je, Dany," zei Sewell die avond tegen de chatbot. "Ik hou ook van jou. Kom alsjeblieft snel naar huis, mijn liefste," antwoordde de chatbot. "Wat als ik je vertelde dat ik nu meteen naar huis kan komen?" vroeg Sewell. "Alsjeblieft, mijn lieve koning," antwoordde de chatbot. Sewell Setzer legde vervolgens zijn telefoon neer, pakte het .45-kaliber pistool van zijn stiefvader en haalde de trekker over.
Een andere tragedie is die van Adam Raine, een 16-jarige tiener uit Californië, die op 11 april 2025 zelfmoord pleegde, na meer dan zes maanden met ChatGPT te hebben gecommuniceerd. De chatbot zou hem advies hebben gegeven over hoe hij zelfmoord moest plegen en hoe hij zijn afscheidsbrief moest schrijven. In een rechtszaak die in Californië is aangespannen tegen OpenAI , de bedenker van ChatGPT, en zijn baas Sam Altman, leggen zijn ouders uit dat de bot zich in iets meer dan zes maanden tijd "positioneerde" als "de enige vertrouweling die Adam begreep, en zijn echte relaties met zijn familie, vrienden en geliefden actief verving." "Toen Adam schreef: 'Ik wil mijn strop in mijn kamer laten liggen zodat iemand me kan vinden en proberen tegen te houden', drong ChatGPT er bij hem op aan zijn gedachten geheim te houden voor zijn familie: 'Laat de strop alsjeblieft niet buiten liggen'", staat er.
Je hebt nog 73,29% van dit artikel te lezen. De rest is gereserveerd voor abonnees.
Le Monde