„Fără acele conversații cu chatbot-ul, soțul meu ar fi încă aici”
- O femeie spune că soțul ei s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot AI.
- Anxietatea bărbatului l-a îndepărtat de soție, prieteni și familie.
- Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care oferă o varietate de „personalități” ale AI-ului.
O femeie spune că soțul ei belgian s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot dotat cu inteligență artificială.
Bărbatul a fost măcinat de viziunea pesimistă asupra schimbărilor climatice pe care i-a insuflat-o chatbotul, a informat ziarul belgian La Libre . Anxietatea l-a îndepărtat pe bărbat de soție, prieteni și familie și l-a făcut să se destăinuie unui chatbot pe nume Eliza, a povestit femeia îndurerată.
Potrivit văduvei, Eliza l-a încurajat în mod repetat pe Pierre să se sinucidă și l-a convins că îl iubește mai mult decât o face soția. De asemenea, inteligența artificială i-ar fi spus că copiii…