16 octombrie 2024

„Fără acele conversații cu chatbot-ul, soțul meu ar fi încă aici”

0

  • O femeie spune că soțul ei s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot AI.
  • Anxietatea bărbatului l-a îndepărtat de soție, prieteni și familie.
  • Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care oferă o varietate de „personalități” ale AI-ului.

O femeie spune că soțul ei belgian s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot dotat cu inteligență artificială.

Bărbatul a fost măcinat de viziunea pesimistă asupra schimbărilor climatice pe care i-a insuflat-o chatbotula informat ziarul belgian La Libre . Anxietatea l-a îndepărtat pe bărbat de soție, prieteni și familie și l-a făcut să se destăinuie unui chatbot pe nume Eliza, a povestit femeia îndurerată.

Potrivit văduvei, Eliza l-a încurajat în mod repetat pe Pierre să se sinucidă și l-a convins că îl iubește mai mult decât o face soția. De asemenea, inteligența artificială i-ar fi spus că copiii…

Citeşte mai mult

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *