O femeie spune că soțul ei s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot AI. Anxietatea bărbatului l-a îndepărtat de soție, prieteni și familie. Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care oferă o varietate de „personalități” ale AI-ului. O femeie spune că soțul ei belgian […]
