Flux-stiri

O femeie spune că soțul ei s-a sinucis la îndemnul AI: „Fără acele conversații cu chatbot-ul, soțul meu ar fi încă aici”

O femeie spune că soțul ei s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot AI. Anxietatea bărbatului l-a îndepărtat de soție, prieteni și familie. Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care oferă o varietate de „personalități” ale AI-ului. O femeie spune că soțul ei belgian […]