www.handi-zen.com

handi-zen

Etats-Unis : il s’empoisonne au brome sur les conseils de ChatGPT

Après avoir suivi un conseil trouvé via ChatGPT, un sexagénaire américain a remplacé le sel par du bromure de sodium, provoquant une intoxication grave. Un cas rare qui illustre les dangers d’une utilisation non encadrée de l’IA pour des questions de santé.

Lire la suite


14/08/2025
0 Poster un commentaire

A découvrir aussi


Inscrivez-vous au site

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 348 autres membres