Etats-Unis : il s’empoisonne au brome sur les conseils de ChatGPT
Après avoir suivi un conseil trouvé via ChatGPT, un sexagénaire américain a remplacé le sel par du bromure de sodium, provoquant une intoxication grave. Un cas rare qui illustre les dangers d’une utilisation non encadrée de l’IA pour des questions de santé.
A découvrir aussi
- nfections urinaires : bientôt un vaccin oral pour remplacer les antibiotiques ?
- Les femmes entendent mieux que les hommes
- En direct, guerre en Ukraine : les ministres des affaires étrangères européens doivent se réunir lundi avant la rencontre Trump-Poutine
Retour aux articles de la catégorie PRESSE -
⨯
Inscrivez-vous au site
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 348 autres membres