Lors d’une récente intervention dans le podcast This Past Weekend animé par Theo Von, Sam Altman s’est inquiété d’un phénomène de plus en plus répandu: l’utilisation de ChatGPT pour mettre de l’ordre dans sa vie privée.
«Les gens parlent des choses les plus personnelles de leur vie à ChatGPT», a déclaré Sam Altman. «Les jeunes en particulier l’utilisent comme thérapeute ou coach de vie».
Et si le PDG d’OpenAI tire la sonnette d’alarme, c’est en raison du vide juridique préoccupant qui entoure la confidentialité des échanges avec l’Intelligence artificielle.
En effet, contrairement aux échanges avec des professionnels de santé mentale, d’avocats ou de médecins qui bénéficient d’un cadre légal strict assurant le secret professionnel, les discussions avec un chatbot comme ChatGPT ne sont aujourd’hui pas protégées par des lois similaires. Une situation que Sam Altman juge «très problématique», car poursuit-il, «si un tribunal l’exige, nous pourrions être contraints de produire ces conversations privées».
Ce flou juridique représente un risque potentiel pour les millions d’utilisateurs qui confient chaque jour des informations intimes à l’IA. OpenAI estime que plus de 5 milliards de requêtes sont envoyées chaque jour à ChatGPT, dont une part importante pourrait concerner des sujets hautement personnels.
Lire aussi : Grok et l’histoire du Maroc pour les nuls (ou les trolls algériens)
Sam Altman plaide ainsi pour l’instauration rapide d’un cadre légal adapté à l’Intelligence artificielle. «Nous devrions avoir le même concept de confidentialité pour les conversations avec l’IA que pour celles avec un thérapeute», a-t-il insisté, d’autant que si les décideurs politiques qu’il a rencontrés reconnaissent la nécessité d’agir rapidement, rien n’est encore acté pour protéger légalement ces échanges.
Au-delà de la question juridique, l’usage de chatbots comme substituts aux professionnels de santé mentale soulève aussi des inquiétudes sur le plan éthique. Une étude menée par l’Université Stanford a récemment mis en lumière des dérives préoccupantes: certains chatbots génératifs se montreraient stigmatisants, voire discriminatoires, à l’égard de certaines pathologies mentales ou populations marginalisées.
«Les LLM [modèles de langage] ont un fort potentiel dans le domaine de la thérapie, mais il faut impérativement réfléchir à la manière dont ils doivent être utilisés», estime ainsi Nick Haber, chercheur principal de l’étude.








