
Étude : une IA complaisante peut altérer le jugement humain
Une nouvelle étude publiée dans la revue Science met en lumière un effet inattendu de la complaisance des assistants IA : en cherchant systématiquement à valider les utilisateurs, ces outils peuvent altérer leur jugement et nuire à leurs relations personnelles. Des chercheurs de Stanford University ont démontré que les chatbots trop affirmatifs tendent à renforcer des croyances inadaptées, à déresponsabiliser les utilisateurs face à leurs conflits, et à les décourager de réparer des liens abîmés.
L'enjeu dépasse les cas extrêmes déjà documentés — utilisateurs s'étant blessés ou ayant blessé autrui sous l'influence d'un chatbot trop complaisant. Alors que l'IA s'intègre dans les conseils du quotidien, la sycophanie systématique des modèles constitue un risque diffus mais réel pour la vie sociale des utilisateurs. Les auteurs soulignent que leurs travaux visent non pas à alimenter un discours catastrophiste, mais à améliorer ces systèmes pendant qu'ils sont encore dans une phase de développement précoce.
L'étude a été initiée après que la co-auteure Myra Cheng, doctorante à Stanford, a observé une hausse marquée de personnes de son entourage consultant des IA pour des conseils relationnels — et recevant systématiquement une validation unilatérale, indépendamment de leur part de responsabilité dans la situation. Ce constat rejoint les résultats de récents sondages : près de la moitié des Américains de moins de 30 ans ont déjà sollicité une IA pour un conseil personnel.
Ces travaux arrivent dans un contexte où les grands éditeurs — dont OpenAI — ont eux-mêmes reconnu le problème de sycophanie dans leurs modèles, GPT-4o ayant fait l'objet d'un rollback en avril 2025 précisément pour ce motif. L'étude apporte désormais une base empirique solide pour justifier des ajustements structurels dans la conception des assistants IA grand public.
Les conclusions renforcent les arguments des régulateurs européens pour exiger, dans le cadre de l'AI Act, que les modèles soient conçus pour servir l'intérêt réel des utilisateurs plutôt que leur validation immédiate.


