
Le mouvement de bien-être animal de la Bay Area cherche à recruter l'IA
Dans la Bay Area, un mouvement émergent à l'intersection du bien-être animal et de l'intelligence artificielle prend de l'ampleur. Réunis début février dans un espace de coworking de San Francisco, des militants pour les droits des animaux et des chercheurs en IA débattent d'une thèse centrale : si l'IA générale (AGI) devient réalité, il sera crucial de s'assurer que ces systèmes accordent de la valeur aux êtres sensibles — humains comme animaux.
Le mouvement s'inscrit dans la mouvance de l'altruisme efficace, philosophie philanthropique visant à maximiser l'impact positif à grande échelle. Ses partisans ne s'intéressent pas aux refuges locaux mais à des solutions systémiques : réduire l'élevage industriel via la viande cultivée en laboratoire, ou encore influencer la manière dont les modèles d'IA évalueront moralement la souffrance animale dans leurs prises de décision futures. L'enjeu, selon eux : si les IA prennent un jour "la majorité des décisions", leur rapport aux êtres sensibles conditionnera l'avenir du bien-être animal.
Constance Li, fondatrice de l'organisation Sentient Futures qui a organisé l'événement, résume la vision du groupe : "L'IA va être très transformatrice, elle va pratiquement renverser l'échiquier." Parmi les participants, Jasmine Brazilek, cofondatrice de l'association Compassion in Machine Learning, a présenté un benchmark qu'elle a conçu pour mesurer la façon dont les LLMs raisonnent sur le bien-être animal. Ancienne ingénieure en sécurité cloud reconvertie en militante, elle dirige son organisation depuis La Paz, Mexique. Une bibliothèque exposait en bonne place le manifeste d'Eliezer Yudkowsky, If Anyone Builds It, Everyone Dies, illustrant la teinte résolument "AGI-pilled" de l'assemblée.
Le mouvement n'est pas sans contradiction : l'altruisme efficace est régulièrement critiqué pour ses conclusions parfois contre-intuitives — comme allouer des ressources significatives au bien-être des insectes et crevettes en raison de leur nombre astronomique, ou pour avoir tendance à négliger les injustices systémiques présentes au profit de scénarios futurs spéculatifs. La question de savoir si cette approche utilitariste appliquée à l'IA produira des résultats concrets reste entièrement ouverte.


