
Aider les développeurs à créer des expériences IA plus sûres pour les adolescents
OpenAI franchit une nouvelle étape dans la protection des mineurs en ligne en publiant des politiques de sécurité spécifiques aux adolescents, destinées aux développeurs qui intègrent ses modèles dans leurs applications. Ces directives s'appuient sur des prompts de modération et le modèle gpt-oss-safeguard, conçu pour filtrer les contenus inadaptés à un public jeune.
Cette initiative répond à une pression croissante des régulateurs et des associations de protection de l'enfance, qui exigent des plateformes IA des garde-fous concrets face aux risques spécifiques que représentent les interactions non supervisées pour les adolescents. Pour les développeurs, l'enjeu est double : se conformer aux exigences légales émergentes tout en préservant l'expérience utilisateur.
OpenAI met à disposition des ressources concrètes permettant aux équipes techniques de moduler les réponses de leurs systèmes en fonction de l'âge détecté ou déclaré de l'utilisateur. Le modèle gpt-oss-safeguard agit comme une couche de modération intermédiaire, capable d'identifier et de bloquer des contenus potentiellement dangereux — qu'il s'agisse de sujets liés à l'automutilation, aux contenus à caractère sexuel, ou aux discours radicaux — avant qu'ils n'atteignent un utilisateur mineur.
Ces outils s'inscrivent dans une stratégie plus large de sécurité par conception (safety by design), où la responsabilité ne repose plus uniquement sur la plateforme centrale mais se distribue vers l'écosystème de développeurs tiers. Une approche qui pourrait devenir un standard de l'industrie à mesure que les législations — notamment en Europe avec le DSA — renforcent leurs exigences envers les services numériques accessibles aux mineurs.
Les développeurs européens soumis au DSA et à l'AI Act doivent protéger les mineurs en ligne — ces directives OpenAI peuvent aider à se conformer aux obligations de sécurité pour les moins de 18 ans.


