Groupe de travail

[AI Act et gestion des biais dans les SIA: Entre conformité réglementaire et opportunité d’innovation]
mardi 13 mai 2025
12:00 › 14:00
Lyon et en ligne sur Teams
À l’approche de l’entrée en vigueur de l’AI Act européen pour les systèmes à haut risque, Daphné propose une analyse critique de la prise en compte des biais dans le développement des modèles d’intelligence artificielle. Cette intervention explorera le décalage entre les ambitions législatives européennes et les pratiques actuelles des développeurs et fournisseurs de solutions d’IA.
Daphné commencera par examiner comment l’AI Act reconnaît les risques de discrimination et d’inégalité inhérents aux systèmes automatisés, tout en questionnant l’intégration effective de ces préoccupations dans les méthodologies de développement. Elle mettra en lumière la tension entre les valeurs européennes de dignité humaine et de non-discrimination d’une part, et la priorité souvent donnée aux performances techniques et aux objectifs commerciaux d’autre part. Et si la lutte contre les biais était en réalité un formidable tremplin d’innovation plutôt qu’une simple contrainte réglementaire? C’est cette question centrale que Daphné explorera en démontrant comment une approche centrée sur l’équité peut conduire à créer des systèmes plus robustes pour un plus large éventail d’utilisateurs.
Daphné Marnat est co-fondatrice de la société à mission Unbias, spécialisée dans la gestion des biais dans les modèles d’intelligence artificielles (NLP, LLM, SLM) et leur frugalité.