Dans cet atelier, vous découvrirez comment les incidents critiques de l’IA prennent forme de l’intérieur. Apprenez comment de vastes groupes de personnes (y compris vous-mêmes) sont aberrants dans certaines données et peuvent subir des conséquences négatives en raison de la partialité des algorithmes. Cet atelier vous enseignera des méthodes pratiques pour mesurer l’équité et vous fournira un modèle structuré de planification de projet que vous pourrez utiliser pour construire de futurs systèmes d’apprentissage automatique et d’intelligence artificielle.
Les enseignements clés :
-
- Comprendre comment les préjudices liés à l’équité se produisent dans l’IA
- Identifier les valeurs aberrantes et détecter si elles représentent des personnes marginalisées
- Découvrir comment les tests d’hypothèses peuvent être utilisés pour la politique gouvernementale
- Apprenez à tirer parti des talents sociaux et techniques pour des systèmes d’IA plus responsables
FWD50 Extras est une série d’événements annuels réservés aux détenteurs de billets.