Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Corrections mineures #1

Open
wants to merge 2 commits into
base: master
Choose a base branch
from
Open
Changes from 1 commit
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Jump to
Jump to file
Failed to load files.
Diff view
Diff view
Prev Previous commit
Remplacement de "cryptée" par "chiffrée"
  • Loading branch information
bzg committed Apr 24, 2019
commit c33afe2aaad47a6d6ef2f21480cfa5cc0e491042
2 changes: 1 addition & 1 deletion README.md
Original file line number Diff line number Diff line change
Expand Up @@ -57,7 +57,7 @@ Trois aspects majeurs sont à considérer et détaillés par [Besse et al. 2018-
### 2.2 Biais algorithmique et Discrimination
La loi française comme le règlement européen interdit toute forme de discrimination envers une personne ou un groupe mais, arriver à caractériser qu'une décision algorithmique est biaisée donc discriminatoire reste difficile. Il est apparemment facile d’opérer individuellement du *testing* d’algorithme en modifiant la modalité de la variable sensible (femme en homme, noir en blanc, vieux en jeune...) d’une personne pour provoquer une éventuelle bascule de la décision. Cela est suceptibles déliminer individuellement un risque juridique de dicrimination. Malheureusement, de nombreux exemples montrent que, même protégée et absente des modèles, une information sensible est facilement déduite des autres informations ou variables disponibles. Comme le montre des exemples sur des cas d'usage, la correction par *testing* n'est pas probante vis à vis de la discriminaiton de groupe.

Comme le signale le rapport Villani (2018), il est important de définir une notion de *discrimination envers un groupe*: le *discrimination impact assessment* ou DIA. C'est ce qui est pratiqué de longue date (1971) aux USA et reconnu dans certains cas par les tribuanux avec une approche statistique de la mesure de la discrimination à l'embauche. Plusieurs indicateurs sont utilisables mais le plus employé et discuté considère la notion de d'*effet disproportionné* (*disparate impact*). La variable sensible et protégée doit être connue (c'est le cas aux USA pour l'origine ethnique) pour estimer l'effet disproportionné mais celle-ci peut l'être sous une une forme cryptée ou en protégeant l'anonymat des personnes.
Comme le signale le rapport Villani (2018), il est important de définir une notion de *discrimination envers un groupe*: le *discrimination impact assessment* ou DIA. C'est ce qui est pratiqué de longue date (1971) aux USA et reconnu dans certains cas par les tribuanux avec une approche statistique de la mesure de la discrimination à l'embauche. Plusieurs indicateurs sont utilisables mais le plus employé et discuté considère la notion de d'*effet disproportionné* (*disparate impact*). La variable sensible et protégée doit être connue (c'est le cas aux USA pour l'origine ethnique) pour estimer l'effet disproportionné mais celle-ci peut l'être sous une une forme chiffrée ou en protégeant l'anonymat des personnes.

Des biais, discriminations ou injustices ayant été identifiées, dans la base d'apprentissage et / ou dans la prévision, des outils statistiques et algorithmiques existent (*fair learning*) pour en corriger ou au mois en atténuer les effets. Si la base d'apprentissage est biaisée, ce qui est très généralement la source principale de discrimination, corriger le biais induit une forme de discrimination positive qui relève d'une décision politique et humaine, pas algorithmique.

Expand Down