Skip to main content

Notre mandat


La Coalition Right2YourFace a comme mandat de créer un forum propice à l’échange sur des enjeux et à l’éducation mutuelle concernant les incidences que peut avoir la technologie de reconnaissance faciale (TRF) sur nos organisations et nos collectivités en général. La Coalition Right2YourFace fait en sorte qu’un large éventail de voix, exprimant une diversité de points de vue, est en mesure de prodiguer des conseils d’experts et des orientations aux décisionnaires confrontés à cette technologie complexe et dangereuse.  

Notre objectif


La Coalition Right2YourFace a pour objectif d’établir un groupe de travail composé de diverses parties prenantes dont les intérêts et ceux de leur collectivité risquent de subir des répercussions négatives de l’utilisation de la technologie de reconnaissance faciale au Canada. L’objectif de la Coalition consiste à participer à des activités de plaidoyer, notamment des propositions de politiques et des lettres conjointes aux décisionnaires et au public. En fin de compte, nous cherchons à formuler des recommandations sur un projet de loi visant à réglementer l’utilisation de la TRF et d’autres technologies de surveillance biométrique afin de protéger les renseignements personnels et les droits de la personne.

La technologie de reconnaissance faciale est un type de technologie de reconnaissance biométrique qui utilise des algorithmes d’intelligence artificielle (IA) et d’autres outils informatiques ostensiblement afin d’identifier des personnes sur la base de leurs traits faciaux.

Son fonctionne repose sur l’extraction de données biométriques basées sur des caractéristiques faciales clés et la comparaison entre des modèles biométriques réels et stockés dans sa mémoire. Les logiciels de reconnaissance faciale recommandent des correspondances lorsque le niveau de similitude entre les images dépasse un seuil de confiance défini.

La TRF est de plus en plus omniprésente dans une foule d’industries et de secteurs au Canada. Elle est utilisée dans la gestion des frontières du Canada – à la fois pour contrôler et identifier les voyageurs à leur entrée au pays et pour confirmer ou refuser les demandes d’immigration. Les entreprises de vente au détail utilisent la TRF pour recueillir des renseignements personnels sur les consommateurs, notamment sur le sexe, l’âge et l’origine ethnique, afin d’établir des profils détaillés de leur clientèle. Les forces policières du Canada ont intégré diverses technologies de reconnaissance faciale dans leurs techniques de maintien de l’ordre et de surveillance. La TRF a même fait son entrée dans les salles de classe canadiennes par l’entremise d’outils de contrôle en ligne qui utilisent la TRF pour identifier les élèves.

Malgré certaines utilisations potentielles bénéfiques pour la société, la TRF demeure une technologie de surveillance qui présente de grandes lacunes et est très envahissante. Ses inconvénients sociaux connus l’emportent sur ses avantages potentiels. Les technologies de reconnaissance faciale fonctionnent souvent avec de profonds biais algorithmiques. De plus, leurs ensembles de données de formation manquent souvent de diversité et se composent généralement de personnes blanches ou qui passent pour blanches. Ainsi, des études ont montré que la TRF donne des résultats moins précis en ce qui concerne les femmes noires et les personnes de couleur, ce qui entraîne des erreurs d’identification. De telles situations peuvent être particulièrement préjudiciables lorsque la TRF est déployée dans des situations à haut risque, notamment dans le cadre d’enquêtes criminelles et de demandes d’immigration.

Même si la TRF permettait d’identifier les personnes avec précision (et en réalité, les problèmes techniques de la technologie finiront par être résolus dans une certaine mesure), elle présenterait tout de même de nombreux risques pour les libertés civiles, car elle facilite la surveillance de masse, l’intrusion dans la vie privée et le contrôle excessif des groupes en quête d’équité. La TRF a ou continuera d’avoir un effet disproportionné sur diverses collectivités marginalisées, notamment les personnes de couleur, les femmes, les 2SLGBTQ+, les personnes âgées, les jeunes, les personnes souffrant d’un handicap physique, ainsi que d’autres groupes en quête d’équité, qui sont touchés par des formes systémiques et des systèmes d’oppression intersectionnels.

 

Au Canada, il n’existe pas de mesure législative particulière et complète qui oriente son utilisation dans les secteurs privé et public.

 

Les lois fédérales et provinciales actuelles sur la protection de la vie privée ne sont pas en mesure de régir l’élaboration, le déploiement et l’utilisation de la TRF, car elles n’ont pas été mises à jour pour faire face aux nouveaux défis technologiques. Alors que la loi n’évoluait pas, la TRF est de plus en plus présente dans de nombreux secteurs. En l’absence de directives législatives, les tribunaux sont parvenus à des conclusions diverses sur les questions relatives à son déploiement et à son utilisation par les autorités chargées de la sécurité publique. Le gouvernement du Canada doit prendre des mesures pour s’assurer que les droits des individus sont protégés contre cette technologie émergente.

Valeurs fondamentales

Équité

Protection de la vie privée

Transparence

Capacité humaine et contrôle démocratique

Équité

Notre groupe croit en la société. Lorsque la technologie est utilisée sans garanties juridiques adéquates, notamment dans le contexte de l’authentification de l’identité, de la surveillance et de la collecte de données, elle va souvent à l’encontre de cet objectif. Son utilisation abusive cause un préjudice disproportionné aux groupes en quête d’équité, ce qui accroît encore les inégalités et érode l’équité au sein de nos collectivités.

Protection de la vie privée

Notre groupe estime que la vie privée est un droit fondamental qui revêt une grande importance. La technologie de reconnaissance biométrique peut être utilisée de manière envahissante, arbitraire et irresponsable. Une telle utilisation porte atteinte au droit à la vie privée des personnes qui fait partie intégrante de toute une série de droits énoncés dans la Charte des droits et libertés, notamment la liberté d’association, la liberté d’expression, le droit de ne pas faire l’objet de perquisitions et de saisies abusives, et les droits à l’égalité.

Transparence

Notre groupe croit en la transparence. Pour les objectifs de reconnaissance biométrique jugés socialement responsables, l’utilisation de ces technologies doit être divulguée et les modalités de collecte et d’utilisation des données doivent être expliquées et faire l’objet d’un consentement significatif et éclairé.

Capacité humaine et contrôle démocratique

Notre groupe croit en la capacité humaine et au contrôle démocratique des systèmes d’intelligence artificielle. Les systèmes d’IA peuvent être entachés de biais omniprésents, d’incohérences, d’inexactitudes et d’une capacité limitée à traiter les exceptions qui menacent les droits de ses sujets. Pour garantir que les droits des individus ne soient pas bafoués, les cadres de gouvernance de l’IA doivent intégrer des normes qui respectent l’autonomie et la prise de décision des êtres humains.