Respecter les droits de la personne en intelligence artificielle
Au Québec, les produits, services et algorithmes utilisant l’intelligence artificielle doivent respecter les droits et libertés garantis par la Charte des droits et libertés de la personne. La Charte a préséance sur toute autre loi, règlement, politique, directive et code de conduite du Québec, sauf exception.
En matière de systèmes d’intelligence artificielle (SIA), plusieurs initiatives ont été prises pour tenter d'orienter et d'encadrer le développement des SIA, telles que la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Cette Déclaration tend à faciliter l'application de plusieurs droits et libertés, mais elle ne peut en garantir la conformité. La Charte a donc préséance sur la Déclaration de Montréal. En cas de doutes et de contradictions entre les deux textes, il est essentiel de se référer à la Charte pour développer des SIA respectant les droits de la personne.
| Les acteurs de l'industrie des SIA doivent respecter les droits de la personne. Ils pourraient être tenus responsables en cas de violation de droits.
|
-
Droits de la personne affectés par les SIA
1. La protection contre la discrimination
Même s’ils semblent neutres, les SIA peuvent avoir un effet discriminatoire sur certaines catégories de personnes. La Charte, à son article 10, protège contre la discrimination directe, mais également indirecte ou systémique fondée sur un ou plusieurs motifs interdits. La discrimination peut être non intentionnelle et tout de même constituer de la discrimination. Le recours aux SIA peut mener à des résultats discriminatoires de différentes façons.
EXEMPLES
Les algorithmes se basent sur des données d’entraînement, mais ces données peuvent contenir des biais discriminatoires qui ont des impacts sérieux sur certaines personnes ou certains groupes :
Lors de la mise en route de véhicules autonomes, si les images entraînant le véhicule pour éviter les accidents représentent peu de personnes à la peau foncée, ces personnes peuvent avoir un plus grand risque d’être frappées par de tels véhicules.
Si un système mis sur pied pour émettre des diagnostics médicaux se base sur des données issues de cliniques privées, il pourrait y avoir une sous-représentation des personnes provenant de milieux socioéconomiques moins favorisés. Par conséquent, les personnes sous-représentées dans les données d’entrainement risquent d’obtenir un taux d’erreur plus élevé dans les diagnostics.
Si un algorithme de prédiction de troubles de santé se base uniquement sur des données scientifiques concernant majoritairement les hommes, le risque d’erreur de diagnostic de troubles de santé chez les femmes sera plus élevé.
Lors d’une recherche d’images dans une base de données, un étiquetage non rigoureux et un manque de diversité dans les images pourraient engendrer des résultats biaisés (ex : une recherche d’images de chefs d’entreprises pourrait faire ressortir presque exclusivement des photos d’hommes blancs d’un certain âge).
Le tri de CV reçus pour occuper un poste peut contenir des biais discriminatoires dans la sélection. Par exemple, l’entrainement de l’algorithme qui est fait à partir de données où les femmes sont sous-représentées peut avoir pour résultat d’exclure les candidatures féminines.
Des biais genrés peuvent apparaître lors de traduction automatique si on débute d’une langue neutre (par exemple. l’anglais) vers une langue avec genres (par exemple, le français). La traduction automatique tend à invisibiliser les femmes et les stéréotyper.
Plusieurs appareils et ordinateurs comportent maintenant des SIA qui ne fonctionnent que sur de l’équipement récent. Cela accentue la fracture numérique pour les personnes qui n’ont pas accès à cet équipement.
Les SIA à reconnaissance vocale ne sont pas adaptés aux personnes ayant des troubles de langage, les privant de bénéficier de ces services.
Le predictive policing (police prédictive) favorise le profilage de personnes et de certains groupes en identifiant des individus à partir de profils comme étant susceptibles de commettre des crimes ou un certain type de crimes. Ces personnes peuvent se voir imposer des traitements différentiés comme de la surveillance fondée sur des probabilités et non des éléments de preuve. Cette forme de profilage peut avoir pour impact de marginaliser davantage certains groupes vulnérables.
Les logiciels de reconnaissance faciale ont un plus grand taux d’erreur dans l’identification des personnes racisées, particulièrement les femmes, les rendant plus susceptibles d’être accusées de crimes qu’elles n’ont pas commis. Par exemple, un homme racisé originaire du New Jersey a passé 10 jours en prison en 2019 après avoir été faussement identifié par un logiciel de reconnaissance faciale. Il était accusé d’un vol, alors qu’il se trouvait physiquement dans un autre État au moment où le crime avait été commis.
2. Le respect de la vie privée
Les SIA peuvent avoir un impact sur le droit à la vie privée des personnes. Le droit à la vie privée, protégé par l’article 5 de la Charte, inclut la protection des renseignements personnels, y compris les renseignements générés à l’aide de SIA, qui portent notamment sur :
- son état de santé
- son orientation sexuelle
- ses croyances
- l’état de ses finances.
Les renseignements personnels sont confidentiels et appartiennent à la personne visée. C’est elle qui choisit comment elle veut les utiliser et les communiquer. Un renseignement personnel ne peut donc pas être collecté et utilisé sans le consentement de la personne. Ce consentement doit être libre et éclairé, ce qui implique que la personne doit être informée de la raison pour laquelle ses renseignements personnels sont collectés et à quelle fin ils seront utilisés.
Les SIA se développent en se nourrissant massivement de données, y compris de renseignements personnels. La collecte de ces données à des fins d’entraînement et de traitement automatisé fait rarement l’objet d’un consentement explicite des personnes dont les données sont collectées et utilisées. L’absence d’un tel consentement peut constituer une violation du droit à la vie privée protégé par la Charte ainsi que d’autres droits et obligations reconnus dans les lois réglementant la collecte, la conservation, l’accès et la divulgation des renseignements personnels.
Les renseignements personnels doivent être hébergés et conservés en respectant les obligations juridiques et les droits des personnes afin d’en protéger leur confidentialité en protégeant notamment l’anonymat des personnes. Éviter les fuites de données et ne pas révéler des renseignements personnels peut contribuer au respect des obligations juridiques.
EXEMPLES
En plus de se nourrir initialement de données massives, les SIA se perfectionnent en s’alimentant des données entrées en cours d’utilisation, sans en garantir la confidentialité, ce qui constitue un enjeu de droit au respect à la vie privée.
Les appareils intelligents, issus de la téléphonie mobile ou de la domotique (réfrigérateur, fours, assistants vocaux, téléviseurs…), collectent des données sur l’activité, les préférences, l’alimentation, la santé, etc. des personnes. Ces données sont souvent cédées à des tierces parties à des fins commerciales, par exemple, pour effectuer de la publicité ciblée pour vendre leurs produits et services.
La surveillance du personnel sur les lieux de travail peut constituer une violation du droit au respect de la vie privée. Par exemple : un employeur qui surveille toutes les activités du personnel sur les ordinateurs de travail sans motifs raisonnables. Cela peut même compromettre son droit à des conditions de travail justes et raisonnables et qui respectent sa santé, sa sécurité et son intégrité physique, protégé par l’article 46 de la Charte.
La surveillance massive peut entrainer une négation du droit à la vie privée des personnes. Utiliser les SIA pour suivre les personnes en temps réel, répertorier leurs déplacements et les identifier comporte des enjeux pour le droit à la vie privée ainsi que le droit à la sûreté et l’intégrité de sa personne. Ce type de surveillance est rarement justifié.
3. Les droits démocratiques : le droit de vote et le droit à l’information
Les SIA peuvent avoir un impact sur les droits démocratiques. La Charte reconnait le droit de vote à son article 22 et le droit à l’information à son article 44.
Les SIA ont un impact croissant sur la démocratie, y compris sur les processus électoraux et les décisions politiques. Elles permettent un ciblage précis de l’électorat en utilisant des données de masse pour profiler les électeurs et électrices et pour leur proposer du contenu spécifiquement adapté.
EXEMPLES
Droit de voteIl existe des exemples où les SIA ont été utilisés pour manipuler l’opinion publique et interférer dans les processus électoraux, ce qui compromet l’exercice des droits démocratiques, tels que le droit de vote et le droit à l’information.
Le scandale Cambridge Analytica en 2018 en est un exemple. La compagnie exploitait des données personnelles collectées et utilisées de manière illégale pour développer et diffuser des publicités politiques très ciblées dans le but d’influencer les opinions politiques et les comportements électoraux lors de plusieurs élections, notamment aux États-Unis et au Royaume-Uni. Ce scandale a également soulevé d’importants enjeux concernant le droit à la vie privée et la protection des renseignements confidentiels. Au total, Cambridge Analytica aurait récolté, sans autorisation, les données personnelles de près de 87 millions d'utilisateurs et d’utilisatrices de Facebook dans le monde dont environ 622 000 personnes au Canada.
Voici d’autres exemples de façons dont les SIA peuvent compromettre l’exercice des droits démocratiques :
- Des SIA peuvent permettre la fabrication de fausses informations, notamment avec l’aide de l’hypertrucage, et les propager à une grande vitesse. Elles pourraient ainsi, dans certains cas, compromettre les résultats d’une élection démocratique.
- Des outils de modération mal calibrés peuvent également censurer des mots faisant partie de discours politiques et empêcher le public d’avoir accès à certaines informations pertinentes compromettant ainsi leur capacité à prendre une décision libre et éclairée.
Droit à l'information
L’opacité des SIA affecte la capacité des personnes à exercer pleinement leur droit à l’information. Voici quelques exemples d’obstacles que cette opacité crée quant à l’accès à l’information :
- Il y a un risque de manque de transparence dans l’utilisation de SIA dans la prise de décisions automatisées (ex : l’admissibilité d’une dépense à un régime d’assurances, l’admissibilité d’une personne à un programme ou l’octroi d’un prêt par une institution financière). Le droit à l’information pourrait être compromis si les algorithmes sur lesquels se fonde la prise de décision ne sont pas accessibles et compréhensibles.
- La désinformation sur les réseaux sociaux ou dans les fils de nouvelles est rapidement véhiculée, et parfois créée, par des SIA. Elle porte atteinte à la capacité des gens de se renseigner sur des concepts de manière appropriée et de choisir leurs sources d’informations de manière libre et éclairée. L’IA générative facilite la désinformation en permettant la création de faux contenu très rapidement.
- Les chambres d’écho, nourries par les algorithmes qui promeuvent du contenu viral, compromettent le droit à l’information des gens en limitant l’accès à certains contenus informatifs.
- Certains services automatisés, comme des robots conversationnels, n’indiquent pas toujours les limites de l’encadrement qu’ils peuvent fournir ni la base de connaissances sur laquelle ils sont fondés.
- La plupart des SIA sont entraînés à l’aide de données anglophones. Par conséquent, les personnes s’exprimant en d’autres langues jouissent de moins d’information et des bénéfices potentiels.
- Les entreprises qui créent des SIA invoquent le secret corporatif pour garder un voile d’opacité sur la composition des algorithmes et leur fonctionnement. Le manque ou l’absence de transparence sur les algorithmes nuit au droit à l’information.
4. Le droit à la vie, à la sûreté, à l’intégrité et à la liberté
Le droit à la vie, à la sûreté, à l’intégrité et à la liberté sont des droits sont fondamentaux et sont reconnus à toute personne humaine dès la naissance à l'article 1 de la Charte. Le droit à la vie, à la sûreté et à l’intégrité protègent les gens, entre autres, contre des actions et des situations qui peuvent avoir des conséquences importantes sur leur état physique, psychologique ou émotif. Le droit à la liberté garantit aussi aux personnes le droit d’agir et de prendre les décisions fondamentales qui les concernent sans subir de pression extérieure.
EXEMPLES
La surveillance que permet les SIA a un impact sur le droit à la liberté, mais également les droits à la vie, à la sûreté et à l’intégrité de sa personne :
La surveillance de masse permise par certains SIA peut décourager les gens de se déplacer ou de vaquer à certaines occupations, de peur de se faire reconnaitre.
Des drones qui comportent des SIA entraînés pour tuer des gens sans supervision humaine posent des questions en matière de respect de droits de la personne, y compris quant au droit à la vie, à l’intégrité et à la sûreté.
Les sons et images de personnes collectés pour enregistrer leurs mouvements et leurs comportements en vue de les identifier, de les suivre et/ou de prédire leurs prochaines actions ou leurs prochains choix et les influencer, restreignent la liberté de ces personnes.
Les hypertrucages (« deepfakes ») peuvent avoir un impact sur le droit à l’intégrité ainsi que le droit à la dignité des personnes représentées sur ces images créées artificiellement (ex : des adolescentes victimes de faux nus).
L’utilisation de SIA dans la prédiction de diagnostics de santé, sans révision par des spécialistes de la santé, peut occasionner des faux diagnostics pour les catégories de personnes moins bien représentées dans les données d’entrainement. Cela peut avoir un impact direct sur leur droit à la vie, à l’intégrité et à la sûreté. Par exemple, pour les personnes à la peau foncée, les algorithmes de détection des lésions de cancer de la peau performent moins bien en raison de leur sous-représentation ces personnes dans les données d’entraînement.
Dans le contexte du travail, surveiller le personnel en tout temps peut entraver sa liberté de mouvement. Il peut résulter une crainte de se faire surveiller et pénaliser.
5. La liberté de religion, de conscience, d’opinion et d’expression
La liberté de religion, de conscience, d’opinion et d’expression font partie des libertés et des droits fondamentaux protégés par l'article 3 de la Charte des droits et libertés de la personne.
La liberté de religion et conscience protège la liberté de chaque personne d’avoir les croyances religieuses de son choix, de les pratiquer et de les exprimer sans crainte ni représailles ainsi que du droit de ne pas pratiquer de religion. La liberté d’expression et d’opinion inclut le droit d’exprimer des opinions controversées et dérangeantes, ainsi que de critiquer des idées et des valeurs sans avoir peur de subir des représailles.
EXEMPLES
Certaines plateformes ont mis en place des processus de modération des contenus, visant notamment les propos haineux, la désinformation, l’incitation à la violence et la violence sexuelle. Des algorithmes formés pour censurer certaines expressions ou mots peuvent manquer certains contextes d’utilisation de ces expressions et ainsi limiter la liberté d’expression de certaines personnes.
Plusieurs SIA filtrent et hiérarchisent les contenus d’information que les utilisateurs et utilisatrices peuvent voir en mettant de l’avant certains plutôt que d’autres en raison des profits qu’ils engrangent de la visibilité qu’ils offrent à certains contenus. Cela peut avoir pour impact de limiter la diversité d’opinions en réduisant la visibilité de certaines personnes, y compris des groupes marginalisés ou minoritaires.
La surveillance de masse à travers des logiciels de reconnaissance faciale ou la surveillance en ligne peut, dans certains contextes, mener à du profilage politique, affectant la possibilité des personnes de manifester et de s’associer avec des gens ou groupes qui rejoignent leurs valeurs.
6. Le droit à la dignité, à la réputation et l’honneur
La dignité, c'est le respect que mérite chaque personne en tant qu'être humain. La Charte reconnait à l'article 4 le droit à la sauvegarde de sa dignité, de son honneur et de sa réputation.
EXEMPLES
Les SIA d’hypertrucage permettent la reproduction des voix ou de l’apparence physique de personnes. La création d’images, de vidéos ou d’enregistrements sonores avec l’hypertrucage peut porter atteinte à la dignité et à la réputation d’une personne (ex : des fausses photos de nature sexuelle de femmes et d’adolescentes, la création d’une vidéo truquée montrant une personne faisant des déclarations controversées).
Il en va de même pour la désinformation et la génération de fausses nouvelles par les SIA. Lorsqu’on crée et diffuse de fausses nouvelles à connotation négative concernent certaines personnes, elles s’en voient affectées, et leur réputation, entachée. Même une rectification des faits peut difficilement éliminer les dommages causés à la réputation d’une personne.
7. Le droit à un environnement sain
Au Québec, toute personne a droit à un environnement sain et respectueux de la biodiversité comme le reconnait la Charte à l'article 46.1. En raison des ressources intensives nécessaires pour faire fonctionner les SIA, on peut s’interroger sur la compatibilité d’un déploiement large des SIA avec la protection de l’environnement.
EXEMPLES
Les SIA nécessitent beaucoup de ressources et d’énergie pour fonctionner, ce qui a un impact direct sur notre environnement et la lutte au réchauffement climatique :
La constitution de base de données massives pour entrainer et faire fonctionner des SIA nécessite une grande quantité de serveurs. Ces serveurs nécessitent à leur tour de larges ressources énergétiques pour fonctionner en plus de l’énergie nécessaire à leur refroidissement. Celle-ci sert à contrer la grande chaleur qu’ils dégagent. Cette grande consommation d’énergie peut avoir un impact négatif sur l’environnement et la lutte au réchauffement climatique.
L’extraction des métaux nécessaires à la création des infrastructures de SIA appauvrit les sols et les contamine. Elle contamine également l’eau.
La fabrication, le transport, l’alimentation et la disposition en fin de vie de l’équipement engendrent des gaz à effet de serre. L’impact environnemental peut être multiplié lorsque l’alimentation énergétique n’est pas issue d'un mode d’énergie durable.
Les impacts environnementaux pourraient s’amplifier avec le déploiement à grande échelle des IA génératives, qui permettent de créer du contenu tant écrit que multimédia. L'empreinte énergétique varie d'un modèle à l'autre, mais considérant les millions de personnes qui utilisent ChatGPT, Copilot et autres applications d’IA générative tous les jours, c’est une préoccupation non négligeable.
-
Bonnes pratiques pour des SIA respectant les droits de la personne
Les sections précédentes ont montré que les SIA peuvent avoir des impacts négatifs sur les droits de la personne. Ces impacts affectent de manière disproportionnée certaines communautés. Ces technologies, si elles ne sont pas correctement élaborées, peuvent renforcer les inégalités existantes et porter atteinte aux droits et libertés de plusieurs catégories de personnes.
Cependant, il est possible de prévenir et d’agir sur ces impacts négatifs en adoptant de bonnes pratiques. Cette adoption contribue à réduire les risques de violations de droits de la personne dans l’optique de minimiser les risques et maximiser les bénéfices de cette technologie. Plusieurs de ces pratiques sont en fait des obligations légales.
Voici quelques exemples de bonnes pratiques recensées dans l'industrie des SIA :
Composition et formation du personnel
- Avoir une diversité de personnes et de profils qui composent les équipes de développement des SIA à toutes les étapes.
- Mettre en place un milieu de travail inclusif pour assurer une diversité de personnes dans les équipes de travail.
- Former toutes les parties prenantes aux droits de la personne et aux autres normes en place à respecter, notamment en matière de protection des renseignements personnels.
Recherche et analyse
- Analyser le risque que les données d’entrainement contiennent des biais discriminatoires pour chaque SIA.
- Effectuer une analyse différenciée selon les sexes plus (ADS+) des SIA pour identifier les impacts néfastes potentiels et les corriger avant le déploiement.
- Participer à des réseaux et des forums qui peuvent apporter de l’expertise sur les pièges à éviter, notamment les biais discriminatoires.
- Analyser la quantité de données réellement nécessaire à l’entrainement des SIA pour minimiser l’espace de serveur nécessaire.
- Faire une évaluation d’impact, particulièrement sur la vie privée des personnes et sur l’environnement, avant l’élaboration d’un SIA.
Transparence et consentement
- Avertir les parties prenantes et les autorités concernées dès que possible en cas de fuite de données.
- Indiquer et expliquer clairement les objectifs, les usages, les données collectées et le fonctionnement du SIA aux personnes qui l’utilisent et à celles de qui on collecte les données.
- Avertir clairement les personnes visées lors d’une prise de décision automatisée les concernant.
- Obtenir le consentement libre et éclairé des personnes visées par la collecte de données pour la collecte et l’utilisation de leurs données.
Développement et infrastructures
- Miser sur les principes de l’IA frugale lors de la création de nouveaux SIA pour minimiser les impacts sur l’environnement.
- Intégrer des parties prenantes des publics visés dans le développement d’un SIA.
- Étiqueter les données de façon rigoureuse et exhaustive afin qu’elles reflètent une large réalité.
- Héberger les données de façon sécuritaire pour en garantir la confidentialité et la protection.
- Effectuer les choix technologiques qui permettront d’avoir le moindre impact possible sur l’environnement.
Tests et révision
- Piloter les SIA dans des bacs à sable (des endroits spécifiques pour effectuer des tests), et s'interroger sur les résultats préliminaires lors des phases d’essai.
- Faire des tests et des évaluations d’impact périodiquement après le déploiement.
- Prévoir un mécanisme de révision humaine des décisions automatisées lorsque les personnes visées constatent un non-respect des droits.
-
Sources et ressources utiles sur les droits de la personne et les SIA
- Charte des droits et libertés de la personne Version originale | Version simplifiée
- État de la situation sur les impacts sociétaux de l’intelligence artificielle et du numérique
- Mémoire à la Commission d'accès à l'informations sur l'intelligence artificielle
- Déclaration de Montréal sur le développement responsable de l’intelligence artificielle
- Formulaire du Guide des bonnes pratiques en IA: Disposition de la Loi 25 et bonnes pratiques
- Énoncé de principes pour une utilisation responsable de l’intelligence artificielle par les organismes publics
- Gouverner l’IA au bénéfice de l’humanité
- Éthique de l'intelligence artificielle, UNESCO
- Guide des bonnes pratiques en intelligence artificielle: Sept principes pour une utilisation responsable des données

Le contenu de cette page a été élaboré en collaboration avec l'Observatoire international sur les impacts sociétaux de l'IA et du numérique (OBVIA). Créé en 2019, l'OBVIA encourage la recherche intersectorielle sur les impacts sociétaux de l'IA et du numérique, accompagne l’écosystème québécois dans le développement de l’intelligence artificielle, et valorise la recherche québécoise au niveau international.