En matière d'IA éthique, il est préférable de se concentrer sur l'éthique, pas sur l'IA
En matière d'IA éthique, il est préférable de se concentrer sur l'éthique, pas sur l'IA



Julien Theys d'Agilytic partage son point de vue sur l'IA éthique. Découvrez les personnes, les processus et les outils nécessaires pour utiliser l'IA a des fins bienveillantes.
Julien Theys d'Agilytic partage son point de vue sur l'IA éthique. Découvrez les personnes, les processus et les outils nécessaires pour utiliser l'IA a des fins bienveillantes.
Julien Theys d'Agilytic partage son point de vue sur l'IA éthique. Découvrez les personnes, les processus et les outils nécessaires pour utiliser l'IA a des fins bienveillantes.
Malgré le potentiel d'accélération des processus commerciaux et d'amélioration de l'efficacité, l'intelligence artificielle (IA) peut causer des dommages graves et irréparables à notre société si elle n'est pas utilisée avec prudence.
L'IA non éthique trouvée dans les modèles mathématiques utilisés par les organisations peut représenter aujourd'hui des menaces imminentes et moins visibles. Ce qui soulève la question : que signifie utiliser l'IA de manière responsable, équitable et éthique ?
Nous avons rencontré Julien Theys, Managing Partner d'Agilytic, pour discuter des dangers de la mauvaise utilisation de l'IA et de la manière de développer l'IA pour le bien. Agilytic aide les entreprises à utiliser plus intelligemment leurs données, conceptualisant et développant des projets d'IA pour diverses industries depuis 2015.
Qu'est-ce que l'IA éthique ?
L'IA automatise la prise de décision et se trouve dans les technologies quotidiennes que nous utilisons, d'Azure à Amazon, Facebook et Google. En informatisant des tâches qui nécessiteraient autrement une intelligence humaine, l'IA nous aide à découvrir de nouvelles perspectives, à trouver des schémas et à résoudre des problèmes en automatisant totalement ou partiellement le processus décisionnel.
L'IA contient divers sous-domaines que vous avez peut-être déjà entendus, y compris; le Machine Learning, le Deep Learning, les réseaux de neurones, le Big Data et le traitement du langage naturel.
En grande partie à cause du scandale célèbre de Cambridge Analytica de Facebook, le concept d'IA éthique gagne en popularité d'année en année, émergeant dans nos flux sociaux et cercles de conférences.
Éthique - l'étude de ce qui est moralement juste et injuste, ou un ensemble de croyances sur ce qui est moralement juste et injuste. - Cambridge Dictionary
Dans un domaine naissant, il y a peu de consensus sur la définition de l'IA éthique et digne de confiance. « Nous devons intégrer l'éthique dans l'IA en nous concentrant sur l'aspect humain, les personnes développant la technologie. Les intentions malveillantes, où les gens utilisent les données pour faire du mal, capturent les gros titres et l'imagination ; mais elles sont souvent une partie moindre du problème. Plus souvent, nous voyons de l'incompétence et de la mauvaise compréhension derrière l'IA non éthique, où de bonnes personnes avec de bonnes intentions utilisent de mauvaises données, ou les utilisent mal », partage Julien,
« Il y a cette citation, ‘Ne jamais attribuer à la malice ce qui peut être attribué à la stupidité.’ Bien qu'une grande partie du débat se concentre sur la malice, nous ne devons pas oublier nos propres limites et intégrer les vérifications dans le processus .»
Les causes profondes de l'IA non éthique
Quand l'IA « se trompe », c'est généralement le produit d'un processus de développement mal pensé et d'une définition de problème non éthique, du manque de données de qualité pour représenter équitablement un groupe de personnes, de l'utilisation d'une boucle de rétroaction discriminatoire, de la mauvaise utilisation des résultats au fil du temps, ou d'une combinaison de ces problèmes. Si nous examinons la perspective plus large derrière les systèmes IA, la réponse devient claire :
« Nous devons minimiser les biais inhérents créés par ceux qui développent l'IA, car souvent l'IA non éthique provient d'erreurs humaines. Il y a toujours quelqu'un derrière l'algorithme. Déshumaniser l'IA et blâmer les outils n'est pas la manière d'avancer », dit Julien.
« Dans ce débat, la presse joue également un rôle éducatif important. Il est très facile d'attirer l'attention en affirmant, ‘Un algorithme a privé 500.000 personnes d'eau courante’. Il serait plus correct d'expliquer que ‘Des personnes recrutées pour améliorer les flux d'eau ont visiblement fait une erreur qui a eu des conséquences dramatiques.’ Vous racontez la même histoire, mais l'acteur et l'intention sont complètement opposés. »
Si beaucoup d'entre nous ignorent nos véritables motivations et biais inconscients, la discussion sur l'IA éthique ne devrait pas être purement technique mais devrait aborder ce qui est juste et digne de confiance ? Et comment traduisons-nous l'équité en chiffres pour éliminer les biais ?
Où nous voyons l'IA non éthique
De nombreux cas d'IA bien connus ont été exposés comme non éthiques, alimentant les feux omniprésents de la discrimination, de l'inégalité et de la désinformation.
L'IA a trouvé sa place dans le scoring de crédit, le traitement des demandes de prêt et d'emploi, la reconnaissance faciale et d'autres cas d'utilisation sensibles. Elle a également été utilisée pour propager des messages de chatbot haineux, des fausses nouvelles, des voix, des vidéos, des images ou des ‘deepfakes’.
« Ce qui arrive souvent, c'est que nous voyons un double usage des technologies. Des technologies qui peuvent être utilisées pour de bons et de mauvais résultats. Ici, ce n'est pas la faute d'une technologie mal conçue, mais des intentions malveillantes et d'un mauvais usage. Ces technologies ont des vulnérabilités où les développeurs peuvent ne pas connaître la bête qu'ils créent. Nous avons une fois refusé un projet en raison des implications non éthiques qu'il avait, où le prospect n'avait pas réalisé que c'était non éthique au début, car parfois ce n'est pas évident », remarque Julien.
Évaluer le danger des modèles IA
Le livre de Cathy O'Neil “Weapons of Math Destruction” est souvent mentionné pour déterminer les trois principaux facteurs qui rendent les modèles IA dangereux et défectueux :
1. Secret - Certaines parties sont justifiées, c'est-à-dire pour éviter qu'un algorithme ne devienne vulnérable, ce qui pourrait conduire à des résultats désastreux. Mais sans transparence, comment savons-nous qu'il n'y a pas de manipulation pour des intérêts personnels ? Comment enquêter sur le processus de décision derrière les systèmes d'automatisation ? Les règles de l'IA éthique de la Commission Européenne encouragent la transparence.
2. Échelle - Combien de personnes les algorithmes peuvent-ils impacter, et l'IA peut-elle établir des normes et amplifier les biais ? Peut-elle évoluer et croître de manière exponentielle ?
3. Potentiel de nuire - L'impact social et sociétal doit être soigneusement considéré. De nombreux modèles existent avec des hypothèses intégrées, beaucoup d'entre elles biaisées et injustes, et peuvent avoir un impact significatif sur de larges groupes de personnes.
L'IA a un potentiel énorme pour l'impact social et sociétal. Par conséquent, nous devons nous assurer que les systèmes IA n'utilisent pas de données biaisées pour renforcer un cycle qui exacerbe les inégalités actuelles. Au contraire, nous pouvons utiliser les algorithmes et systèmes IA pour aborder les inégalités et les transformer en opportunités de bien faire.
Comment construisons-nous une IA en laquelle nous pouvons avoir confiance ?
« Il peut être inutile de réglementer un algorithme ou un système IA, et nous devons être prudents pour ne pas réglementer à l'excès, ce qui freinerait l'innovation. Mais cela ne veut pas dire que nous ne pouvons pas prendre des mesures pour développer une IA plus éthique », note Julien.
Face aux miroirs déformants de l'autorégulation, Facebook a demandé une réglementation gouvernementale plus claire pour les géants des médias sociaux. Après le scandale de Cambridge Analytica, Facebook a développé une équipe IA Responsable pour s'attaquer aux biais IA et examiner l'impact de leurs algorithmes sur la désinformation, la polarisation politique et l'extrémisme. Joaquin Quiñonero Candela, directeur de l'IA chez Facebook, a expliqué leurs luttes avec Karen Hao de MIT Technology Review.
Karen a partagé sur LinkedIn : « Il ne s'agit pas de personnes corrompues faisant des choses corrompues. Ce serait simple. Il s'agit de bonnes personnes vraiment essayant de faire la bonne chose. Mais elles sont piégées dans un système pourri, essayant de pousser de leur mieux le statu quo qui ne bouge pas. Ce reportage m'a convaincu que l'autorégulation ne fonctionne pas et ne peut pas fonctionner. »
Alors, quel est le rôle de la réglementation ?
En Europe, des organisations ont appelé à un cadre réglementaire complet pour l'IA, et une législation est en cours d'élaboration. Au 21 avril 2021, la Commission a proposé une proposition de réglementation horizontale sur l'IA pour offrir des étapes concrètes de mise en œuvre dans tous les secteurs. Selon le site de la Commission, « Cette initiative garantira que l'IA est sûre, légale et en ligne avec les droits fondamentaux de l'UE. L'objectif global est de stimuler l'adoption de l'IA digne de confiance dans l'économie de l'UE. » Cependant, une approche universelle peut ne pas refléter les avantages et les risques uniques de l'application de l'IA à différents secteurs.
« La plupart de la réglementation et des cadres nécessaires existent déjà, et dans une pratique à long terme, pour nombre des industries avec lesquelles nous travaillons. La réglementation détaillant des pratiques équitables et éthiques reste principalement la même lorsqu'on applique l'IA. Par exemple, si vous travaillez pour une banque et ne refuseriez pas un prêt à quelqu'un simplement parce que la valeur de sa propriété est basse selon votre base de données, pourquoi laisseriez-vous un système IA le faire ? C'est non éthique car cela peut exclure de nombreuses personnes déjà désavantagées. L'éthique de la réglementation existante se résume toujours aux utilisations, pas à la technologie », explique Julien.
Développer un cadre de risque d'IA éthique
En tant que point de départ, les organisations devraient promouvoir des pratiques d'IA éthiques dès la phase de conception initiale d'un algorithme.
L'étape suivante est d'attribuer des niveaux d'intervention. Cela pourrait dépendre des trois facteurs mentionnés précédemment : secret, échelle et potentiel de nuire. Un exemple d'intervention est de formuler et de suivre une ‘checklist éthique’ contre les biais implicites de genre, de race, de religion, de classe, de codes postaux et d'autres domaines de risque éthique — et de surveiller toute déviation au fil du temps.
Julien partage, « Pour développer des algorithmes qui prennent des décisions éthiques, nous devons éviter de perpétuer les biais à tout prix et planifier le potentiel d'intention négative, et stresser tester contre les conséquences négatives non désirées. Une checklist peut systématiser explicitement l'éthique derrière le développement des algorithmes. En intégrant de meilleures valeurs dans nos algorithmes, il y a une interprétation plus claire de ce à quoi la technologie est utilisée et comment elle pourrait être mal utilisée .»
Dans la plupart des cas, ce n’est pas la technologie qui est perturbatrice, mais la manière dont les organisations utilisent la technologie pour bouleverser les modèles économiques existants, permettre de nouveaux modèles, et s'engagent à surveiller continuellement. Dans le cas de l'IA, cela signifiera placer l'éthique avant le profit.
Dernières réflexions
« Nous devons nous rappeler que l'histoire peut ne pas se répéter, mais elle rime. Nous avons vu des erreurs dans les machines depuis plus de quarante ans, depuis que les bases de données ont fait leurs débuts. À l'époque, les intentions derrière les schémas de bases de données étaient rarement remises en question dans leur développement. Donc c'est bien de voir que le sujet de l'IA éthique soit un centre d'intérêt croissant pour de nombreuses organisations, entreprises technologiques et institutions », ajoute Julien.
Impliquer non seulement les développeurs, mais aussi les avocats, les citoyens et d'autres décideurs autour de la table pour mettre en œuvre les cadres d'IA éthique est crucial. Aujourd'hui, il y a trop de zone grise entre faire le bien et causer du tort avec l'IA. Nous devons nous rappeler que l'éthique de l'IA se résume à l'éthique de ceux qui sont derrière elle.
Malgré le potentiel d'accélération des processus commerciaux et d'amélioration de l'efficacité, l'intelligence artificielle (IA) peut causer des dommages graves et irréparables à notre société si elle n'est pas utilisée avec prudence.
L'IA non éthique trouvée dans les modèles mathématiques utilisés par les organisations peut représenter aujourd'hui des menaces imminentes et moins visibles. Ce qui soulève la question : que signifie utiliser l'IA de manière responsable, équitable et éthique ?
Nous avons rencontré Julien Theys, Managing Partner d'Agilytic, pour discuter des dangers de la mauvaise utilisation de l'IA et de la manière de développer l'IA pour le bien. Agilytic aide les entreprises à utiliser plus intelligemment leurs données, conceptualisant et développant des projets d'IA pour diverses industries depuis 2015.
Qu'est-ce que l'IA éthique ?
L'IA automatise la prise de décision et se trouve dans les technologies quotidiennes que nous utilisons, d'Azure à Amazon, Facebook et Google. En informatisant des tâches qui nécessiteraient autrement une intelligence humaine, l'IA nous aide à découvrir de nouvelles perspectives, à trouver des schémas et à résoudre des problèmes en automatisant totalement ou partiellement le processus décisionnel.
L'IA contient divers sous-domaines que vous avez peut-être déjà entendus, y compris; le Machine Learning, le Deep Learning, les réseaux de neurones, le Big Data et le traitement du langage naturel.
En grande partie à cause du scandale célèbre de Cambridge Analytica de Facebook, le concept d'IA éthique gagne en popularité d'année en année, émergeant dans nos flux sociaux et cercles de conférences.
Éthique - l'étude de ce qui est moralement juste et injuste, ou un ensemble de croyances sur ce qui est moralement juste et injuste. - Cambridge Dictionary
Dans un domaine naissant, il y a peu de consensus sur la définition de l'IA éthique et digne de confiance. « Nous devons intégrer l'éthique dans l'IA en nous concentrant sur l'aspect humain, les personnes développant la technologie. Les intentions malveillantes, où les gens utilisent les données pour faire du mal, capturent les gros titres et l'imagination ; mais elles sont souvent une partie moindre du problème. Plus souvent, nous voyons de l'incompétence et de la mauvaise compréhension derrière l'IA non éthique, où de bonnes personnes avec de bonnes intentions utilisent de mauvaises données, ou les utilisent mal », partage Julien,
« Il y a cette citation, ‘Ne jamais attribuer à la malice ce qui peut être attribué à la stupidité.’ Bien qu'une grande partie du débat se concentre sur la malice, nous ne devons pas oublier nos propres limites et intégrer les vérifications dans le processus .»
Les causes profondes de l'IA non éthique
Quand l'IA « se trompe », c'est généralement le produit d'un processus de développement mal pensé et d'une définition de problème non éthique, du manque de données de qualité pour représenter équitablement un groupe de personnes, de l'utilisation d'une boucle de rétroaction discriminatoire, de la mauvaise utilisation des résultats au fil du temps, ou d'une combinaison de ces problèmes. Si nous examinons la perspective plus large derrière les systèmes IA, la réponse devient claire :
« Nous devons minimiser les biais inhérents créés par ceux qui développent l'IA, car souvent l'IA non éthique provient d'erreurs humaines. Il y a toujours quelqu'un derrière l'algorithme. Déshumaniser l'IA et blâmer les outils n'est pas la manière d'avancer », dit Julien.
« Dans ce débat, la presse joue également un rôle éducatif important. Il est très facile d'attirer l'attention en affirmant, ‘Un algorithme a privé 500.000 personnes d'eau courante’. Il serait plus correct d'expliquer que ‘Des personnes recrutées pour améliorer les flux d'eau ont visiblement fait une erreur qui a eu des conséquences dramatiques.’ Vous racontez la même histoire, mais l'acteur et l'intention sont complètement opposés. »
Si beaucoup d'entre nous ignorent nos véritables motivations et biais inconscients, la discussion sur l'IA éthique ne devrait pas être purement technique mais devrait aborder ce qui est juste et digne de confiance ? Et comment traduisons-nous l'équité en chiffres pour éliminer les biais ?
Où nous voyons l'IA non éthique
De nombreux cas d'IA bien connus ont été exposés comme non éthiques, alimentant les feux omniprésents de la discrimination, de l'inégalité et de la désinformation.
L'IA a trouvé sa place dans le scoring de crédit, le traitement des demandes de prêt et d'emploi, la reconnaissance faciale et d'autres cas d'utilisation sensibles. Elle a également été utilisée pour propager des messages de chatbot haineux, des fausses nouvelles, des voix, des vidéos, des images ou des ‘deepfakes’.
« Ce qui arrive souvent, c'est que nous voyons un double usage des technologies. Des technologies qui peuvent être utilisées pour de bons et de mauvais résultats. Ici, ce n'est pas la faute d'une technologie mal conçue, mais des intentions malveillantes et d'un mauvais usage. Ces technologies ont des vulnérabilités où les développeurs peuvent ne pas connaître la bête qu'ils créent. Nous avons une fois refusé un projet en raison des implications non éthiques qu'il avait, où le prospect n'avait pas réalisé que c'était non éthique au début, car parfois ce n'est pas évident », remarque Julien.
Évaluer le danger des modèles IA
Le livre de Cathy O'Neil “Weapons of Math Destruction” est souvent mentionné pour déterminer les trois principaux facteurs qui rendent les modèles IA dangereux et défectueux :
1. Secret - Certaines parties sont justifiées, c'est-à-dire pour éviter qu'un algorithme ne devienne vulnérable, ce qui pourrait conduire à des résultats désastreux. Mais sans transparence, comment savons-nous qu'il n'y a pas de manipulation pour des intérêts personnels ? Comment enquêter sur le processus de décision derrière les systèmes d'automatisation ? Les règles de l'IA éthique de la Commission Européenne encouragent la transparence.
2. Échelle - Combien de personnes les algorithmes peuvent-ils impacter, et l'IA peut-elle établir des normes et amplifier les biais ? Peut-elle évoluer et croître de manière exponentielle ?
3. Potentiel de nuire - L'impact social et sociétal doit être soigneusement considéré. De nombreux modèles existent avec des hypothèses intégrées, beaucoup d'entre elles biaisées et injustes, et peuvent avoir un impact significatif sur de larges groupes de personnes.
L'IA a un potentiel énorme pour l'impact social et sociétal. Par conséquent, nous devons nous assurer que les systèmes IA n'utilisent pas de données biaisées pour renforcer un cycle qui exacerbe les inégalités actuelles. Au contraire, nous pouvons utiliser les algorithmes et systèmes IA pour aborder les inégalités et les transformer en opportunités de bien faire.
Comment construisons-nous une IA en laquelle nous pouvons avoir confiance ?
« Il peut être inutile de réglementer un algorithme ou un système IA, et nous devons être prudents pour ne pas réglementer à l'excès, ce qui freinerait l'innovation. Mais cela ne veut pas dire que nous ne pouvons pas prendre des mesures pour développer une IA plus éthique », note Julien.
Face aux miroirs déformants de l'autorégulation, Facebook a demandé une réglementation gouvernementale plus claire pour les géants des médias sociaux. Après le scandale de Cambridge Analytica, Facebook a développé une équipe IA Responsable pour s'attaquer aux biais IA et examiner l'impact de leurs algorithmes sur la désinformation, la polarisation politique et l'extrémisme. Joaquin Quiñonero Candela, directeur de l'IA chez Facebook, a expliqué leurs luttes avec Karen Hao de MIT Technology Review.
Karen a partagé sur LinkedIn : « Il ne s'agit pas de personnes corrompues faisant des choses corrompues. Ce serait simple. Il s'agit de bonnes personnes vraiment essayant de faire la bonne chose. Mais elles sont piégées dans un système pourri, essayant de pousser de leur mieux le statu quo qui ne bouge pas. Ce reportage m'a convaincu que l'autorégulation ne fonctionne pas et ne peut pas fonctionner. »
Alors, quel est le rôle de la réglementation ?
En Europe, des organisations ont appelé à un cadre réglementaire complet pour l'IA, et une législation est en cours d'élaboration. Au 21 avril 2021, la Commission a proposé une proposition de réglementation horizontale sur l'IA pour offrir des étapes concrètes de mise en œuvre dans tous les secteurs. Selon le site de la Commission, « Cette initiative garantira que l'IA est sûre, légale et en ligne avec les droits fondamentaux de l'UE. L'objectif global est de stimuler l'adoption de l'IA digne de confiance dans l'économie de l'UE. » Cependant, une approche universelle peut ne pas refléter les avantages et les risques uniques de l'application de l'IA à différents secteurs.
« La plupart de la réglementation et des cadres nécessaires existent déjà, et dans une pratique à long terme, pour nombre des industries avec lesquelles nous travaillons. La réglementation détaillant des pratiques équitables et éthiques reste principalement la même lorsqu'on applique l'IA. Par exemple, si vous travaillez pour une banque et ne refuseriez pas un prêt à quelqu'un simplement parce que la valeur de sa propriété est basse selon votre base de données, pourquoi laisseriez-vous un système IA le faire ? C'est non éthique car cela peut exclure de nombreuses personnes déjà désavantagées. L'éthique de la réglementation existante se résume toujours aux utilisations, pas à la technologie », explique Julien.
Développer un cadre de risque d'IA éthique
En tant que point de départ, les organisations devraient promouvoir des pratiques d'IA éthiques dès la phase de conception initiale d'un algorithme.
L'étape suivante est d'attribuer des niveaux d'intervention. Cela pourrait dépendre des trois facteurs mentionnés précédemment : secret, échelle et potentiel de nuire. Un exemple d'intervention est de formuler et de suivre une ‘checklist éthique’ contre les biais implicites de genre, de race, de religion, de classe, de codes postaux et d'autres domaines de risque éthique — et de surveiller toute déviation au fil du temps.
Julien partage, « Pour développer des algorithmes qui prennent des décisions éthiques, nous devons éviter de perpétuer les biais à tout prix et planifier le potentiel d'intention négative, et stresser tester contre les conséquences négatives non désirées. Une checklist peut systématiser explicitement l'éthique derrière le développement des algorithmes. En intégrant de meilleures valeurs dans nos algorithmes, il y a une interprétation plus claire de ce à quoi la technologie est utilisée et comment elle pourrait être mal utilisée .»
Dans la plupart des cas, ce n’est pas la technologie qui est perturbatrice, mais la manière dont les organisations utilisent la technologie pour bouleverser les modèles économiques existants, permettre de nouveaux modèles, et s'engagent à surveiller continuellement. Dans le cas de l'IA, cela signifiera placer l'éthique avant le profit.
Dernières réflexions
« Nous devons nous rappeler que l'histoire peut ne pas se répéter, mais elle rime. Nous avons vu des erreurs dans les machines depuis plus de quarante ans, depuis que les bases de données ont fait leurs débuts. À l'époque, les intentions derrière les schémas de bases de données étaient rarement remises en question dans leur développement. Donc c'est bien de voir que le sujet de l'IA éthique soit un centre d'intérêt croissant pour de nombreuses organisations, entreprises technologiques et institutions », ajoute Julien.
Impliquer non seulement les développeurs, mais aussi les avocats, les citoyens et d'autres décideurs autour de la table pour mettre en œuvre les cadres d'IA éthique est crucial. Aujourd'hui, il y a trop de zone grise entre faire le bien et causer du tort avec l'IA. Nous devons nous rappeler que l'éthique de l'IA se résume à l'éthique de ceux qui sont derrière elle.
Malgré le potentiel d'accélération des processus commerciaux et d'amélioration de l'efficacité, l'intelligence artificielle (IA) peut causer des dommages graves et irréparables à notre société si elle n'est pas utilisée avec prudence.
L'IA non éthique trouvée dans les modèles mathématiques utilisés par les organisations peut représenter aujourd'hui des menaces imminentes et moins visibles. Ce qui soulève la question : que signifie utiliser l'IA de manière responsable, équitable et éthique ?
Nous avons rencontré Julien Theys, Managing Partner d'Agilytic, pour discuter des dangers de la mauvaise utilisation de l'IA et de la manière de développer l'IA pour le bien. Agilytic aide les entreprises à utiliser plus intelligemment leurs données, conceptualisant et développant des projets d'IA pour diverses industries depuis 2015.
Qu'est-ce que l'IA éthique ?
L'IA automatise la prise de décision et se trouve dans les technologies quotidiennes que nous utilisons, d'Azure à Amazon, Facebook et Google. En informatisant des tâches qui nécessiteraient autrement une intelligence humaine, l'IA nous aide à découvrir de nouvelles perspectives, à trouver des schémas et à résoudre des problèmes en automatisant totalement ou partiellement le processus décisionnel.
L'IA contient divers sous-domaines que vous avez peut-être déjà entendus, y compris; le Machine Learning, le Deep Learning, les réseaux de neurones, le Big Data et le traitement du langage naturel.
En grande partie à cause du scandale célèbre de Cambridge Analytica de Facebook, le concept d'IA éthique gagne en popularité d'année en année, émergeant dans nos flux sociaux et cercles de conférences.
Éthique - l'étude de ce qui est moralement juste et injuste, ou un ensemble de croyances sur ce qui est moralement juste et injuste. - Cambridge Dictionary
Dans un domaine naissant, il y a peu de consensus sur la définition de l'IA éthique et digne de confiance. « Nous devons intégrer l'éthique dans l'IA en nous concentrant sur l'aspect humain, les personnes développant la technologie. Les intentions malveillantes, où les gens utilisent les données pour faire du mal, capturent les gros titres et l'imagination ; mais elles sont souvent une partie moindre du problème. Plus souvent, nous voyons de l'incompétence et de la mauvaise compréhension derrière l'IA non éthique, où de bonnes personnes avec de bonnes intentions utilisent de mauvaises données, ou les utilisent mal », partage Julien,
« Il y a cette citation, ‘Ne jamais attribuer à la malice ce qui peut être attribué à la stupidité.’ Bien qu'une grande partie du débat se concentre sur la malice, nous ne devons pas oublier nos propres limites et intégrer les vérifications dans le processus .»
Les causes profondes de l'IA non éthique
Quand l'IA « se trompe », c'est généralement le produit d'un processus de développement mal pensé et d'une définition de problème non éthique, du manque de données de qualité pour représenter équitablement un groupe de personnes, de l'utilisation d'une boucle de rétroaction discriminatoire, de la mauvaise utilisation des résultats au fil du temps, ou d'une combinaison de ces problèmes. Si nous examinons la perspective plus large derrière les systèmes IA, la réponse devient claire :
« Nous devons minimiser les biais inhérents créés par ceux qui développent l'IA, car souvent l'IA non éthique provient d'erreurs humaines. Il y a toujours quelqu'un derrière l'algorithme. Déshumaniser l'IA et blâmer les outils n'est pas la manière d'avancer », dit Julien.
« Dans ce débat, la presse joue également un rôle éducatif important. Il est très facile d'attirer l'attention en affirmant, ‘Un algorithme a privé 500.000 personnes d'eau courante’. Il serait plus correct d'expliquer que ‘Des personnes recrutées pour améliorer les flux d'eau ont visiblement fait une erreur qui a eu des conséquences dramatiques.’ Vous racontez la même histoire, mais l'acteur et l'intention sont complètement opposés. »
Si beaucoup d'entre nous ignorent nos véritables motivations et biais inconscients, la discussion sur l'IA éthique ne devrait pas être purement technique mais devrait aborder ce qui est juste et digne de confiance ? Et comment traduisons-nous l'équité en chiffres pour éliminer les biais ?
Où nous voyons l'IA non éthique
De nombreux cas d'IA bien connus ont été exposés comme non éthiques, alimentant les feux omniprésents de la discrimination, de l'inégalité et de la désinformation.
L'IA a trouvé sa place dans le scoring de crédit, le traitement des demandes de prêt et d'emploi, la reconnaissance faciale et d'autres cas d'utilisation sensibles. Elle a également été utilisée pour propager des messages de chatbot haineux, des fausses nouvelles, des voix, des vidéos, des images ou des ‘deepfakes’.
« Ce qui arrive souvent, c'est que nous voyons un double usage des technologies. Des technologies qui peuvent être utilisées pour de bons et de mauvais résultats. Ici, ce n'est pas la faute d'une technologie mal conçue, mais des intentions malveillantes et d'un mauvais usage. Ces technologies ont des vulnérabilités où les développeurs peuvent ne pas connaître la bête qu'ils créent. Nous avons une fois refusé un projet en raison des implications non éthiques qu'il avait, où le prospect n'avait pas réalisé que c'était non éthique au début, car parfois ce n'est pas évident », remarque Julien.
Évaluer le danger des modèles IA
Le livre de Cathy O'Neil “Weapons of Math Destruction” est souvent mentionné pour déterminer les trois principaux facteurs qui rendent les modèles IA dangereux et défectueux :
1. Secret - Certaines parties sont justifiées, c'est-à-dire pour éviter qu'un algorithme ne devienne vulnérable, ce qui pourrait conduire à des résultats désastreux. Mais sans transparence, comment savons-nous qu'il n'y a pas de manipulation pour des intérêts personnels ? Comment enquêter sur le processus de décision derrière les systèmes d'automatisation ? Les règles de l'IA éthique de la Commission Européenne encouragent la transparence.
2. Échelle - Combien de personnes les algorithmes peuvent-ils impacter, et l'IA peut-elle établir des normes et amplifier les biais ? Peut-elle évoluer et croître de manière exponentielle ?
3. Potentiel de nuire - L'impact social et sociétal doit être soigneusement considéré. De nombreux modèles existent avec des hypothèses intégrées, beaucoup d'entre elles biaisées et injustes, et peuvent avoir un impact significatif sur de larges groupes de personnes.
L'IA a un potentiel énorme pour l'impact social et sociétal. Par conséquent, nous devons nous assurer que les systèmes IA n'utilisent pas de données biaisées pour renforcer un cycle qui exacerbe les inégalités actuelles. Au contraire, nous pouvons utiliser les algorithmes et systèmes IA pour aborder les inégalités et les transformer en opportunités de bien faire.
Comment construisons-nous une IA en laquelle nous pouvons avoir confiance ?
« Il peut être inutile de réglementer un algorithme ou un système IA, et nous devons être prudents pour ne pas réglementer à l'excès, ce qui freinerait l'innovation. Mais cela ne veut pas dire que nous ne pouvons pas prendre des mesures pour développer une IA plus éthique », note Julien.
Face aux miroirs déformants de l'autorégulation, Facebook a demandé une réglementation gouvernementale plus claire pour les géants des médias sociaux. Après le scandale de Cambridge Analytica, Facebook a développé une équipe IA Responsable pour s'attaquer aux biais IA et examiner l'impact de leurs algorithmes sur la désinformation, la polarisation politique et l'extrémisme. Joaquin Quiñonero Candela, directeur de l'IA chez Facebook, a expliqué leurs luttes avec Karen Hao de MIT Technology Review.
Karen a partagé sur LinkedIn : « Il ne s'agit pas de personnes corrompues faisant des choses corrompues. Ce serait simple. Il s'agit de bonnes personnes vraiment essayant de faire la bonne chose. Mais elles sont piégées dans un système pourri, essayant de pousser de leur mieux le statu quo qui ne bouge pas. Ce reportage m'a convaincu que l'autorégulation ne fonctionne pas et ne peut pas fonctionner. »
Alors, quel est le rôle de la réglementation ?
En Europe, des organisations ont appelé à un cadre réglementaire complet pour l'IA, et une législation est en cours d'élaboration. Au 21 avril 2021, la Commission a proposé une proposition de réglementation horizontale sur l'IA pour offrir des étapes concrètes de mise en œuvre dans tous les secteurs. Selon le site de la Commission, « Cette initiative garantira que l'IA est sûre, légale et en ligne avec les droits fondamentaux de l'UE. L'objectif global est de stimuler l'adoption de l'IA digne de confiance dans l'économie de l'UE. » Cependant, une approche universelle peut ne pas refléter les avantages et les risques uniques de l'application de l'IA à différents secteurs.
« La plupart de la réglementation et des cadres nécessaires existent déjà, et dans une pratique à long terme, pour nombre des industries avec lesquelles nous travaillons. La réglementation détaillant des pratiques équitables et éthiques reste principalement la même lorsqu'on applique l'IA. Par exemple, si vous travaillez pour une banque et ne refuseriez pas un prêt à quelqu'un simplement parce que la valeur de sa propriété est basse selon votre base de données, pourquoi laisseriez-vous un système IA le faire ? C'est non éthique car cela peut exclure de nombreuses personnes déjà désavantagées. L'éthique de la réglementation existante se résume toujours aux utilisations, pas à la technologie », explique Julien.
Développer un cadre de risque d'IA éthique
En tant que point de départ, les organisations devraient promouvoir des pratiques d'IA éthiques dès la phase de conception initiale d'un algorithme.
L'étape suivante est d'attribuer des niveaux d'intervention. Cela pourrait dépendre des trois facteurs mentionnés précédemment : secret, échelle et potentiel de nuire. Un exemple d'intervention est de formuler et de suivre une ‘checklist éthique’ contre les biais implicites de genre, de race, de religion, de classe, de codes postaux et d'autres domaines de risque éthique — et de surveiller toute déviation au fil du temps.
Julien partage, « Pour développer des algorithmes qui prennent des décisions éthiques, nous devons éviter de perpétuer les biais à tout prix et planifier le potentiel d'intention négative, et stresser tester contre les conséquences négatives non désirées. Une checklist peut systématiser explicitement l'éthique derrière le développement des algorithmes. En intégrant de meilleures valeurs dans nos algorithmes, il y a une interprétation plus claire de ce à quoi la technologie est utilisée et comment elle pourrait être mal utilisée .»
Dans la plupart des cas, ce n’est pas la technologie qui est perturbatrice, mais la manière dont les organisations utilisent la technologie pour bouleverser les modèles économiques existants, permettre de nouveaux modèles, et s'engagent à surveiller continuellement. Dans le cas de l'IA, cela signifiera placer l'éthique avant le profit.
Dernières réflexions
« Nous devons nous rappeler que l'histoire peut ne pas se répéter, mais elle rime. Nous avons vu des erreurs dans les machines depuis plus de quarante ans, depuis que les bases de données ont fait leurs débuts. À l'époque, les intentions derrière les schémas de bases de données étaient rarement remises en question dans leur développement. Donc c'est bien de voir que le sujet de l'IA éthique soit un centre d'intérêt croissant pour de nombreuses organisations, entreprises technologiques et institutions », ajoute Julien.
Impliquer non seulement les développeurs, mais aussi les avocats, les citoyens et d'autres décideurs autour de la table pour mettre en œuvre les cadres d'IA éthique est crucial. Aujourd'hui, il y a trop de zone grise entre faire le bien et causer du tort avec l'IA. Nous devons nous rappeler que l'éthique de l'IA se résume à l'éthique de ceux qui sont derrière elle.
Prêt à atteindre vos objectifs avec les données ?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.
Prêt à atteindre vos objectifs avec les données ?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.
Prêt à atteindre vos objectifs avec les données ?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.
Prêt à atteindre vos objectifs avec les données ?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'IA, vous êtes au bon endroit.