Dérapages de l’IA : trois exemples décortiqués

En un peu plus d’une décennie, l’intelligence artificielle (IA) a évolué de façon fulgurante. Chaque jour, de nouveaux progrès en matière d’IA défraient la chronique. En fait, cette évolution s’accélère :

  • 2004 La DARPA organise une course de voitures autonomes nommée Grand Challenge. La technologie mise au point par les participants permettra à Google de concevoir une voiture autonome et de modifier les lois existantes en matière de transport. 
  • 2005 Le robot humanoïde ASIMO de Honda marche aussi vite qu’un humain et est capable de servir les commandes des clients dans un restaurant. Aujourd’hui, des robots militaires fonctionnent selon la même technologie.
  • 2007 Des ordinateurs ont appris à jouer une partie parfaite d’échecs, ouvrant la porte à des algorithmes capables d’effectuer des recherches dans de vastes bases de données.
  • 2011 Le programme Watson d’IBM remporte la victoire à Jeopardy! contre des champions humains. Il apprend actuellement à prodiguer des conseils médicaux à des médecins et maîtrise n’importe quel domaine de connaissance.
  • 2012 Google lance Knowledge Graph, une base de connaissance fondée sur la recherche sémantique qui représente probablement le premier pas vers la véritable intelligence artificielle.
  • 2013 Facebook lance Graph Search, un moteur de recherche sémantique doté d’une connaissance intime des utilisateurs de Facebook, qui fait qu’il nous est pratiquement impossible de cacher quoi que ce soit aux algorithmes intelligents.
  • 2013 La Maison-Blanche accorde un financement de trois milliards de dollars US au projet BRAIN, axé sur la rétro-ingénierie du cerveau humain, dans la foulée d’un projet semblable mené en Europe au coût d’un milliard d’euros.
  • 2014 Un agent conversationnel convainc 33 % des juges qu’il est un être humain, passant avec succès une version réduite du test de Turing.
  • 2015 Un logiciel général apprend à surpasser des joueurs humains à des dizaines de jeux vidéo Atari.
  • 2016 Le champion mondial du jeu de Go est vaincu par AlphaGo, un programme informatique doté de réseaux de neurones profonds.

Source : Artificial Intelligence Safety and Cybersecurity: A Timeline of AI Failures, https://arxiv.org/pdf/1610.07997.pdf (article en anglais)

Toutefois, peu d’information est communiquée sur les dérapages de l’IA, et encore moins sur les raisons qui les expliquent.

L’échec est la clé du succès

L’échec est au cœur du progrès humain. Par exemple, le four à micro-ondes a été inventé par pur hasard lors d’essais visant à mettre au point un système de radar pour l’armée pendant la Seconde Guerre mondiale. Percy Spencer a trouvé une barre de chocolat fondue dans sa poche tandis qu’il menait des travaux sur les magnétrons pour la société Raytheon, important fournisseur du secteur de la défense aux États-Unis.

« De cet incident gênant est née une industrie de plusieurs millions de dollars – et l’un des appareils à la fois les plus commodes et les plus maudits de la cuisine américaine. » Wired

Récemment, de grandes sociétés ont commencé à valoriser l’échec. Sans surprise, la stratégie de marque de Gatorade est axée sur la victoire; ce thème est au cœur des efforts de vente de Gatorade depuis une décennie. Par contre, sa dernière campagne a de quoi surprendre (anglais seulement): 

L’IA ne fait pas exception

Comme il s’agit d’un progrès récent où de nombreux efforts sont toujours considérés comme des investissements en recherche et développement, certains échecs spectaculaires se produisent. C’est une étape normale sur la voie de l’amélioration. En voici quelques-uns (tous les liens mènent vers des articles en anglais) :

Même si la majorité de ces accidents ou de ces mésaventures ne sont pas directement liés à un dérapage de l’IA elle-même, ils sont tous liés à l’IA d’une certaine façon. Par exemple, il est impossible d’affirmer avec certitude que l’IA était responsable de l’accident à bord d’une voiture autonome, mais il est pertinent de se demander si cet accident aurait pu être évité si l’IA avait été mieux entraînée. Cela montre qu’à mesure que nous perfectionnons l’IA, nous devons avoir une confiance absolue dans les algorithmes qui prennent des décisions à notre place, en particulier lorsque ces décisions ont des variables complexes et des conséquences qui peuvent être fatales comme dans le cas des voitures autonomes.

Examinons trois dérapages récents et hautement médiatisés de l’IA.

1 : Tay, l’agent conversationnel (raciste et borné) de Microsoft

Le dérapage le plus médiatisé de la dernière année est assurément le cas de Tay, « […] un agent conversationnel doté de l’intelligence artificielle conçu par des équipes de Microsoft Technology and Research et de Bing en vue d’expérimenter et de mener des recherches sur la compréhension des conversations. Tay est conçu pour divertir les internautes sur les réseaux sociaux et pour entretenir avec eux des conversations ludiques et informelles. Plus vous discutez avec Tay, plus il apprend et plus il vous offre une expérience personnalisée. »

Tay était destiné à enrichir la compréhension du langage naturel (Natural Language Understanding). Essentiellement, ses algorithmes d’apprentissage étaient programmés pour lire et interpréter le contenu écrit apporté par l’utilisateur et pour s’y adapter. L’objectif consistait à personnaliser et à personnifier des interactions avec un robot. Il s’agit d’un progrès stratégique clé dont rêvent de nombreux géants de la technologie. L’idée, nous le voyons bien, était de créer un programme semblable à celui du film Her (Elle au Québec). Dans le secteur de la haute technologie, la réussite commerciale repose habituellement sur trois piliers : acquisition, engagement et conversion. La capacité d’offrir une expérience pleinement humaine et personnelle et de passer avec succès un test de Turing rigoureux redéfinirait la façon dont nous abordons les interactions.

2 : Alexa propose de la pornographie à un enfant

Essayez de ne pas sourire en regardant la vidéo dans laquelle un enfant demande à Alexa de jouer « Digger, Digger » (une chanson pour enfants au sujet d’un petit tracteur). L’application interprète mal la commande et répond : « Je comprends que vous voulez écouter une station de radio pornographique… poulettes chaudes, filles sexy amateurs… » (article intégral, en anglais seulement).

Certains considéreraient qu’il ne s’agit pas d’un dérapage de l’IA, mais plutôt d’un problème de commande vocale. Même si ces personnes avaient raison, gardez à l’esprit qu’Alexa acquiert sa capacité de reconnaissance vocale au moyen de l’apprentissage machine (machine learning).

3 : InspiroBot donne des conseils douteux

Mon préféré, InspiroBot, est conçu pour vous donner votre dose quotidienne de citations inspirantes. Ironiquement, le fait qu’il échoue souvent à formuler des messages motivants illuminera votre journée. Chez Arcbees, nous savons apprécier une bonne blague grinçante à l’occasion. Les citations suivantes nous ont bien fait rire :

NO MATTER WHAT HAPPENS, YOU SHOULD ALWAYS BE A JERK ABOUT DISEASE.
Quoi qu’il arrive, tu devrais toujours faire l’imbécile lorsqu’il est question de maladie.

AVOID A WOMAN, AND YOU WILL ACHIEVE LIFE.
Échappe à une femme et tu commenceras à vivre.

NEVER BELIEVE IN OTHER PEOPLE’S DREAMS.
Ne crois jamais aux rêves des autres.

YOUR MOTHER IS EMBARRASSING.
Ta mère est encombrante.

GLORY HOLES BEGIN WHERE OTHER PEOPLE END.
N’essaie pas de trouver refuge dans une cabine avec un mur troué.

Il est approprié d’enchaîner avec la citation que voici :

« Ceux qui sont incapables de tirer des enseignements du passé sont condamnés à le répéter. » George Santayana

Dans des cas comme ceux qui précèdent, les dérapages de l’IA peuvent être amusants, mais je m’intéresse surtout aux raisons qui les expliquent et aux leçons que nous pouvons en tirer.

Quelle est la cause de ces dérapages?

Précision

L’IA a montré sa capacité à produire des résultats dans tous les secteurs d’activité, de la prévision des possibilités de souscription d’assurance à l’accélération des recherches en médecine, en passant par l’automatisation des chaînes de production et l’optimisation des routes de transport. Si les domaines d’application de l’IA sont étendus, la mise en œuvre réussie de l’IA requiert un problème très précis à résoudre.

Par exemple, la détection de la fraude peut être traitée d’une façon très précise lorsqu’on utilise un réseau de neurones qui comporte peu de termes d’entrée et de sortie. Les termes de sortie (transactions) peuvent se limiter à frauduleux ou non frauduleux. Rappelez-vous que dans ce type de situation, vous modélisez un algorithme qui permet de classer des données correctement dans deux catégories. Lorsque le nombre de résultats possibles est aussi restreint, il est plus facile de modéliser un algorithme capable de classer efficacement des transactions.

Le dérapage de Tay s’explique en partie par son manque de précision. Le résultat voulu, mis à part des interactions correctes sur le plan grammatical, n’était pas encadré par des paramètres clairement définis. C’est là tout le défi : les interactions humaines n’ont rien à voir avec la précision. Les gens qui ont mené l’expérience de Tay ont utilisé toutes sortes de vocabulaires et de syntaxes, et c’est à cause de ces entrées éparses et très variables qu’il a été difficile d’obtenir des résultats cohérents.

Contexte

Dans les trois exemples, et lorsqu’il s’agit d’IA en général, le contexte demeure un défi. À certains égards, le contexte est un prolongement de la précision, mais il mérite tout de même d’être expliqué plus en détails, surtout dans les cas où des humains interagissent avec l’IA. Si vous discutez avec Tay, demandez de l’information à Alexa ou cherchez de l’inspiration auprès d’InspiroBot, vous êtes dans un contexte où le moment, le lieu, les émotions, la météo, l’identité, l’entreprise, entre autres, auront une incidence sur votre interprétation et votre appréciation du résultat obtenu.

Un exemple classique serait celui de Siri, qui commence à vous appeler « ambulance » dès lors que vous lui demandez de vous appeler une ambulance. Ici, l’IA réussit à automatiser une tâche, mais elle ne comprend pas le contexte dans lequel la tâche lui est confiée.

Tay est devenu un agent conversationnel virtuel irrespectueux parce que son apprentissage et ses interactions ont été ouverts au public. Il était capable de reconnaître des mots et de formuler des réponses minimalement cohérentes, mais était incapable de comprendre le sens de ces mots et leurs poids dans une conversation. Les agents virtuels fonctionnent, mais lorsqu’ils sont programmés à une fin particulière. Par exemple, pour signaler un accident à votre assureur, l’objet, les questions possibles et les réponses possibles sont beaucoup moins ambigus. Toutefois, les entreprises optent habituellement pour un modèle d’arbre décisionnel lorsqu’elles créent ces agents.

De la même façon, InspiroBot fait défaut parce que le positivisme est une question de contexte. Son contenu, bien que générique, est assez riche et descriptif pour que nous interprétions de mille et une façons les conseils qu’il nous donne. S’il est capable de concevoir des citations, il ne possède pas l’intelligence nécessaire pour comprendre le contenu, le sens et les interprétations possibles de ses propres citations.

Apprentissage

Même si les réseaux de neurones sont capables d’apprendre par rétropropagation pour adapter leur capacité à produire un résultat attendu, ils sont contraints de le faire avec les données et les paramètres que nous leur imposons.

Vous avez probablement déjà entendu l’expression « à données inexactes, résultats erronés » (ou son équivalent anglais « garbage in, garbage out »). Ce principe explique en grande partie le dérapage de Tay. Au lieu d’apprendre à huis clos dans un environnement contrôlé avant d’être lancé officiellement, cet agent conversationnel a été conçu pour apprendre au cours de ses interactions avec le grand public. Tout a dérapé en moins de 24 heures parce que des collectivités technophiles (notamment 4chan et 8chan) se sont dit qu’il serait intéressant de fournir aux algorithmes d’apprentissage du contenu douteux. Il va sans dire qu’elles ont réussi.

Le cas d’Alexa est légèrement différent. Des commandes sont déjà programmées pour déclencher la réponse voulue. L’apprentissage d’Alexa vise à lui permettre de comprendre quelles commandes déclencher selon le signal audio qu’elle capte. Sa capacité à répondre correctement réside dans la capacité de faire correspondre des commandes avec un vaste éventail de mots, de syntaxes, de timbres, de tons, de rythmes, d’accents et de prononciations. Le plus difficile est de trouver un point d’équilibre : utiliser une variété suffisante de modèles audio pour représenter la diversité du monde tout en étant assez précis pour faire correspondre ces modèles avec les commandes appropriées. La recherche de cet équilibre peut aussi amener une marge d’erreur accrue, et c’est ce qui explique le dérapage d’Alexa. Un apprentissage plus poussé permettrait à Alexa de reconnaître la voix d’un enfant et de déclencher le contrôle parental, au besoin.

Enfin, si InspiroBot utilisait un vocabulaire restreint, des phrases modèles et des termes optimistes préalablement validés, il serait plus apte à créer des citations que nous trouvons inspirantes. Toutefois, cela irait aussi à l’encontre du but dans lequel nous utilisons l’IA. En effet, la simplification exagérée des paramètres rend vaine l’utilisation de l’apprentissage automatique parce qu’il devient plus facile de modéliser un algorithme soi-même dans ces conditions.

Accepter l’échec

Nous apprenons de nos erreurs. Pour cette raison, nous devrions accepter nos échecs dans le domaine de l’IA. Si nous croyons réellement au progrès de l’IA en tant que collectivité, nous devrions mettre en commun nos échecs, en discuter, les analyser et en tirer des enseignements. Avez-vous déjà constaté ou subi des dérapages en matière d’IA? N’hésitez pas à en parler dans la section des commentaires ou à m’écrire sur Twitter.