Bâtir des environnements d’intelligence artificielle éthiquement responsables

Peut-être avez-vous déjà remarqué les sollicitations pour la « démocratisation de l’intelligence artificielle (IA) ». De manière générale, la démocratie a une bonne réputation, mais que cela signifie-t-il dans le contexte de la technologie et de l’intelligence artificielle et quels sont les dangers de cette alternative? M. Andrew Ng, scientifique en chef de recherche chez Baidu, considère l’IA comme étant « la nouvelle électricité ». Pensez-y un peu, et vous comprendrez ce qu’il veut dire. En ce moment, les outils de l’IA (et de l’apprentissage automatique ainsi que l’apprentissage en profondeur [deep learning]) sont majoritairement utilisés par les chercheurs, les industries, les grandes entreprises, les institutions scolaires et les laboratoires. L’IA présente différents avantages distincts pour les entreprises qui ont accès à son incorporation dans leurs systèmes ou leurs produits. Cela améliore tout, de l’efficacité logistique à l’expérience utilisateur positive et tout ce qui se trouve à mi-chemin. Les personnes n’ayant pas accès ou étant incapables d’incorporer l’IA ou l’apprentissage automatique sont donc désavantagées. La démocratisation de l’IA signifie simplement de rendre accessible à tous les avantages de cette technologie. Cet aspect est donc crucial pour le développement éthique de la technologie.

Google.ai a reconnu l’importance de ce genre de démocratisation, ce qui explique pourquoi l’entreprise s’est donné pour mission « d’organiser l’information du monde et la rendre utile et accessible universellement. » De plus en plus, les entreprises travaillant dans ce domaine reconnaissent leur propre responsabilité dans le support d’un développement éthique de l’intelligence artificielle. C’est d’ailleurs pourquoi notre équipe participera au Forum sur le développement socialement responsable de l’intelligence artificielle organisé par l’Université de Montréal et Les Fonds de recherche du Québec au Palais des congrès de Montréal les 2 et 3 novembre 2017.

Concevoir des espaces éthiques pour l’IA

L’IA apporte tout un lot de nouvelles possibilités et de considérations dans la conception de l’expérience utilisateur. Grâce à l’intelligence artificielle, les interfaces utilisateur commencent à s’étendre au-delà des aspects traditionnels de design visuel et spatial. Les gens peuvent maintenant interagir avec leurs appareils sans aucun environnement d’interface utilisateur ou d’espace conversationnel. Et ces appareils incluent un lot de composantes connectées comme les accessoires portables, les appareils électroménagers, les voitures, les dispositifs domestiques, en plus de vos gadgets technologiques habituels et vos services et comptes en ligne. Également, l’IA peut utiliser les données collectées des habitudes des utilisateurs afin de peaufiner l’expérience utilisateur à un point jamais atteint auparavant.

Le croisement entre la conception et l’éthique est dû à l’étendue à laquelle l’interface utilisateur et les environnements sans interface utilisateur peuvent être utilisés pour influencer (ou pire encore, pour manipuler) les comportements. Alors que notre interaction avec la technologie s’accroît et prend de plus en plus de place au sein de nos vies, nous voulons d’une relation saine. Il faut donc avoir des interactions significatives et équilibrées et non pas des algorithmes créés pour nous rendre dépendants des interactions dans l’optique d’atteindre des buts unilatéraux à court terme. Y a-t-il une technologie quelconque dans votre vie pour laquelle vous avez une dépendance malsaine? Si c’est le cas, est-ce que cela a un impact sur vos sentiments envers cette marque? Qu’arrive-t-il lorsque les environnements sans interaction avec l’utilisateur deviennent tellement discrets que nous oublions qu’ils existent?

Il y a toutefois davantage de dangers potentiels que d’applications de jeux auxquelles vous êtes dépendants. Masha Krol, designer en chef de Element AI et auteure de AI-First Design affirme que « l’IA apportera des problèmes qui sont actuellement inimaginables pour notre modèle basé sur les solutions […] Nous ne voulons pas seulement résoudre des problèmes supplémentaires, mais plutôt nous attaquer au changement de paradigme, aux problèmes dérangeants. » La collaboration avec les utilisateurs, comme le fait de laisser ouverts les réseaux de communication et d’incorporer la rétroaction sera fondamentale pour maintenir des designs fondés sur des principes et centrés sur l’humain qui favorisent des environnements sains, responsables et éthiques.

Collecte de données responsable

Puisque l’intelligence artificielle est fondée sur les données, cela crée encore plus de motivation et d’opportunités pour les entreprises d’extraire, d’emmagasiner et d’exploiter les données, ce qui entraîne des préoccupations éthiques. Chez Arcbees, nous croyons fermement que la gestion responsable de l’information des utilisateurs est sacrée. Il est préférable d’établir un lien de confiance avec les utilisateurs plutôt que d’exploiter leurs informations dans le but de leur vendre un produit.

Il existe une implication en ventes et marketing. Par exemple, les gens sont très sensibles en ce qui a trait à la surveillance de leurs activités en ligne et de leurs conversations, ce qui explique pourquoi il est crucial d’être transparent à propos de la collecte de données. De plus, établir les attentes de l’utilisateur et être clair à propos de l’utilisation des données est tout aussi important. Faillir à cette tâche vous fera paraître comme intrusif et, conséquemment, cela mènera à un sentiment de méfiance vis-à-vis l’agent intelligent. Imaginez à quel point votre appareil Alexa (Amazon) serait biaisé s’il s’appuyait sur les campagnes AdWord pour faire des suggestions « personnalisées ». Comment vous sentiriez-vous si les équipes de vente et de marketing avaient accès à tout ce qui était dit dans votre maison? Et si vous faisiez la découverte qu’ils utilisent ces données pour vous rediriger vers d’autres réseaux en ligne comme Google, Facebook ou même Spotify? Ces problèmes doivent être réglés si nous voulons créer des expériences agréables qui respectent la confidentialité des gens malgré le fait qu’elles soient partie intégrante de notre intimité.

Assurer la sécurité des environnements d’IA

Évidemment, les préoccupations en matière de confidentialité sont étroitement liées à la cybersécurité ce qui est une des plus grandes préoccupations éthiques concernant l’IA et la collecte de données. Il s’agit de quelque chose de très explicite, spécialement dans la foulée des désastres entourant Equifax et Deloitte, les deux plus récents épisodes de violation de la sécurité des données à avoir été médiatisés. Les pratiques irresponsables et de piètre qualité d’Equifax ont été exposées récemment en audience devant le congrès et on pouvait pratiquement y voir l’histoire d’un manuel « Ce qu’il ne faut pas faire » en termes de bafouage des règles de sécurité. Il importe de répéter que la gestion de l’information des utilisateurs doit être respectée à titre de responsabilité sacrée. Oui, cela requiert beaucoup de travail supplémentaire et de vigilance, mais il s’agit d’un pilier fondamental de l’IA et de l’Internet du futur que nous voulons bâtir. Toutefois, est-ce suffisant de s’en remettre aux entreprises individuelles et aux développeurs pour prendre la bonne décision? Ou avons-nous plutôt besoin de surveiller ce domaine avec une réglementation gouvernementale?

Le caractère biaisé des données est une autre préoccupation majeure en matière d’éthique lors de la collecte des données et de plus en plus d’attention y est porté. On pourrait croire qu’il n’y a rien de plus objectif que les points de données dans une base de données, mais il s’agit d’une erreur. Sergey Brin et Larry Page ont écrit dans leur article « The Anatomy of a Large-Scale Hypertextual Web Search Engine » (avril 1988) : « tous ceux qui ont fait récemment l’usage d’un outil de recherche peuvent témoigner que l’exhaustivité de l’index n’est pas le seul facteur de qualité au sein des résultats de recherche. » En d’autres mots, une plus grande quantité de données ne signifie pas nécessairement une IA de meilleure qualité. En fait, trop d’information peut créer un modèle instable. Inversement, l’information incomplète peut entraîner des moments de « stupidité artificielle ». Il nous faut donc l’aide d’un humain subjectif qui peut utiliser son expérience et sa perspective pour sélectionner quelles variables sont nécessaires et pertinentes et laisser tomber le reste. De plus, cette perspicacité humaine est requise en premier lieu pour établir les directives des algorithmes. Comme le dit Maxime Dion de Arcbees : « La science des données est l’art de trouver et de choisir l’information cachée et sa relation et ses corrélations qui peuvent être trouvées entre des variables apparemment indépendantes ». Toutefois, chaque fois qu’un humain réalise un choix subjectif, celui-ci peut être biaisé. (Encore sceptique? Allez jeter un oeil à l’article Medium d’Angela Bassa à propos des pièges de la partialité dans la science des données.)

Aucun humain n’est complètement impartial, que faire alors? Voici le moment où la démocratisation de l’IA entre en jeu. Le concept de démocratie a lieu lorsque la prise de décision est renforcée et équilibrée par l’implication de plusieurs personnes dans le processus : une multitude d’intrants, de perspectives et de boucles de rétroactions surmonteront le biais de quiconque. Dans le contexte de l’IA et des données, la démocratie peut être encouragée par des mesures pour permettre et encourager le plus de transparence et de collaboration possible. Les IPA et les outils d’IA libres ou ouverts, les sources de données ouvertes, les forums de discussion et les outils d’éducation gratuits accessibles pour tous les niveaux de compétence pourraient y être inclus.

Quelles autres stratégies pourraient être mises en place pour aider la démocratisation de l’IA? Commençons notre boucle de rétroaction dès maintenant! Partagez-nous vos idées et commentaires ou envoyez-moi un Tweet! Et si vous avez apprécié cet article, n’hésitez pas à le partager avec vos collègues. Au plaisir de lire vos commentaires!

Comment les entreprises influentes comme Google utilisent l’intelligence artificielle et que pouvons-nous en retirer

L’intelligence artificielle (IA) est un terme très tendance actuellement et les entreprises de toutes tailles et formes essaient de trouver une façon d’exploiter cette technologie pour leurs propres besoins. Captivante et futuriste, l’intelligence artificielle est, en effet, un outil incontournable pour suralimenter une entreprise, rehausser ses processus d’affaires et améliorer la qualité de l’expérience utilisateur. L’adoption et la démocratisation de l’IA par les géants de l’industrie (Google, Microsoft, Amazon, IBM, etc.) est un facteur de changement important pour toute entreprise technologique. Heureusement, l’informatique en nuage (cloud computing) et les API d’apprentissage automatique à données libres comblent le fossé de l’écart technique que peuvent vivre les petites entreprises et leur permettent de tirer avantage des possibilités qu’offre l’IA. Plus que jamais, il est temps pour les petites entreprises de plonger et commencer leur expérimentation. Le vrai défi, toutefois, est de savoir comment bien utiliser ces nouvelles ressources. Une fois de plus, les entreprises peuvent s’inspirer des grandes entreprises comme Google pour développer leurs idées. Voici ce qui est pertinent de savoir.

Continue reading “Comment les entreprises influentes comme Google utilisent l’intelligence artificielle et que pouvons-nous en retirer”

Arcbees fait l’acquisition de Chalifour Solutions Numériques

COMMUNIQUÉ

Québec, le 3 octobre 2017–  Arcbees, entreprise technologique de premier plan en intelligence artificielle, annonce l’acquisition stratégique de Chalifour Solutions Numériques. Cette transaction permettra d’élargir les champs d’expertise de la société, de concentrer les efforts communs de développement et de renforcer son positionnement sur le marché des solutions d’affaires intelligentes.  Continue reading “Arcbees fait l’acquisition de Chalifour Solutions Numériques”

Dérapages de l’IA : trois exemples décortiqués

En un peu plus d’une décennie, l’intelligence artificielle (IA) a évolué de façon fulgurante. Chaque jour, de nouveaux progrès en matière d’IA défraient la chronique. En fait, cette évolution s’accélère :

  • 2004 La DARPA organise une course de voitures autonomes nommée Grand Challenge. La technologie mise au point par les participants permettra à Google de concevoir une voiture autonome et de modifier les lois existantes en matière de transport. 
  • 2005 Le robot humanoïde ASIMO de Honda marche aussi vite qu’un humain et est capable de servir les commandes des clients dans un restaurant. Aujourd’hui, des robots militaires fonctionnent selon la même technologie.
  • 2007 Des ordinateurs ont appris à jouer une partie parfaite d’échecs, ouvrant la porte à des algorithmes capables d’effectuer des recherches dans de vastes bases de données.
  • 2011 Le programme Watson d’IBM remporte la victoire à Jeopardy! contre des champions humains. Il apprend actuellement à prodiguer des conseils médicaux à des médecins et maîtrise n’importe quel domaine de connaissance.
  • 2012 Google lance Knowledge Graph, une base de connaissance fondée sur la recherche sémantique qui représente probablement le premier pas vers la véritable intelligence artificielle.
  • 2013 Facebook lance Graph Search, un moteur de recherche sémantique doté d’une connaissance intime des utilisateurs de Facebook, qui fait qu’il nous est pratiquement impossible de cacher quoi que ce soit aux algorithmes intelligents.
  • 2013 La Maison-Blanche accorde un financement de trois milliards de dollars US au projet BRAIN, axé sur la rétro-ingénierie du cerveau humain, dans la foulée d’un projet semblable mené en Europe au coût d’un milliard d’euros.
  • 2014 Un agent conversationnel convainc 33 % des juges qu’il est un être humain, passant avec succès une version réduite du test de Turing.
  • 2015 Un logiciel général apprend à surpasser des joueurs humains à des dizaines de jeux vidéo Atari.
  • 2016 Le champion mondial du jeu de Go est vaincu par AlphaGo, un programme informatique doté de réseaux de neurones profonds.

Source : Artificial Intelligence Safety and Cybersecurity: A Timeline of AI Failures, https://arxiv.org/pdf/1610.07997.pdf (article en anglais)

Toutefois, peu d’information est communiquée sur les dérapages de l’IA, et encore moins sur les raisons qui les expliquent.

L’échec est la clé du succès

L’échec est au cœur du progrès humain. Par exemple, le four à micro-ondes a été inventé par pur hasard lors d’essais visant à mettre au point un système de radar pour l’armée pendant la Seconde Guerre mondiale. Percy Spencer a trouvé une barre de chocolat fondue dans sa poche tandis qu’il menait des travaux sur les magnétrons pour la société Raytheon, important fournisseur du secteur de la défense aux États-Unis.

Continue reading “Dérapages de l’IA : trois exemples décortiqués”

Guide de survie pour travailler à distance en équipe

Comment la moitié de notre équipe a su travailler à distance pendant deux semaines tout en restant productive.


Le travail à distance ne nous est pas étranger.

En octobre dernier, passionné de randonnées en montagne, j’ai eu la chance de travailler à partir de Banff, en Alberta. (Vive les montagnes!)

Notre designer et maitre ultime du branding, Manon, a travaillé à distance pendant quatre mois l’année dernière. Elle a résumé son aventure dans cet article.

Cette année, nous avons décidé de pousser le concept encore plus loin. Huit d’entre nous ont posé pied à Puerto Rico pendant deux semaines, tout en réussissant à rester productifs et efficaces malgré les distractions et la chaleur. Voici le résumé de notre processus et de nos apprentissages en cours de route.

Continue reading “Guide de survie pour travailler à distance en équipe”

Un guide non technique pour comprendre l’apprentissage automatique

 

Dans la publication de la semaine dernière, nous avons discuté de la pertinence de l’apprentissage automatique (Machine Learning) pour votre entreprise. Dans le cadre de mes recherches, j’ai compris plus en profondeur ce qu’est l’apprentissage automatique et j’ai réalisé que la plupart des informations sur le sujet est technique et destinée aux développeurs ou aux analystes de données.

Une explication non technique m’a donc paru nécessaire.

Qu’est-ce que l’apprentissage automatique?

La définition la plus simple que j’ai rencontrée se lit comme suit :

L’apprentissage automatique est « […] la branche de l’intelligence artificielle (IA) qui explore les moyens d’amener les ordinateurs à améliorer leurs performances en fonction de leur expérience ». Source : Berkeley

Décomposons cette définition pour asseoir certaines fondations de l’apprentissage automatique et pour en améliorer notre connaissance.

Continue reading “Un guide non technique pour comprendre l’apprentissage automatique”

L’apprentissage automatique est-il adapté à votre entreprise?

La plupart des entreprises reconnaissent que l’apprentissage automatique (Machine Learning) peut leur apporter une valeur exceptionnelle. Cependant, plusieurs d’entre elles se posent des questions quant à l’intégration de celui-ci dans leur stratégie de données : comment, dans quel domaine et surtout à quel moment?

Aujourd’hui, nous allons explorer les questions que vous devriez vous poser afin de savoir si l’apprentissage automatique est adapté à votre entreprise.
Continue reading “L’apprentissage automatique est-il adapté à votre entreprise?”