Bâtir des environnements d’intelligence artificielle éthiquement responsables

Peut-être avez-vous déjà remarqué les sollicitations pour la « démocratisation de l’intelligence artificielle (IA) ». De manière générale, la démocratie a une bonne réputation, mais que cela signifie-t-il dans le contexte de la technologie et de l’intelligence artificielle et quels sont les dangers de cette alternative? M. Andrew Ng, scientifique en chef de recherche chez Baidu, considère l’IA comme étant « la nouvelle électricité ». Pensez-y un peu, et vous comprendrez ce qu’il veut dire. En ce moment, les outils de l’IA (et de l’apprentissage automatique ainsi que l’apprentissage en profondeur [deep learning]) sont majoritairement utilisés par les chercheurs, les industries, les grandes entreprises, les institutions scolaires et les laboratoires. L’IA présente différents avantages distincts pour les entreprises qui ont accès à son incorporation dans leurs systèmes ou leurs produits. Cela améliore tout, de l’efficacité logistique à l’expérience utilisateur positive et tout ce qui se trouve à mi-chemin. Les personnes n’ayant pas accès ou étant incapables d’incorporer l’IA ou l’apprentissage automatique sont donc désavantagées. La démocratisation de l’IA signifie simplement de rendre accessible à tous les avantages de cette technologie. Cet aspect est donc crucial pour le développement éthique de la technologie.

Google.ai a reconnu l’importance de ce genre de démocratisation, ce qui explique pourquoi l’entreprise s’est donné pour mission « d’organiser l’information du monde et la rendre utile et accessible universellement. » De plus en plus, les entreprises travaillant dans ce domaine reconnaissent leur propre responsabilité dans le support d’un développement éthique de l’intelligence artificielle. C’est d’ailleurs pourquoi notre équipe participera au Forum sur le développement socialement responsable de l’intelligence artificielle organisé par l’Université de Montréal et Les Fonds de recherche du Québec au Palais des congrès de Montréal les 2 et 3 novembre 2017.

Concevoir des espaces éthiques pour l’IA

L’IA apporte tout un lot de nouvelles possibilités et de considérations dans la conception de l’expérience utilisateur. Grâce à l’intelligence artificielle, les interfaces utilisateur commencent à s’étendre au-delà des aspects traditionnels de design visuel et spatial. Les gens peuvent maintenant interagir avec leurs appareils sans aucun environnement d’interface utilisateur ou d’espace conversationnel. Et ces appareils incluent un lot de composantes connectées comme les accessoires portables, les appareils électroménagers, les voitures, les dispositifs domestiques, en plus de vos gadgets technologiques habituels et vos services et comptes en ligne. Également, l’IA peut utiliser les données collectées des habitudes des utilisateurs afin de peaufiner l’expérience utilisateur à un point jamais atteint auparavant.

Le croisement entre la conception et l’éthique est dû à l’étendue à laquelle l’interface utilisateur et les environnements sans interface utilisateur peuvent être utilisés pour influencer (ou pire encore, pour manipuler) les comportements. Alors que notre interaction avec la technologie s’accroît et prend de plus en plus de place au sein de nos vies, nous voulons d’une relation saine. Il faut donc avoir des interactions significatives et équilibrées et non pas des algorithmes créés pour nous rendre dépendants des interactions dans l’optique d’atteindre des buts unilatéraux à court terme. Y a-t-il une technologie quelconque dans votre vie pour laquelle vous avez une dépendance malsaine? Si c’est le cas, est-ce que cela a un impact sur vos sentiments envers cette marque? Qu’arrive-t-il lorsque les environnements sans interaction avec l’utilisateur deviennent tellement discrets que nous oublions qu’ils existent?

Il y a toutefois davantage de dangers potentiels que d’applications de jeux auxquelles vous êtes dépendants. Masha Krol, designer en chef de Element AI et auteure de AI-First Design affirme que « l’IA apportera des problèmes qui sont actuellement inimaginables pour notre modèle basé sur les solutions […] Nous ne voulons pas seulement résoudre des problèmes supplémentaires, mais plutôt nous attaquer au changement de paradigme, aux problèmes dérangeants. » La collaboration avec les utilisateurs, comme le fait de laisser ouverts les réseaux de communication et d’incorporer la rétroaction sera fondamentale pour maintenir des designs fondés sur des principes et centrés sur l’humain qui favorisent des environnements sains, responsables et éthiques.

Collecte de données responsable

Puisque l’intelligence artificielle est fondée sur les données, cela crée encore plus de motivation et d’opportunités pour les entreprises d’extraire, d’emmagasiner et d’exploiter les données, ce qui entraîne des préoccupations éthiques. Chez Arcbees, nous croyons fermement que la gestion responsable de l’information des utilisateurs est sacrée. Il est préférable d’établir un lien de confiance avec les utilisateurs plutôt que d’exploiter leurs informations dans le but de leur vendre un produit.

Il existe une implication en ventes et marketing. Par exemple, les gens sont très sensibles en ce qui a trait à la surveillance de leurs activités en ligne et de leurs conversations, ce qui explique pourquoi il est crucial d’être transparent à propos de la collecte de données. De plus, établir les attentes de l’utilisateur et être clair à propos de l’utilisation des données est tout aussi important. Faillir à cette tâche vous fera paraître comme intrusif et, conséquemment, cela mènera à un sentiment de méfiance vis-à-vis l’agent intelligent. Imaginez à quel point votre appareil Alexa (Amazon) serait biaisé s’il s’appuyait sur les campagnes AdWord pour faire des suggestions « personnalisées ». Comment vous sentiriez-vous si les équipes de vente et de marketing avaient accès à tout ce qui était dit dans votre maison? Et si vous faisiez la découverte qu’ils utilisent ces données pour vous rediriger vers d’autres réseaux en ligne comme Google, Facebook ou même Spotify? Ces problèmes doivent être réglés si nous voulons créer des expériences agréables qui respectent la confidentialité des gens malgré le fait qu’elles soient partie intégrante de notre intimité.

Assurer la sécurité des environnements d’IA

Évidemment, les préoccupations en matière de confidentialité sont étroitement liées à la cybersécurité ce qui est une des plus grandes préoccupations éthiques concernant l’IA et la collecte de données. Il s’agit de quelque chose de très explicite, spécialement dans la foulée des désastres entourant Equifax et Deloitte, les deux plus récents épisodes de violation de la sécurité des données à avoir été médiatisés. Les pratiques irresponsables et de piètre qualité d’Equifax ont été exposées récemment en audience devant le congrès et on pouvait pratiquement y voir l’histoire d’un manuel « Ce qu’il ne faut pas faire » en termes de bafouage des règles de sécurité. Il importe de répéter que la gestion de l’information des utilisateurs doit être respectée à titre de responsabilité sacrée. Oui, cela requiert beaucoup de travail supplémentaire et de vigilance, mais il s’agit d’un pilier fondamental de l’IA et de l’Internet du futur que nous voulons bâtir. Toutefois, est-ce suffisant de s’en remettre aux entreprises individuelles et aux développeurs pour prendre la bonne décision? Ou avons-nous plutôt besoin de surveiller ce domaine avec une réglementation gouvernementale?

Le caractère biaisé des données est une autre préoccupation majeure en matière d’éthique lors de la collecte des données et de plus en plus d’attention y est porté. On pourrait croire qu’il n’y a rien de plus objectif que les points de données dans une base de données, mais il s’agit d’une erreur. Sergey Brin et Larry Page ont écrit dans leur article « The Anatomy of a Large-Scale Hypertextual Web Search Engine » (avril 1988) : « tous ceux qui ont fait récemment l’usage d’un outil de recherche peuvent témoigner que l’exhaustivité de l’index n’est pas le seul facteur de qualité au sein des résultats de recherche. » En d’autres mots, une plus grande quantité de données ne signifie pas nécessairement une IA de meilleure qualité. En fait, trop d’information peut créer un modèle instable. Inversement, l’information incomplète peut entraîner des moments de « stupidité artificielle ». Il nous faut donc l’aide d’un humain subjectif qui peut utiliser son expérience et sa perspective pour sélectionner quelles variables sont nécessaires et pertinentes et laisser tomber le reste. De plus, cette perspicacité humaine est requise en premier lieu pour établir les directives des algorithmes. Comme le dit Maxime Dion de Arcbees : « La science des données est l’art de trouver et de choisir l’information cachée et sa relation et ses corrélations qui peuvent être trouvées entre des variables apparemment indépendantes ». Toutefois, chaque fois qu’un humain réalise un choix subjectif, celui-ci peut être biaisé. (Encore sceptique? Allez jeter un oeil à l’article Medium d’Angela Bassa à propos des pièges de la partialité dans la science des données.)

Aucun humain n’est complètement impartial, que faire alors? Voici le moment où la démocratisation de l’IA entre en jeu. Le concept de démocratie a lieu lorsque la prise de décision est renforcée et équilibrée par l’implication de plusieurs personnes dans le processus : une multitude d’intrants, de perspectives et de boucles de rétroactions surmonteront le biais de quiconque. Dans le contexte de l’IA et des données, la démocratie peut être encouragée par des mesures pour permettre et encourager le plus de transparence et de collaboration possible. Les IPA et les outils d’IA libres ou ouverts, les sources de données ouvertes, les forums de discussion et les outils d’éducation gratuits accessibles pour tous les niveaux de compétence pourraient y être inclus.

Quelles autres stratégies pourraient être mises en place pour aider la démocratisation de l’IA? Commençons notre boucle de rétroaction dès maintenant! Partagez-nous vos idées et commentaires ou envoyez-moi un Tweet! Et si vous avez apprécié cet article, n’hésitez pas à le partager avec vos collègues. Au plaisir de lire vos commentaires!