Imprimer

610 - Intelligence artificielle : enjeux sociétaux et dialogues savoirs-société

Le mercredi 29 mai 2019

Les développements récents en intelligence artificielle (IA) et particulièrement dans le domaine de l’apprentissage machine ont mené à des percées technologiques importantes (Le Cun, Bengio et Hinton). L’IA permet de créer des systèmes de traitement du langage naturel, de reconnaissance de la voix, de l’image ou de reconnaissance faciale. Elle permet aussi de créer de la musique, des textes littéraires ou d’autres contenus artistiques. Elle trouve des applications en transport, en droit, en finance ou en médecine.

Par exemple, le Naval Medical Center de San Diego et Google AI auraient récemment développé un système capable de détecter des cellules cancéreuses du sein avec une fiabilité de 99 %, un taux supérieur ou équivalent à celui des pathologistes humains dans bien des cas. Dans leur livre The Second Machine Age, Erik Brynjolfsson et Andrew McAfee montrent comment l’IA peut transformer le monde du commerce en permettant d’automatiser ou d’optimiser des procédés existants, mais aussi en créant des modèles d’affaires complètement nouveaux, comme pouvaient l’être Facebook ou Google à leur époque.

Bref, l’IA nous promet une hausse de la productivité, de meilleurs soins de santé ou l’accès à de nouveaux savoirs. Mais elle n’est pas sans soulever des enjeux importants. Premièrement, on en sait peu sur les incidences de l’IA et sur la transformation de la dynamique sociétale. Deuxièmement, ce qu’on sait soulève des inquiétudes : comment rendre des comptes de l’usage d’une technologie dont la complexité interne dépasse parfois la capacité de compréhension des êtres humains? Comment éviter la discrimination algorithmique, les violations de la vie privée ou l’opacité souvent associées à l’usage de ces technologies? Comment réduire l’accroissement des inégalités économiques et l’apparition d’une nouvelle fracture numérique? Finalement, comment s’assurer de la juste appropriation de ces technologies par tous les acteurs impliqués, incluant ceux de la société civile?

Lire la suite »
Remerciements

Les organisateurs du colloque remercient leurs partenaires : Mila - Institut québécois d'intelligence artificielle, l’Institut de valorisation des données (Ivado), le regroupement HumanIA à l’UQAM, la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives, l’Alliance Impact Intelligence Artificielle (AIIA) et le Centre de recherche en éthique (CRÉ).

Colloque
Section 600 - Colloques multisectoriels
Responsables
Dominic Martin
UQAM - Université du Québec à Montréal
Valentine Goddard
Alliance Impact IA (AIIA)
Myriam COTE
Mila - Institut québécois d'intelligence artificielle
Sébastien Gambs
UQAM - Université du Québec à Montréal
Alain Tapp
UdeM - Université de Montréal
Martin Gibert
UdeM - Université de Montréal
Afficher tous les résumés
Avant-midi
09 h 00 à 09 h 30
Communications orales
Accueil
Présidence/Animation : Dominic Martin (UQAM - Université du Québec à Montréal)
Discutant : Martin Gibert (UdeM - Université de Montréal), Alain Tapp (UdeM - Université de Montréal), Yoshua Bengio (UdeM - Université de Montréal), Sébastien Gambs (UQAM - Université du Québec à Montréal), Valentine Goddard (Alliance Impact IA (AIIA))
Batiment : UQO A.-Taché
Local : F0129-0130
09 h 00
Mot de bienvenue
09 h 30 à 11 h 30
Communications orales
Nouveaux horizons, nouveaux enjeux en IA
Présidence/Animation : Dominic Martin (UQAM - Université du Québec à Montréal)
Batiment : UQO A.-Taché
Local : F0129-0130
09 h 30
Intelligence artificielle: techniques, capacité et défis
Alain Tapp (UdeM - Université de Montréal)

Le domaine de l’intelligence artificielle est en plein essor et une bonne quantité de produits et prototype nous sont présentés à un rythme essoufflant. Il devient difficile de reconnaitre les champs d’application ou les techniques actuelles sont suffisamment mures pour offrir des solutions intéressantes et utiles. Quels sont les domaines où l’impact des découvertes récentes se fera le plus sentir? S’agit-il d’un léger progrès ou d’un bouleversement? Nous allons aussi aborder les limites des systèmes actuels et les contextes ou l’utilisation de l’IA ou de l'apprentissage automatique pose problème, du moins pour le moment.

Plus spécifiquement, nous ferons un survol des outils actuellement disponibles. Il sera question d’apprentissage supervisé, d’apprentissage profond et d’apprentissage par renforcement. Ces approches ont en commun qu’elle propose des solutions intelligentes basées sur des techniques qui tirent profit d’un grand nombre de cas antérieurs pour lesquels une solution est déjà connue et cataloguée. Ces approches seront abordées à l’aide d’exemples permettant d’illustrer leur force, faiblesse et champ d’application. Il sera aussi question de la nouvelle approche basée sur des systèmes conçurent aussi appelée réseau adverserielle (GAN). Cette approche proposée récemment produit des résultats époustouflants et permet un type d’apprentissage qui est à toute fin pratique non supervisée, c’est-à-dire qui ne nécessite pas d’exemples ou la solution est déjà connu.

Résumé
10 h 00
L'apprentissage de la structure de la musique
Pablo Samuel Castro (Google Brain)

La structure joue un rôle essentiel dans le processus de création des musiciens et des artistes en général. Qu'il s'agisse de la structure reliant la mélodie à l'harmonie, des règles rigides du contrepoint, de ce qui rend une chanson « blues » ou de ce qui fait du rap lyrique, les musiciens tissent différents fils structurels dans la tapisserie de leur art. Mais trouver des structures durables et de bonne qualité est difficile, prenant souvent plusieurs itérations sur plusieurs siècles. En un sens nous avons passé au crible des siècles de « données » pour essayer d’extraire les motifs sous-jacents qui représentent le type de musique qui fonctionne le mieux.

Extraire des structures de très grands ensembles de données est exactement ce à quoi l’apprentissage automatique (et l’apprentissage profond en particulier) réussissent. Chez Google Brain, nous explorons différentes manières d’utiliser l'apprentissage profond pour découvrir certaines des caractéristiques de la musique qui nous entoure. Ce travail va de la réalisation de chorales au style de Bach, en passant par la production de performances au piano aux sonorités virtuoses, ou la production de paroles intéressantes. Notre recherche vise à mieux comprendre scientifiquement la façon dont les humains produisent et consomment de la musique, ainsi qu'à concevoir des outils intelligents pour faciliter le processus de création. Nous voulons habiliter les musiciens, pas les remplacer!

Résumé
10 h 30
Apprentissage automatique et santé
Assya Trofimov (UdeM - Université de Montréal)

Le domaine de la santé a de grandes quantités de données sous-utilisées de différents types (documents, signaux, images, séquences génétiques, etc.) provenant de nombreuses sources (hôpitaux, pharmacies, gouvernements, laboratoires de recherche, etc.). De plus en plus d’outils sont développés afin d’améliorer le diagnostic, le pronostic et le traitement des patients. Les progrès récents de l'apprentissage automatique ont montré que nous pouvons extraire des informations de ces ensembles de données pour obtenir de meilleures prédictions cliniques dans le but de développer de nouveaux outils d’aide à la décision pour les professionnels du domaine de la santé, par exemple: aide au diagnostic de maladies par imagerie médicale; soins de santé personnalisés; découverte de nouveaux médicaments; et une meilleure analyse des risques. Cependant, les ensembles de données médicales sont affectés par un faible nombre d'échantillons, un grand nombre de caractéristiques et des effets de lot. L'adaptation et le développement de ces techniques en tenant compte des caractéristiques des données médicales constituent un objectif de recherche ambitieux. Cet exposé discutera des récentes recherches et applications possibles de l’apprentissage automatique pour les données génomiques, l'imagerie médicale, les séries temporelles (réseaux récurrents), l'analyse des données cliniques et l’extraction de texte.

Résumé
11 h 00
Applications du traitement automatique du langage naturel au domaine juridique
Marie-Jean MEURS (UQAM - Université du Québec à Montréal), Marc Queudot (Université du Québec à Montréal (UQAM))

L'application des outils de traitement automatique du langage naturel au domaine du droit est souvent difficile. En effet, les décisions de justice utilisent un vocabulaire spécifique, peu présent dans les corpus publics habituels et la plupart des notes de travail utiles au montage des dossiers sont privées. Il faut de grande quantité de données pour entrainer les algorithmes dédiés à ce domaine, or l'accès à ces données est limité. Pour des raisons à la fois financières et de protection de la vie privée, il est souvent possible de consulter des décisions à la pièce mais pas de les télécharger en lot. De plus, les documents ne sont pas annotés, ce qui limite les possibilités de traitement par des modèles d'apprentissages. Parmi les outils en plein essor figurent les robots conversationnels dont les apports au domaine juridique peuvent être multiples. Assistants personnels des citoyens, aides pour les avocats et les juges, ces outils permettent d'aborder des tâches complexes de façon personnalisable. Cependant, leur création nécessite également la disponibilité de données, ce qui peut limiter leur développement.
Les outils présentés utilisent des données personnelles tant pour leur développement que pour leur fonctionnement ultérieur. Il est donc crucial de prendre en compte les enjeux de société liés à leur implantation, depuis les risques pour la vie privée jusqu'à la reproduction voire au renforcement des biais existants dans les données.

Résumé
Dîner
11 h 30 à 12 h 30
Dîner
Dîner
Batiment : UQO A.-Taché
Local : F0129-0130
Après-midi
12 h 30 à 14 h 30
Communications orales
La transformation de la dynamique sociétale par l’IA
Présidence/Animation : Sébastien Gambs (UQAM - Université du Québec à Montréal)
Batiment : UQO A.-Taché
Local : F0129-0130
12 h 30
Promesses, défis et enjeux sociaux de l'IA
Yoshua Bengio (UdeM - Université de Montréal)

La recherche en apprentissage profond a transformé les capacités de l'ordinateur et l'IA est sortie des laboratoires. Alors que les réseaux de neurones classiques étaient cantonnés à la reconnaissance des formes, les avancées modernes ouvrent les portes de la créativité, de la compréhension du langage naturel et de robots apprenants. Cependant, nous sommes encore loins d'une IA de niveau humain, et plusieurs défis pour les chercheurs en IA seront abordés. Il est important de comprendre ces limitations et leur contexte social quand on met au point des applications de l'IA. Au fur et à mesure que ces technologies deviennent plus puissantes, une course est engagée entre ces progrès technologiques et l'accroissement de notre sagesse collective. Plusieurs des enjeux sociaux de l'IA seront donc abordés pour illustrer le besoin d'investir non seulement en IA mais au moins autant dans la société et le bien-être de tous pour éviter les dérapages d'une utilisation malheureuse de l'IA.

Résumé
13 h 00
Le rôle de l’intelligence artificielle dans la transformation du secteur bancaire
Manuel Morales (UdeM - Université de Montréal)

Dans les dix dernières années nous avons été témoins de l’évolution du concept d’intelligence artificielle vers une notion qui a capturé l’imaginaire collectif avec ses promesses de transformation. L’apprentissage automatique et ses applications phares : Alpha Go, la voiture autonome, la reconnaissance d’image, la traduction automatique, etc., ont créé des attentes au niveau du potentiel de transformation de certains secteurs d’activité économique. Historiquement, le secteur bancaire est une sorte de paquebot qui a du mal à changer de direction. Au niveau de l’innovation technologique, les banques se sont fait dépassées par l’écosystème fintech en terme d’agilité. Au moment où les banques essaient de rattraper le coup, il est important d’avoir un regard critique sur les promesses de l’intelligence artificielle et ceux qu’elles veulent dire pour le secteur bancaire. Dans cette présentation, on va discuter du potentiel de transformation que l’intelligence artificielle apporte au secteur mais aussi les défis que cette transformation représente. Nous discuterons de ces questions autour de quelques exemples d’application de l’apprentissage automatique dans le secteur bancaire.

Résumé
13 h 30
Intelligence artificielle et travail : les enjeux organisationnels et managériaux
Mélanie Trottier (UQAM - Université du Québec à Montréal), Mariline Comeau-Vallée (Université du Québec à Montréal)

L’intensification technologique bouleverse actuellement les organisations, notamment en raison du remplacement de tâches par des applications issues de l’intelligence artificielle. Il en résulte un décalage important entre la rapidité avec laquelle les organisations intègrent ces applications et la connaissance que l’on a de leurs effets organisationnels. La séance propose une réflexion autour des enjeux organisationnels et managériaux de l’introduction de l’intelligence artificielle en milieu de travail en soulevant des questions telles que : quels sont les effets de ces changements sur le climat organisationnel, la satisfaction des employés, leur engagement, leur motivation, leur bien-être ou encore leur performance? Ces changements affectent-ils les relations de pouvoir au sein des organisations ? Commandent-ils de nouvelles formes de leadership? Engendrent-ils des rapports au travail différents ainsi que des changements identitaires ? Malgré les enjeux importants organisationnels et managériaux que risquent de soulever l’introduction de l’intelligence artificielle en milieu de travail, très peu de connaissances existent à l’heure actuelle sur ces derniers. La séance entend donc ouvrir la discussion en offrant quelques pistes de recherche potentielles.

Résumé
14 h 00
L'IA au service du travail humanitaire: espoirs et difficultés
François CLAVEAU (UdeS - Université de Sherbrooke), Guillaume Dandurand (UdeS - Université de Sherbrooke)

L'intelligence artificielle suscite de grands espoirs au sein des organismes humanitaires. Les « humanitaires numériques » (Digital Humanitarians, Meyer 2015) y trouvent des techniques de collecte et de traitement de l'information pour améliorer significativement la production et l'utilisation de connaissances en contexte d'urgence. En même temps, l'IA suscite des craintes et du scepticisme au sein des organismes humanitaires. Des travailleurs humanitaires « de terrain » y voient, au mieux, une source de rêves éveillés et, au pire, une technologie qui, par un déploiement prématuré, nuira concrètement à leur objectif ultime, c.-à-d. sauver des vies. Sur la base d'une étude ethnographique et épistémologique de l'unité développant des solutions d'IA chez Médecins sans frontières, cette communication analysera comment l'IA se fraie avec difficulté un chemin dans le monde humanitaire.

Résumé
15 h 00 à 17 h 00
Communications orales
Enjeux normatifs : l’éthique, la politique et la gouvernance de l’IA
Présidence/Animation : Martin Gibert (UdeM - Université de Montréal)
Batiment : UQO A.-Taché
Local : F0129-0130
15 h 00
Respect de la vie privée et problématiques éthiques à l’ère des données massives
Sébastien Gambs (UQAM - Université du Québec à Montréal)

Dans notre Société de l’Information, le profilage des utilisateurs à des fins de personnalisation et de recommandation est devenu la norme, ce qui a permis le développement de services qui sont ciblés sur les besoins spécifiques des individus, mais soulèvent aussi d’importantes questions éthiques et en terme de protection de la vie privée. En particulier, l’absence de transparence sur le processus de profilage et de personnalisation a conduit à une perte de contrôle des individus sur la collecte et l’usage qui est fait de leurs données personnelles tout en rendant impossible la possibilité pour un individu de questionner la décision prise par l’algorithme et de le rendre « imputable » par rapport à cette décision. De plus, la transparence est un prérequis afin de pouvoir analyser les biais possibles que les algorithmes de personnalisation pourraient avoir (par exemple en discriminant contre un groupe sensible de la population) dans le but de pouvoir ensuite les corriger. Dans cette présentation, je passerais en revue les principaux défis en terme de problématiques éthiques et de respect de la vie privée qui sont apparus récemment avant de présenter les principales approches qui ont été proposées pour répondre à ces défis. Enfin, je conclurais en soulignant quelques questions ouvertes.

Résumé
15 h 30
Reddition de compte algorithmique : l’obligation de rendre compte et ses limites
Dominic Martin (UQAM - Université du Québec à Montréal)

La reddition de compte algorithmique désigne une situation où on rend compte de la manière dont on a conçu, ou utilisé, un algorithme. L’usage croissant de l’apprentissage machine, des mégadonnées et des technologies de l’information soulève des enjeux éthiques importants à cet égard. Par exemple, une entreprise doit-elle expliquer comment elle entraîne un système de reconnaissance faciale pour éviter les biais raciaux? Ou encore, peut-on utiliser la reconnaissance faciale sans porter préjudice à la vie privée et aux droits et libertés fondamentales des individus? Sous quelles conditions le système de justice d’un gouvernement peut-il utiliser un système de prédiction de la jurisprudence?

Cette présentation sera divisée en trois parties. La reddition de compte est importante pour le bon fonctionnement des entreprises et des institutions publiques, mais c’est aussi une notion complexe. Dans un premier temps, je montrerai comment on peut la définir tout en la distinguant d’autres caractéristiques importantes comme la transparence, l’imputabilité ou la responsiveness. Je montrerai dans un deuxième temps comment notre obligation de rendre compte peut être limitée pour différentes raisons, notamment la protection de la vie privée, les effets contre-productifs, des contraintes épistémiques et des contraintes de coûts. Dans un troisième temps, j’appliquerai ces limites pour clarifier l’étendue de notre obligation de rendre compte de l’usage des algorithmes.

Résumé
16 h 00
Réflexions pour une recherche responsable et éthique en intelligence artificielle
Mylène Deschênes (Fonds de recherche du Québec)

Cette présentation a pour but de partager certaines des réflexions des Fonds de recherche du Québec sur la recherche éthique et responsable en intelligence artificielle (IA). En effet, l’exploitation de l’IA ouvre non seulement des voies novatrices de traitement et d’analyse de données massives, elle transforme les méthodologies et les stratégies de recherche.  De plus, la notion même de ‘participant’ en recherche, au cœur de l’analyse éthique de la recherche, est recadrée.  Il n’est plus nécessaire de compter sur la « participation active » d’êtres humains: la captation de données suffit et est souvent plus fiable qu’un questionnaire distribué aux participants. Le consentement à la recherche se résume-t-il dès lors, à une simple autorisation d’utilisation de données ? Comment assurer la fondamentale protection de la vie privée et la confidentialité des données des participants en recherche alors que l’IA offre des outils sophistiqués d’intrusion potentielle dans les secrets bien gardés des individus. Les comités d’éthique à la recherche ont-ils pour mandat d’examiner ce genre de projets dont les risques sont souvent jugés minimaux? Leur revient-il la responsabilité de questionner, dès la genèse des projets, les biais algorithmiques, pointés du doigt comme cause d’inéquité et de traitement inadéquats ?

Ce ne sont là que quelques-unes des questions pour lesquelles les FRQ ont été interpellés.

Résumé
16 h 30
Le rôle de la société civile dans la gouvernance de l’intelligence artificielle : de l'art aux lois
Valentine Goddard (Alliance Impact IA (AIIA))

Arriver à un consensus international sur l’encadrement normatif du développement et de l’implantation de l’intelligence artificielle (IA) est un objectif d'une grande importance, mais ce processus exigera des efforts et une collaboration considérable. Ce déroulement est complexifié par une concurrence économique féroce qui nuit à l'efficacité des groupes de travail mis en place pour adapter directives et réglementation aux changements technologiques. Les organismes de la société civile (OSC) sont très peu représentés au sein des groupes de travail sur la gouvernance de l'IA et, pourtant, ils ont un rôle fondamental à jouer pour assurer la qualité et la stabilité de l'encadrement normatif de l'IA.

Nos lois sont des codifications des valeurs sociales, et les OSC doivent veiller à ce que cet encadrement normatif soit représentatif des valeurs de l'ensemble des citoyens. En effet, pour s'assurer que les valeurs entendues, automatisés et codifiées soient inclusives et représentatives de l'ensemble de la population, les OSC sont les experts les mieux placés pour faciliter un dialogue inclusif, et informer les décideurs en innovation réglementaire. Il est donc essentiel que les gouvernements se mobilisent pour protéger la délibération collective et renforcent la capacité des OSC à encadrer l'IA sur le plan éthique et normatif de l’IA.

Notre présentation approfondira ces prémisses et explorera des solutions, notamment celle des arts à la rescousse de l'innovation réglementaire.

Résumé
Soir
17 h 30 à 19 h 00
Cocktail
Table ronde réseautage « Inclusion, démocratie et la gouvernance de l’IA »
Présidence/Animation : Valentine Goddard (Alliance Impact IA (AIIA))
Discutant : Luba Elliott (elluba.com), Dominique Diouf (Collège Rosemont), Nicolas Zorn (UdeM - Université de Montréal), Karina Kesserwan (Kesserwan Arteau), Ivan Tchotourian (Université Laval)
Batiment : UQO A.-Taché
Local : F0129-0130