/home/lecreumo/public html/wp content/uploads/2023/01/capture décran le 2023 01 19 à 10.18.21

4e journée CRÉ et Obvia en éthique de l’IA

Quand :
3 février 2023 Jour entier
2023-02-03T00:00:00-05:00
2023-02-04T00:00:00-05:00
Où :
École des sciences de la gestion UQAM, Montréal - en mode hybride
salle DS-2220
Pavillon J.-A.-Desève, 320
rue Sainte-Catherine Est

4e journée d’étude en éthique de l’IA: Informatique affective

Le programme complet de la 4e journée CRÉ et Obvia en éthique de l’IA est maintenant disponible. Elle se tiendra le 3 février prochain à l’UQAM et a pour thème l‘informatique affective.

Pour y participer par Zoom, c’est ici. Si vous comptez venir, merci d’écrire à Hazar Haidar (hazar_haidar@uqar.ca) avant le 31 janvier pour que nous commandions suffisamment  de boîtes à lunch véganes (offertes gracieusement par nos partenaires).

Chair: Hazar Haidar (UQAR)

9h30: A. Prégent (Leiden U.) Les systèmes de reconnaissance des émotions: ami ou ennemi de l’agentivité?

Quels sont les impacts des systèmes de reconnaissance des émotions (SRÉ) sur les structures sociales, sur nos relations humaines, sur le bien-être? Je propose d’explorer les impacts que l’utilisation de ces systèmes peut avoir sur certaines de nos valeurs fondamentales telles que la vie privée, les relations humaines (amitié, amour) ainsi que sur notre possibilité d’atteindre le bien-être en tant qu’agent autonome.

10h15: J. Martineau et M. Lafond, (HEC Montréal) Enjeux éthiques et acceptabilité sociale des technologies mobilisant l’informatique affective.

Les systèmes d’IA mobilisant la reconnaissance, l’expression et l’utilisation de données émotionnelles à diverses fins sont de plus en plus développés et déployés dans les organisations privées et publiques, et leur utilisation soulève de nombreux questionnements et débats. Cette présentation vise à cerner certains des enjeux éthiques liés aux technologies d’informatique affective, et à discuter des facteurs et conditions d’acceptabilité sociale de celles-ci dans les organisations et dans la société.

10h45 : M. Gibert, (U. de Montréal) Intelligence émotionnelle artificielle: le cas ChatGPT.

L’intelligence émotionnelle (IE) désigne notre capacité à réguler nos émotions et celles  des autres (Salovey et Mayer). À quelles conditions peut-on dire qu’un algorithme comme ChatGPT fait preuve d’intelligence émotionnelle et qu’est-ce qui distingue cette IE artificielle d’une IE humaine? Quelles sont les implications morales? Je m’appuierai notamment sur L’emprise insidieuse des machines parlantes de Serge Tisseron  et proposerai un lien avec l’hypothèse des robots vertueux.

11h15: (pause)

Chair: Alexandra Prégent (U. Leiden)

11h30:  M-H Tessier, C. Pouliot, J. N. Phuong Trieu et P. Jackson (U. Laval) Les progrès et dangers des algorithmes de reconnaissance automatique de la douleur.

Les systèmes de reconnaissance automatique des expressions faciales ont le potentiel de devenir un atout pour la gestion de la douleur. Ils peuvent détecter rapidement et précisément les manifestations de douleur, surpassant même des observateurs humains entraînés. Cependant, il est important de saisir leurs limites, comme les informations partielles relatives à la douleur ressentie, et de formuler des recommandations pour circonscrire certains risques à leur utilisation tels que le sous-traitement de la douleur.

12h00: T. Adetou, (U. de Montréal), Une machine sans émotion peut-elle être un agent moral ?

Les carebots, les chatbots, etc., sont parfois considérés comme des agents moraux artificiels. Or traditionnellement, l’agentivité morale se fonde sur la rationalité (Kant), la responsabilité ou les émotions (Hume). Si nous prenons au sérieux la centralité des émotions dans la décision morale (Rietti), comment alors, des agents artificiels sans émotions peuvent réellement agir moralement. Nous discuterons cette question en évoquant notamment l’approche perceptuelle de Mark Coekelbergh.

12h30: (lunch)

Chair: Martin Gibert (U. de Montréal)

14:00 P. Plusquellec  (EmoScienS), Mobiliser éthiquement l’informatique affective pour promouvoir la santé mentale ?

Une personne sur 4 va déclarer un trouble de santé émotionnelle au travail. À la suite de la pandémie de covid-19, cette proportion a tellement augmenté que nous craignons une pandémie de troubles de santé mentale. Les progrès en apprentissage profond dans la reconnaissance automatique d’émotions peuvent être mobilisés pour faire face à ce problème global. Le développement d’un outil qui permettrait à chacun de veiller sur ses émotions en temps réel présente cependant son lot de défis éthiques que nous adresserons.

14:30 J. Pierre (U. Sherbrooke) et M-J. Catoir-Brisson, (U. Audencia Nantes), L’IA émotionnelle face aux émotions de ses concepteurs

Dans le cadre d’une recherche-intervention, nous avons accompagné un industriel souhaitant développer une IA émotionnelle pour la famille. En repartant de l’empathie supposée de l’artefact, nous avons proposé aux concepteurs de prendre la place de la machine et de capturer les éléments de vie affective dans leurs familles. Ce dispositif d’enquête a permis de cadrer une éthique de la conception pour les technologies affectives, combinant les valeurs morales des innovateurs et le potentiel commercial de l’innovation.

15:00: (pause)

Chair: Hazar Haidar (UQAR)

15:15  A. Sabourin Laflamme  et F.  Bruneault (UQAM), Le statut moral de nos restes numériques à la lumière de l’éthique de l’information.

Nous lèguerons après notre mort un héritage numérique imposant. La quantité astronomique de données personnelles recueillies de notre vivant couplée aux progrès fulgurants en intelligence artificielle permettent d’envisager des types de relations affectives inédites aux défunts. Nous proposons, partant de l’éthique de l’information telle que développée par Luciano Floridi, de réfléchir à la question du statut moral des restes numériques ainsi qu’aux question éthiques que soulèvent les nouveaux produits offerts par l’industrie de l’après-vie numérique.

15:45 Table ronde avec Philip Jackson (U. Laval), Pierrich Plusquellec (EmoScienS), Dominic Martin (UQAM), Joé Martineau (HEC Montréal).

16:45- fin