Calendrier

Mai
17
ven
2024
Éthique animale et éthique de l’IA: quels croisements ?
Mai 17 Jour entier
Éthique animale et éthique de l’IA: quels croisements ?

Atelier co-organisé par Ophélie Desmons (INSPE de Paris, Sorbonne Université) et Martin Gibert (Université de Montréal).

Avec le soutien du Groupe de recherche en éthique environnementale et animale (GRÉEA), du Centre de recherche en éthique (CRÉ) et de l’UMR 8011 “Sciences, Normes, Démocratie”, Sorbonne Université.

Pour y participer, c’est ici.

Programme

9:00 (Montréal)/15:00 (Paris)

Mark Ryan (Wageningen), Leonie N. Bossert (U. of Vienna)

Dr. Doolittle Uses AI: Should We Try to Speak Whale? 

AI technologies are increasingly applied on nonhuman animals. In this talk, we will focus on a particular application of AI to other animals, namely, using AI to decode animal communication, in particular whale communication. We will discuss a variety of ethical aspects of using AI to decode whale communication, as well as the risks and benefits involved.

9:30/15:30

Ophélie Desmons (Sorbonne) 

Une IA qui parle baleine, anticiper le pire et évaluer les bénéfices potentiels

Des projets récents de développement de l’IA laissent entrevoir la possibilité de communiquer avec les baleines. Cette intervention s’appuie sur les ressources offertes par une ouvre de fiction (Extrapolations, Saison 1, épisode 2, AppleTV, 2023) pour examiner la question de savoir si une telle IA est susceptible de produire de nouvelles injustices à l’égard des animaux concernés ou au contraire d’apporter des éléments de réponse à l’un des problèmes fréquemment souligné dans le champ de l’éthique et de la justice animales : le fait que les animaux ne disposent pas d’une “voix” leur permettant de faire entendre leurs intérêts et de revendiquer le respect de leurs droits.

Recent AI technologies point to the possibility of communicating with whales. This talk draws on the resources offered by a work of fiction (Extrapolations, Season 1, Episode 2, AppleTV, 2023) to examine the question of whether such an AI is likely to produce new injustices for the animals concerned or, on the contrary, to provide elements of a response to one of the problems frequently highlighted in the field of animal ethics and animal justice: the fact that animals do not have a « voice » enabling them to make their interests heard and claim respect for their rights.

10:00/16:00

Soenke Ziesche, Yip Fai Tse (Princeton)

AI alignment for nonhuman animals: next steps

In our talk we present our latest research, which comprises further arguments why nonhuman animals ought to be included in AI alignment efforts and why we believe this is possible. In short, we propose to provide AI systems access with all types of data of nonhuman animals according to animal welfare methods and let the AI systems analyse the data and learn about the interests and preferences of nonhuman animals through (inverse) reinforcement learning.

10:30/16:30

Jean-Cassien Billier (Sorbonne) 

La pluralité des mondes moraux : les implications métaéthiques des interactions entre l’IA et les animaux non-humains

On sait déjà que l’IA peut créer des mondes moraux inédits, constitués d’agents moraux artificiels modulaires. L’interaction entre l’IA et les animaux non-humains ouvre une perspective plus radicalement nouvelle, et bien plus hétérodoxe : celle de mondes moraux constitués par des relations entre des entités morales non-humaines de deux types : les unes naturelles, les autres artificielles. Ces nouveaux mondes moraux pourront être dépourvus d’agents moraux humains ou de relation directe à ces derniers. Quelles sont les implications métaéthiques de cette potentielle multiplication des mondes moraux ? 

11:00/17:00: pause

11:15/17:15

Augusta Gaze (Sorbonne)

Comment Zoopolis éclaire les relations entre systèmes d’IA et animaux non-humains?

Après une présentation de la Théorie des Droits des Animaux développée dans Zoopolis, nous partirons du cadre normatif posé par les auteurs afin de penser des cas qui ne sont pas intuitivement faciles à traiter. D’abord, nous analyserons l’exemple des systèmes d’IA capables d’éduquer les animaux de compagnie. Puis, nous poursuivrons avec l’interaction des voitures autonomes avec les kangourous. 

11:45/17:45

Angela Martin (Basel), Leonie N. Bossert (U. of Vienna)

Large Language Models, Search Engine Ranking, and Justice for Animals

In this talk, we focus on the manifold forms of harms that nonhuman animals can experience because of Large Language Models (LLM) and Search Engine Ranking (SER). We show how LLMs and SERs regularly disrespect animal interests, which amounts to speciesism. In a first  step, we outline that LLMs and SERs should, in an ideal world,  minimally not cause any harm to animals. In a second step, we argue that in the currently non-ideal world, LLMs and SERs should be actively altered to educate people about animals and speciesism. Finally, we discuss several  objections to our arguments.

12:15/18:15

Martin Gibert (U.Montréal) et Nick Clanchy (Centre de recherche en éthique)

Qu’est-ce qui est spécial avec le spécisme algorithmique? 

Le spécisme algorithmique, entendu comme l’ensemble des effets discriminatoires des algorithmes sur les animaux, se distingue des autres manifestations du spécisme par ses aspects plus automatiques et contrôlables – et donc plus facilement réversible. Il se distingue par ailleurs du racisme algorithmique car il est moins reconnu et par le fait que les victimes ne peuvent qu’être passives face à ces discriminations: elles ont besoin de notre epistemic care. Nous considérerons plusieurs exemples.    

Algorithmic speciesism, understood as all the discriminatory effects of algorithms on animals, differs from other manifestations of speciesism in being more automatic and controllableand therefore more easily reversible. It also differs from algorithmic racism in that it is less recognized, and its victims can only be passive with regard to such discrimination: they need our epistemic care. We will consider several examples.    

12:45/18:45: le mot de la fin

Juin
6
jeu
2024
ChatGPT et l’éthique : réflexions autour des Grands modèles de langage (LLM) et autres algorithmes de génération. @ Cégep de Saint-Jean-sur-Richelieu
Juin 6 Jour entier
ChatGPT et l’éthique : réflexions autour des Grands modèles de langage (LLM) et autres algorithmes de génération. @ Cégep de Saint-Jean-sur-Richelieu

ChatGPT et l’éthique : réflexions autour des Grands modèles de langage (LLM) et autres algorithmes de génération.

Le Centre de Recherche en Éthique (CRÉ), Martin Gibert et Thomas Adetou sont heureux de vous inviter à soumettre une proposition de communication dans le cadre d’un colloque organisé lors du congrès annuel de la SPQ, le 6 juin 2024 au Cégep de Saint-Jean-sur-Richelieu.

Celui-ci portera sur l’éthique des algorithmes de génération comme Midjourney ou Dall.e (génération d’image) ou des Grands Modèles de Langage comme ChatGPT (génération de texte). L’objectif sera d’explorer les implications éthiques découlant de l’émergence des algorithmes de génération, en mettant en lumière les défis et les opportunités qu’ils offrent dans le paysage philosophique contemporain. Nous espérons créer et encourager un espace de dialogue interdisciplinaire propice à l’exploration des interactions entre les algorithmes de génération et le champ de l’éthique.

L’appel à communications sera clôturé 05 mai 2024 à 23h59. Les soumissions devront respecter les critères suivants :
• Un résumé d’une longueur maximale de 300 mots en français.
• Le sujet de la communication doit se situer dans les champs de l’éthique et/ou des algorithmes de générations.
• Les textes devront être acheminés à l’adresse suivante : amah.adetou@umontreal.ca

Le colloque sera l’occasion de contribuer à la diversité et à la richesse des échanges lors de ce congrès qui marque les cinquante ans de la SPQ.
Pour toutes informations : amah.adetou@umontreal.ca