Intelligence artificielle

Les développements récents en intelligence artificielle (IA) laissent présager des transformations importantes dans les sphères économique, politique et sociale, ainsi que dans le domaine de la recherche scientifique. Ces développements soulèvent des enjeux éthiques importants. Peut-on utiliser un algorithme de recrutement ou de prédiction des risques s’il comporte un biais sexiste, raciste ou lié à d’autre formes de discrimination? Quelles sont nos obligations d’utiliser ces algorithmes de manière transparente et équitable? Comment un robot médical peut-il respecter l’autonomie et la dignité d’un patient? Quelles sont les bonnes politiques publiques pour se préparer au déploiement de la voiture autonome, des algorithmes d’apprentissage machine ou autres technologies de l’IA?

Face à ces divers types d’enjeux, l’éthique de l’IA s’intéresse à ce qui est bon, juste ou vertueux dans la mise en œuvre des systèmes d’IA. C’est une discipline récente et transversale qui combine des éléments de philosophie de la technique, d’éthique des robots, d’éthique des données massives et de l’information, mais aussi d’éthique publique, d’éthique des affaires, d’éthique de la guerre, de bioéthique, de philosophie sociale et politique, etc. De façon générale, l’éthique de de l’IA se demande quels principes moraux devraient guider les développements des technologies qui simulent certaines fonctions de l’intelligence humaine. Des initiatives comme la Déclaration de Montréal pour un développement responsable de l’IA visent précisément à répondre à ce type de préoccupations.

L’IA soulève aussi des questions d’éthique fondamentale. Par exemple, un système d’IA pourrait-il être un agent moral? Une difficulté consiste à amener les systèmes d’IA à agir pour les bonnes raisons. Par ailleurs, un système d’IA ne pourrait-il pas être un patient moral ayant des droits protégeant ses intérêts? Cela suppose-t-il qu’un système d’IA possède des états affectifs ou des états mentaux artificiels? On peut en outre se demander s’il serait possible ou souhaitable d’automatiser la prise de décision morale. Bref, les chercheuses et les chercheurs en éthique de l’IA ont assurément du travail pour de nombreuses années.

Pour obtenir plus d’information ou pour communiquer avec des chercheurs en éthique de l’IA, vous pouvez contacter Martin Gibert.

Liens utiles :

La Déclaration de Montréal pour un développement responsable de l’IA

Pour s’inscrire à la liste de diffusion Ethique-IA, c’est ici.

__________________________________________

Recent developments in artificial intelligence (AI) suggest we are on the brink of major transformations in the economic, political and social spheres, as well as in the domain of scientific research. These developments raise important ethical issues: is it acceptable to use recruiting or risk-prediction algorithms if they are biased against women, ethnic minorities, or any other vulnerable group? What are our obligations to be transparent, and fair, in the use of these algorithms? How do we ensure that medical robots will treat each patient with respect and dignity? What kinds of public policies will ensure the best level of preparedness for the deployment of self-driving cars, machine-learning algorithms or other AI-related technologies?

In the arena of these new and emerging issues, AI ethics is concerned with what is good, just or virtuous in the development of AI systems. This research field is both new and of a transversal nature, combining elements of the philosophy of technology, robot ethics, big data and information ethics, as well as questions of public policy, business ethics, war ethics, bioethics, political and social philosophy, and so on. More generally, AI ethics is concerned with the discovery of the moral principles that should guide the development of technologies that reproduce some of the functions of human intelligence. Initiatives such as the Montreal Declaration for the responsible development of AI aim precisely at addressing these preoccupations.

AI also raises fundamental ethical questions. For instance, is it possible to create an AI system that could be considered a moral agent? How do we create an AI system that will act for the right reasons? Should we treat some of these systems as moral patients, bearers of rights entitled to the protection of their interests? Does this suggest that these AI systems must have artificial affective or mental states? Is it even desirable to automate moral decision-making? Clearly, researchers in ethics will have a lot of work for many years to come.

For further information or to get in touch with researchers in AI ethics, please contact Martin Gibert.

Useful links :

Montréal Déclaration for the Responsible Development of AI

Ethique-IA mailing list