Introduction – Regards situés, incarnés et pluriels sur l’intelligence artificielle (IA)

Image de Victoria De la Maza Cueto (Instagram), disponible sur Architectural Review.

Par Sophie Toupin

1 Décembre 2024

Qu’est-ce que l’IA? Invariablement, si vous posez la question à une personne de votre entourage, voire même si vous tentez d’interroger ChatGPT à ce sujet, vous risquez fort bien de recevoir une réponse technique. Mon interaction récente avec ChatGPT nous le montre bien. J’ai demandé à ChatGPT de m’expliquer ce qu’est l’IA. Voici sa réponse.

« L’intelligence artificielle (IA) est un domaine de l’informatique qui vise à créer des systèmes capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine. Cela inclut des tâches comme le raisonnement, l’apprentissage, la reconnaissance des schémas, la compréhension du langage naturel et la prise de décisions.

Il existe deux principaux types d’IA :

  1. IA faible (ou étroite) : conçue pour effectuer une tâche spécifique, comme les assistants virtuels (Siri, Alexa) ou les systèmes de recommandation (Netflix, Amazon).
  2. IA forte (ou générale) : une forme hypothétique d’IA qui aurait une intelligence équivalente à celle des humains et pourrait accomplir n’importe quelle tâche intellectuelle humaine.

L’IA repose sur des techniques telles que l’apprentissage automatique (machine learning), où les machines apprennent à partir de données, et l’apprentissage profond (deep learning), qui imite les réseaux neuronaux du cerveau humain pour analyser des données complexes » (Open AI, 2024).

Cette définition technique n’est pas mauvaise en soi, car elle décrit un processus computationnel qui nous permet de comprendre cette pratique d’un point de vue informatique. En se basant sur cette définition, cependant, on détache et on désincarne l’IA de ses relations avec le monde naturel, social, géopolitique, culturel, historique et économique.

La question principale à laquelle cette fiche s’intéresse, et qui a motivé également l’amorce de ce projet, est la suivante : pour quelles raisons la définition « technique » domine-t-elle notre compréhension de l’IA? Cette fiche nous permet de faire une critique des fondements épistémologiques de l’IA et nous incite à observer les manières dont les sciences humaines et sociales peuvent se saisir des différents enjeux liés au développement et aux applications de l’IA aujourd’hui.

Pour comprendre pourquoi et comment la définition technique de l’IA domine, il nous faut remonter tout d’abord à l’histoire de l’IA afin de bien situer le contexte dans lequel cette nouvelle discipline de recherche est née. Qui l’a financée, qui l’a portée et pourquoi ? À qui attribue-t-on l’expertise sur l’IA aujourd’hui ? Comme nous allons le constater, l’histoire de l’IA n’a rien d’immatériel, elle résulte de la rencontre d’éléments de géopolitique, de décisions gouvernementales, de choix de financement, ainsi que d’acteurs qui ont favorisé son développement coûte que coûte. Par contre, des voix commencent à émerger pour lever le voile sur ce qu’est l’IA et pour tenir compte d’autres perspectives, et ce sont ces dernières que nous allons mettre de l’avant en même temps que nous tâcherons de rendre plus accessibles les questions de société, souvent complexes, relatives à l’IA. Tout au long de ce projet, nous adoptons un regard critique mettant la lumière sur l’IA à travers des perspectives historiques, féministes, autochtones et décoloniales.     

La très brève histoire de l’IA :

L’une des premières définitions de l’intelligence artificielle provient d’un document intitulé A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, rédigé en 1955 par les « pères » de l’IA : John McCarthy (Dartmouth College), Marvin Minsky[1] (Université de Harvard), Nathaniel Rochester (IBM Corporation) et Claude Shannon (Bell Telephone Laboratories) et destiné à obtenir du financement de la Fondation Rockefeller. Un groupe de scientifiques, mathématiciens et informaticiens qui s’étaient rencontrés lors de leurs études, et qui ont poursuivi leurs carrières respectives dans des laboratoires réputés et de prestigieuses universités, proposaient dans ce document d’organiser un atelier scientifique pour étudier ce qu’ils avaient nommé « intelligence artificielle ». L’atelier visait à examiner la théorie selon laquelle les machines pourraient être programmées pour imiter les caractéristiques de l’intelligence humaine. Les premières lignes de cette proposition de financement se lisent ainsi:

The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer. (McCarthy et al.,1955, p.1)

L’atelier, qui s’est tenu à l’été 1956 à l’université Dartmouth à Hanover (New Hampshire), est considéré comme l’acte de naissance de l’IA comme domaine de recherche.  De nombreux ouvrages indiquent que John McCarthy a convaincu ses collègues d’employer l’expression « intelligence artificielle » pour décrire une discipline qui n’avait rien à voir avec l’intelligence[2] (Julia, 2019) plutôt qu’une autre expression comme « apprentissage machine ». L’expression était forte, faisant miroiter des idées de science-fiction, où l’intelligence pouvait être créée par une machine.

Rappelons le contexte de l’époque : en 1955, le monde est en pleine Guerre froide. Peu de temps avant, le décryptage de messages chiffrés avait marqué les esprits. En effet, le travail de mathématiciens, dont Alan Turing, tel qu’on a pu le voir dans le film biographique Le jeu de l’imitation (Tyldum, 2014), avait permis de décrypter les messages des nazis envoyés par le biais de la machine de chiffrement Enigma et ainsi aidé les efforts de guerre du camp des Alliés. L’armée américaine s’est ensuite intéressée aux capacités de l’IA pour développer des systèmes de traduction automatique du russe à l’anglais afin de glaner des renseignements dans les communications de l’Union soviétique (Bell, 2018). Le « printemps de l’IA », une période d’émergence rapide à compter de 1955, s’insère dans un désir de domination des techniques computationnelles naissantes. Spoutnik 1, le premier satellite de communication, lancé par la Russie en 1957, bouleverse l’opinion publique et les milieux militaires américains, car il montre que le bloc soviétique était plus avancé qu’on ne le pensait. En février 1958, le président américain Dwight Eisenhower créé une agence au sein du département de la défense – l’ARPA (Advanced Research Projects Agency) dont le but était de financer la recherche scientifique dans le domaine technologique. Sous la gouverne de son directeur J.C.R. Licklider, un ancien professeur du MIT, l’ARPA commence à investir dans les balbutiements de l’internet tout comme ceux de l’IA. Licklider croyait qu’il était possible pour les êtres humains de collaborer avec les machines. Il décrit cette symbiose ou cette collaboration qu’il imagine entre les humain·es et les machines dans Man-Computer Symbiosis. La vision de Licklider, qui persiste aujourd’hui dans nos imaginaires, est celle d’un monde meilleur si les humain·es collaborent avec les machines, en l’occurrence l’IA pour nous sauver de tous les maux qui affligent nos sociétés (changement climatique, pauvreté, etc.). Sur le plan géopolitique, le développement de l’IA est une tentative de domination des États-Unis dans le domaine technique.

À la fin des années 1970, le monde de l’AI qui avait été jusque-là très bien financé –plusieurs chercheurs·euses (il s’agit principalement d’homme) avaient lancé leur laboratoire d’IA dans les grandes universités américaines, telles que MIT, Carnegie Mellon et Stanford – se retrouva dans un hiver de l’IA : échecs et définancement massif ont caractérisé cette période. Les grandes promesses que ces chercheur.e.s avaient faites sur le plan de la traduction automatique, de la navigation robotique, de la compréhension langagière et des véhicules autonomes ne s’étaient pas matérialisées.

Il faut ensuite attendre jusqu’à la décennie 2010 pour qu’un nouveau printemps de l’IA prenne son essor lorsque l’équipe de Geoffrey Hinton, de l’université de Toronto, remporte le concours ImageNet. Il s’agit alors d’une percée technique pour améliorer la précision de systèmes d’apprentissage automatique qui intéresse grandement les géants de la tech.  Le modèle prédictif « apprend » sur d’important flux de données numériques pour faire des prédictions. C’est grâce à ce nouveau modèle de reconnaissance d’objets par ordinateur qu’un nouveau printemps de l’IA démarre.

Aujourd’hui, la définition technique de l’IA largement employée dans la presse ou même dans les articles scientifiques décrit plutôt la méthode de deep learning, soit une IA qui apprend grâce à des données. L’expert en IA est celui ou celle qui la programme. C’est cette approche et cette définition technique qui dominent notre compréhension commune de l’IA.

Regard sociologique situé, partiel et partial sur l’IA

Que se passerait-t-il si l’on utilisait une définition de l’IA qui partirait d’un autre regard, un regard sociologique situé, qui est partiel et partial ?  C’est ce que propose la sociologue Kate Crawford, entre autres chercheur·euses. Dans son livre « Le contre-atlas de l’intelligence artificielle » Crawford (2022) définit l’IA comme « [n’étant ni] artificielle ni intelligente.Au contraire, l’intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, de carburant, de main-d’œuvre humaine, d’infrastructures, de logistique, d’histoires et de classifications » (p. 19). Cette définition rencontre pleinement l’objectif de changer notre regard sur l’IA, qui est, faut-il le rappeler, à la base de l’élaboration de notre projet. Nous souhaitons pouvoir l’étudier sous d’autres perspectives et réfléchir à d’autres questions que celles qui sont généralement abordées. Le premier constat que nous faisons, élément incontournable, est que l’IA est le résultat de choix gouvernementaux et d’investissements de fonds publics qui ont permis son développement, mais qui ont gardé dans l’ombre certaines dimensions concernant l’infrastructure qui la sous-tend. Les systèmes d’IA sont donc une « expression du pouvoir, qui résulte de forces économiques et politiques plus larges ; ils sont créés afin d’augmenter les profits et de centraliser le contrôle pour ceux qui les utilisent » (Crawford, 2022, p. 245).

Dans ce projet, nous allons dans un premier temps examiner l’IA au regard des travailleurs·euses (parfois appeler petites mains) invisibles qui la font fonctionner.  De « petites mains » humaines, main d’œuvre bon marché qui se trouve majoritairement dans les pays du monde majoritaire (Asie, Afrique, Amérique latine), assument les nombreux coûts cachés de la production de données de notre vie quotidienne et rendant nos outils d’IA moins toxique (Écouter la balado avec Clément Le Ludec, Phd). Dans un deuxième temps, nous allons explorer les enjeux de la surveillance technologique policière propulsée par l’IA, ainsi que les formes de résistance à cette technopolice(Écouter la balado avec Felix Tréguer, Phd). Nous allons aussi nous pencher sur l’impact environnemental de l’IA (Écouter la balado avec la chercheuse Eda Nano) pour comprendre qu’elle n’est pas immatérielle, mais qu’elle est rendue possible grâce à des processus d’extractions de terre rares, d’utilisation d’eau, de terre arabe pour héberger les centres de données. Nous aborderons aussi les nouvelles tentatives d’utiliser l’énergie nucléaire pour propulser des mégas modèles de langage qui nous permettent d’entraîner des outils d’IA comme ChatGPT. Nous allons également examiner les hypertrucages, plus connus sous leur nom anglais de deepfakes, afin de comprendre comment cette pratique, principalement abusive, peut également être employée comme moyen de résistance civique, que l’on appelle deeptruth. Ces fiches et les balados qui les accompagnent vous permettront de mieux comprendre l’intelligence artificielle sous toutes ses facettes.

Références :

Bell, Geneviève. 2018. Decolonizing Artificial Intelligence. Ted Talk Rosario.  https://www.youtube.com/watch?v=ixcb2_GpU6Q&ab_channel=TEDxTalks

Crawford, Kate. 2022. Contre-atlas de l’intelligence artificielle : Les coûts politiques, sociaux et environnementaux de l’IA. Paris: Éditions Zulma.

Haraway, Donna. 1988. Situated Knowledges : The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, 14(3), 575‑599.

Julia, Luc. 2019. There is no such thing as artificial intelligence. Éditions First.

Licklider, Joseph Carl Robnett. 1960. Man-Computer Symbiosis. RE Transactions on Human Factors in Electronics, volume HFE-1, pages 4-11, March. https://groups.csail.mit.edu/medg/people/psz/Licklider.html

McCarthy, John. et al. 1955. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. 13.

Open AI. 2024. Conversation avec ChatGPT version 3.5, 25 septembre.

Tyldum, Morten. 2014. Le jeu de l’imitation.

Pour aller plus loin 

Casilli, Antonio A. 2019. En Attendant Les Robots : Enquête Sur Le Travail Du Clic. Paris: Éditions du Seuil.

Bridle, James.  Qu’est-ce que l’intelligence ? Les idées larges, ARTE https://www.youtube.com/watch?v=hSoakjXRNp8&ab_channel=ARTE


[1] Marvin Minsky a été accusé d’avoir eu des relations sexuelles avec une victime de la traite des êtres humains sur l’île de Jeffrey Epstein. https://www.theverge.com/2019/8/9/20798900/marvin-minsky-jeffrey-epstein-sex-trafficking-island-court-records-unsealed

[2] C’est d’ailleurs l’une des raisons pour lesquels de nombreux programmeurs et programmeuses préfère l’expression apprentissage automatique (machine learning) popularisée par Arthur Samuel (Julia, 2019).