L'histoire de l'intelligence artificielle
- Stéphane Guy
- 27 févr.
- 10 min de lecture
Dernière mise à jour : 2 mars
On parle désormais de l'IA un peu partout sur Internet. Mais est-ce que vous vous êtes déjà demandé comment l'IA a été créée, quelle est son (ou ses) origine(s)... ? Quand on parle d'intelligence artificielle, on pense automatiquement à des outils informatiques comme ChatGPT, Copilot, et maintenant à des appareils boostés à l'IA comme les smartphones Google Pixels ou les Galaxy S. Mais était-ce vraiment et uniquement ça à l'origine ? On vous explique.

En bref
L’histoire de l'intelligence artificielle trouve ses origines dans la philosophie antique, où les penseurs tentaient de schématiser la pensée humaine pour mieux la comprendre.
Avant l’informatique, des tentatives de reproduction du vivant, comme le canard de Vaucanson ou les golems tibétains, cherchaient à créer une intelligence artificielle.
L’IA moderne naît en 1943 avec les recherches sur les réseaux de neurones et se développe avec des concepts clés comme le test de Turing et le machine learning.
Après un âge d’or dans les années 1950-1960, l’IA connaît un ralentissement dans les années 1970, avant de revenir grâce aux avancées du machine learning dans les années 1980.
Dans les années 1990, l’IA prouve son efficacité avec des succès marquants comme la victoire de Deep Blue contre Kasparov, ouvrant la voie à ses applications concrètes.
Avant d'expliquer l'histoire de l'IA : c'est quoi l'intelligence artificielle au fait ?
Avant de rentrer dans le vif du sujet, il convient de rappeler la définition même de l'IA, afin de débuter sur de bonnes bases. Si ce n'est pas encore fait, on vous invite à lire notre article qui explique c'est quoi une IA. Vous aurez ainsi toutes les clés pour mieux comprendre de quoi il est question ici !
Les origines de l'IA : avant même de parler informatique, une affaire de philosophie
Les origines de l'IA ne sont pas aussi pragmatiques et terre-à-terre que ce que nous voyons de nos jours. En effet, l'intelligence artificielle remonte à l'antiquité, plusieurs milliers d'années en arrière, lorsque les philosophes grecs, indiens ou chinois tentèrent de "mécaniser" et de "schématiser" la pensée humaine pour la décortiquer et la comprendre. C'est avec ce souhait philosophique et cette recherche que l'IA apparaît, bien loin des concepts et théories informatiques ou mathématiques.
Plus tard, des chercheurs, philosophes et penseurs continueront de chercher à théoriser la pensée humaine, à l'instar de Gottfried Wilhelm Leibniz, penseur du XVIIe siècle.* Ce dernier explique dans un de ses ouvrages, De Arte Combinatoria, comment la pensée humaine pourrait être organisée selon un alphabet contenant toutes les idées humaines communes afin de mieux comprendre et prévoir les réactions de l'homme pour le juger plus objectivement.
On voit donc que depuis des millénaires, l'homme essaya de théoriser, comprendre et analyser l'intelligence humaine. Un processus essentiel pour la répliquer et la reproduire dans un programme informatique... En effet, comment créer une intelligence artificielle si on ne comprend pas notre propre psychologie ?
L'IA et les répliques d'organismes vivants
Dans la même période, plusieurs figures historiques essayent de répliquer les organismes humains, mais également ceux des animaux pour en comprendre le fonctionnement et parvenir à le répliquer. C'est par exemple le cas du canard de Vaucanson, dans la première moitié du XVIIIe siècle.* Ce robot dont le but était de répliquer le système digestif d'un véritable canard reflète bien la volonté de la société de l'époque de vouloir comprendre le fonctionnement du vivant sur le plan organique, mais également mental. Ce deuxième volet est également exploré avec les moines tibétains et d'autres groupes religieux qui, à travers le monde et l'histoire, tentèrent de créer des golems, des êtres doués d'une conscience propre et obéissants aux moines. Le but était ici de créer un être doué d'une intelligence propre, et créé de toutes pièces. Une intelligence... artificielle !
1943 - 1956 : la naissance de l'IA sur le plan théorique
C'est en 1943 que naît l'IA au sens où nous l'entendons : informatique et mathématique. En effet, Warren McCullough et Walter Pitts, respectivement chercheur en neurologie et mathématicien, tous deux Américains, publient cette année "A Logical Calculus of Ideas Immanent in Nervous Activity."*, qu'on peut traduire par "Un calcul logique des idées immanentes à l'activité nerveuse". Ce document présente à l'ensemble de la communauté scientifique les recherches des deux hommes pour créer un réseau de neurones artificiels. Car quoi de mieux pour fabriquer une intelligence artificielle que de répliquer le cerveau humain ?
D'ailleurs, c'est en 1950 qu'est fabriqué SNARC, pour Stochastic Neural Analog Reinforcement Calculator, qu'on peut traduire par Calculateur de renforcement analogique stochastique et neuronal. Cette machine, créée par Marvin Lee Misky, scientifique américain, trouve son origine directement grâce aux écrits de McCullough et Pitts. Misky aura en effet été inspiré desdits travaux pour concevoir et créer sa machine. SNARC est très intéressant, car il s'agit du tout premier ordinateur créé avec un réseau neuronal. Ce dernier était même capable d'apprendre de lui-même !
La même année, Alan Turing publie son très célèbre "Test de Turing", une épreuve conçue pour savoir si une machine est assez sophistiquée pour se faire passer pour un humain sans être détectée. Le test de Turing est simple : un humain est placé face à une autre personne dont il ne sait pas si elle est humaine ou machine. On peut visualiser un homme attablé avec devant lui un rideau qui l'empêche de voir l'autre côté de la table. Celui-ci doit poser des questions à l'entité face à lui et dont il ignore la nature. Il doit ensuite, à l'aide des réponses obtenues, déterminer si l'entité est un humain ou une machine. On considère que la machine réussit le test de Turing quand l'humain ne parvient plus à déterminer s'il s'agit d'une machine ou d'un humain, et/ou s'il fait autant de fautes dans l'interprétation de ses réponses pour un humain et une machine. Ce test, créé par Alan Turing, l'un des plus grands mathématiciens du monde, illustre bien l'essor des machines et du concept d'IA et son intérêt grandissant auprès de la communauté scientifique.
En 1952, le premier programme pour jouer aux échecs est créé. Il s'appelle Turochamp et est créé par Alan Turing et D. G. Champernowne, un statisticien anglais. Mais c'est en 1956 qu'on considère que l'IA arrive enfin "véritablement" et entre dans son premier âge d'or, à la conférence de Dartmouth.

1956 - 1970 : l'âge d'or de l'IA
La conférence de Dartmouth, organisée par Marvin Lee Minsky, l'inventeur de SNARC et par Jonh McCarty, mathématicien et pionnier de l'intelligence artificielle, est considérée comme le pivot dans le processus d'émergence de l'intelligence artificielle. C'est en effet lors de ce rassemblement que l'on voit apparaître le terme "intelligence artificielle" pour la première fois au monde.
En 1959, Arthur Samuel, un autre pionnier américain de l'IA, créé ensuite le terme de 'Machine Learning" qui sera ensuite repris jusqu'à nos jours pour expliquer le concept d'apprentissage des machines par l'expérience au lieu d'être programmé de manière manuelle et intentionnelle par les humains.
C'est également durant cette période que le raisonnement par tâtonnement est créé. Ce concept informatique est l'un des tout premiers systèmes de fonctionnement créé pour l'IA. Il consiste tout simplement en une méthode simple : le programme, pour atteindre son objectif, va faire plusieurs tentatives jusqu'à arriver à son objectif.
Entre 1964 et 1966, ELIZA*, un programme informatique reposant sur l'intelligence artificielle, voit le jour. Son concept ? Reproduire des conversations en imitant un thérapeute. Et déjà à l'époque, certaines personnes ayant pu tester ce programme boosté par l'IA se sont dites bluffées par la cohérence de ses réponses et son réalisme. Comme quoi, nos intelligences artificielles et autres chatbots d'aujourd'hui n'ont rien inventé !
1970 - 1980 : l'hiver de l'intelligence artificielle
Dans les années 1970, le secteur de l'IA n'est plus aussi attractif qu'il l'était dans les décennies précédentes. Plusieurs facteurs expliquent cela. D'abord, un facteur purement technologique, empêchant l'IA de se développer aussi vite que la communauté scientifique l'espérait, crée une déception certaine dans cette communauté, puis chez les investisseurs. Les ordinateurs et technologies des années 1970 n'étaient tout simplement pas assez puissants pour parvenir à rendre l'intelligence artificielle assez performante.
Parallèlement à cela, des critiques universitaires commencent à se faire de plus en plus nombreuses. On reproche à l'IA son manque d'applications concrètes, mais également les modèles neurologiques et mathématiques sur lesquels elle repose, moins en vogue durant cette décennie. En plus de cela, des critiques éthiques émergent de plus en plus, et certaines personnalités commencent à questionner le fait de créer une machine imitant et ressemblant à un humain dans son raisonnement, ou encore la dangerosité d'un tel programme pour l'emploi, voire pour l'humanité.
Tout ceci crée un frein des investissements et une baisse des crédits et des budgets alloués dans ce secteur, causant ainsi ce qu'on appelle un "hiver" de l'intelligence artificielle jusque dans les années 1980 environ.
1980 - 1990 : le retour de l'IA dans la recherche
L'IA revient sur le devant de la scène avec des innovations très intéressantes dans les années 1980, notamment le machine learning. Thème déjà théorisé par Arthur Samuel en 1959, il sera cette fois-ci appliqué aux nouvelles intelligences artificielles. L'apprentissage par l'erreur et l'expérience deviennent de plus en plus concrets, et les IA de l'époque sont connectés à d'autres domaines comme la statistique ou la reconnaissance pour mieux apprendre. Elles commencent à reconnaître des images ou des textes.
Parallèlement à ça, les investissements vont à nouveau bon train. Par exemple, en 1981, le ministère japonais de l'Économie, du Commerce et de l'Industrie alloue 850 millions de dollars, pour un projet d'ordinateur quantique de cinquième génération. L'objectif de ce projet était d'élaborer une intelligence artificielle capable de parler et de répondre comme un humain, mais également de penser comme lui.
1990 -2000 : Les grandes victoires de l'IA
Dans les années 1990, l'IA trouve des applications concrètes dans le secteur professionnel, notamment en finance et dans le secteur technologique. Ces percées sont encore assez timides, mais montrent un changement dans la vision du public et de l'IA, même si certains domaines voient encore avec dédain ce type de programmes. L'IA ne jouit pas d'une excellente réputation selon le secteur d'activité. En cause : on ignore pourquoi l'intelligence artificielle n'arrive pas à égaler l'intelligence humaine malgré les diverses avancées technologiques, et les réticences éthiques et philosophiques sont toujours vives. Cependant, c'est bien dans les années 1990 que l'IA se fraie un chemin dans notre société de manière concrète.
En 1997, un événement vient propulser l'IA dans une nouvelle dimension pour le formuler ainsi. En effet, c'est durant cette année que le système informatique d'IBM, Deep Blue,* bat le champion du monde d'échecs, Gary Kasparov. On peut également parler du DARPA Grand Challenge, un concours organisé par la DARPA, pour Defense Advanced Research Projects Agency, ou Agence de recherches en projets avancés de la défense. Il s'agit d'un concours dont le but est d'évaluer les meilleurs véhicules autonomes. Le concours est remporté en 2005 par un robot de Stanford. Ce dernier a conduit de manière autonome sur une distance de 210 kilomètres, sans informations préalables sur la zone dans laquelle il allait évoluer.
Toutes ces avancées et ses succès ont été rendus possibles grâce à l'évolution technologique très rapide des machines. Des ordinateurs de plus en plus puissants et à même d'exécuter des algorithmes et des tâches complexes permettent de grandes avancées dans le domaine de l'intelligence artificielle.
2000 - 2020 : Les nouvelles victoires de l'intelligence artificielle contre l'homme
En 2000, une invention va permettre à l'IA de faire de grandes avancées : Internet. Au fur et à mesure que le Web s'étendait et se connectait partout à travers le globe, des milliards de données se sont accumulées, créant petit à petit ce qu'on appelle aujourd'hui le Big Data. Et c'est ce big data qui allait devenir et reste encore aujourd'hui le carburant principal pour les IA. Des données par milliards à assimiler et apprendre pour se perfectionner. Un paradis de l'intelligence artificielle et pour qui veut créer un programme de ce type.
Grâce à tout cela, les grandes firmes technologiques se lancent dans l'aventure. Apple lance en 2007 Siri, son assistant connecté. Google sort la même année Now, son assistant de l'époque. En 2014, c'est Microsoft qui suit le mouvement avec Cortana, l'agente intelligente inspirée de l'IA tirée du jeu vidéo Halo, sur les ordinateurs Windows. Elle sera peu à peu remplacée par le nouveau Copilot. Enfin, Amazon sort la même année Alexa, son assistant qui existe toujours, notamment via les enceintes connectées.
Côté victoires, l'IA n'est pas en reste. Citons la machine d'IBM qui a remporté le jeu télévisé Jeopardy! face aux deux champions en titre, Brad Rutter et Ken Jenning. Ce jeu consiste à deviner la question à partir de réponses données. Puis vient en 2016 AlphaGo, qui bat le champion du monde de Go, démontrant à nouveau la supériorité de l'IA dans ce domaine.

2020 à nos jours : l'IA démocratisée et accessible à tous
Aujourd'hui, l'intelligence artificielle s'est immiscée profondément dans nos vies. Depuis le lancement de ChatGPT en 2022, l'IA est devenue accessible à échelle mondiale, offrant à tous et à toutes la possibilité de bénéficier de ses fonctionnalités. Cela a ouvert la voie à une série d'innovations depuis 2020 : Copilot, DALL-E, sans parler des smartphones dotés d'intelligence artificielle qui ont suivi. L'IA est donc désormais omniprésente, et elle trouve des applications dans presque tous les domaines : retouche photo, musique, texte, programmation, loisirs...
Les exemples sont nombreux et impressionnants. Les derniers modèles de smartphones, comme les Google Pixel permettent de retoucher des images en quelques secondes seulement, tandis que la gamme Galaxy S des Samsung sont capables de traduire des conversations en temps réel. Même vos goûts et vos choix sont scrutés et analysés, grâce à des algorithmes qui peuvent vous recommander des musiques ou des films parfaitement adaptés à vos goûts.
L'impact de l'IA est également visible dans le domaine professionnel. En effet, des IA comme Copilot permettent de faciliter la programmation, en assistant les développeurs dans la rédaction de code, tandis que DALL-E permet de changer la face du design et de l'art numérique en générant des images à partir de simples descriptions textuelles.
Désormais, l'intelligence artificielle ne se contente plus d'être une technologie d'avenir. Elle pourra peut-être, à terme, transformer et/ou impacter profondément la façon dont nous travaillons et dont nous nous divertissons.
Quel futur et enjeux pour l'IA ?
De nos jours, la recherche se montre de nouveau extrêmement enthousiaste vis-à-vis de l'intelligence artificielle. Les avancées sont continues et le rythme des innovations technologiques est effréné. Certains experts n'hésitent pas à évoquer la possibilité de l'émergence de super IA ou d'IA "fortes". Il s'agirait de systèmes capables non seulement d'imiter les capacités humaines, mais également de les surpasser dans des domaines spécifiques, voire potentiellement dans tous les aspects. Bien que nous ne soyons pas encore arrivés à ce stade de développement, il est indéniable que l'intelligence artificielle, malgré près d'un siècle de progrès, n'en est encore qu'à ses débuts.
Cette technologie prometteuse nous réserve encore de nombreuses surprises et pourrait transformer de manière radicale notre façon de vivre et de travailler dans un avenir proche. Les chercheurs et les ingénieurs continuent de repousser les limites du possible, ouvrant ainsi la voie à des applications innovantes qui pourraient révolutionner des secteurs entiers, allant de la médecine à l'éducation, en passant par les transports et la communication. Il est donc essentiel de suivre de près ces évolutions, car elles façonneront inévitablement notre futur.
Commentaires