Quand on demande qui a inventé l'IA, cela ressemble à première vue à une question typique du quiz de Günther Jauch, avec une seule bonne réponse. Un peu comme « Qui a inventé le téléphone ? » : un nom, une année, et le tour est joué.
Avec l'IA, c'est différent : l'IA n'est pas un appareil en soi, mais une idée, un domaine de recherche et une longue série de percées. Et oui : dans cette série, il y a quelques noms sans lesquels nous n'aurions pas aujourd'hui de chatbots, ni de reconnaissance d'images, ni de systèmes d'assistance intelligents. Nous retracons pour toi son évolution.
L'essentiel en bref
- Qui a inventé l'IA ? Personne en particulier. L'IA est le fruit de nombreuses contributions, idées et technologies accumulées au fil des décennies.
- Le terme « intelligence artificielle » (IA) est généralement attribué à John McCarthy, à la suite de l'atelier de Dartmouth de 1956 (ou de la proposition de 1955/56).
- En 1950, Alan Turing a proposé, avec le « jeu de l'imitation » (test de Turing), l'un des concepts fondamentaux : rendre l'intelligence vérifiable à partir du comportement.
Qui a inventé l'IA ? Aperçu des principales avancées
Avant de nous plonger dans les dates et les noms, voici une petite mise au point utile : la question « Qui a inventé l'IA ? » ne renvoie pas à l'histoire d'un héros solitaire, mais plutôt à un relais qui s'est opéré au fil des décennies.
Tantôt, l'IA était envisagée comme un ensemble de règles (« Si X, alors Y »), tantôt comme un système capable d'apprendre et d'assimiler lui-même des modèles, et entre-temps, il y a eu des périodes où le secteur était plutôt en hibernation.
C'est précisément pour cette raison qu'il vaut la peine de se pencher sur les étapes clés : tu verras comment le développement de l'IA s'est déroulé, depuis les concepts philosophiques de base jusqu'aux modèles mathématiques, en passant par les avancées actuelles. Et tu seras soudain capable de répondre les yeux fermés à la question : « Depuis quand l'IA existe-t-elle ? »
1956 : Dartmouth – la naissance de l'« intelligence artificielle »
Le «Dartmouth Summer Research Project on Artificial Intelligence » est largement considéré comme l'événement fondateur de l'IA en tant que domaine de recherche. Il a été organisé, entre autres, par John McCarthy, Marvin Minsky, Claude Shannon et Nathaniel Rochester. Dartmouth lui-même affirme que c'est là que le terme « intelligence artificielle » a été inventé et que la conférence est considérée comme la « naissance » de ce domaine.
Si l'on doit répondre en une phrase à la question de savoir qui a « inventé » l'IA, c'est le nom de John McCarthy qui revient le plus souvent, car c'est lui qui a inventé le terme et défini le cadre. Mais attention : un terme ne suffit pas à faire fonctionner l'IA. Il en fallait davantage pour cela.
1950 : Alan Turing – l'idée de rendre l'intelligence vérifiable
Avant même Dartmouth, Alan Turing avait déjà, en 1950, dans son article « Computing Machinery and Intelligence » la question « Les machines peuvent-elles penser ? » et proposa le « jeu de l'imitation » (qui deviendra plus tard le « test de Turing »). Cela fut important, car Turing déplaça ainsi le centre d'intérêt : il s'éloigna des querelles sémantiques (« Qu'est-ce que penser ? ») pour se concentrer sur les comportements observables.
1957-1960 : Les premiers réseaux neuronaux – le perceptron, précurseur
Alors que les symbolistes réfléchissaient aux règles, des tentatives précoces visant à reproduire l'apprentissage avaient lieu en parallèle. À partir de 1957, Frank Rosenblatt a travaillé sur le Perceptron, un des premiers modèles d’apprentissage (très simple). Ce n’était pas encore de l’« IA moderne », mais cela montre que le développement de l’IA a très tôt suivi deux voies parallèles, combinant à la fois les règles et l’apprentissage.
Des années 1960 aux années 1980 : l'IA symbolique, les systèmes experts… et la désillusion
Dans les années 60 et 70, l'idée de représenter l'intelligence à l'aide de symboles, de logique et de règles a connu un véritable essor. Plus tard sont apparus les systèmes experts : les connaissances étaient modélisées manuellement. Cela a fonctionné dans des domaines très spécifiques, jusqu'à ce que cette approche devienne trop coûteuse, trop fragile et trop difficile à adapter à grande échelle. Puis, comme c'est souvent le cas dans l'histoire des technologies, s'ensuivit un long hiver.
L'hiver de l'IA : quand le progrès s'arrête
« L'hiver de l'IA » décrit des phases au cours desquelles l'intérêt et le financement de l'IA ont considérablement diminué, notamment après des promesses trop ambitieuses et des résultats concrets insuffisants. C'est un bon rappel pour aujourd'hui : l'IA est puissante, mais elle reste un système qui comporte des limites, des risques et des dépendances (données, qualité, gouvernance).
1986 : la rétropropagation – le moteur d'apprentissage devient utilisable au quotidien
Une avancée majeure pour les systèmes d'apprentissage a été la généralisation de la rétropropagation (propagation de l'erreur en amont du réseau, ajustement des poids). L'article classique article de Nature de Rumelhart, Hinton et Williams (1986) compte parmi les références incontournables.
C'est l'une des raisons pour lesquelles des noms comme Geoffrey Hinton reviennent si souvent aujourd'hui lorsqu'on se demande « qui a inventé l'IA » : il a profondément marqué l'ère moderne de l'apprentissage automatique et des réseaux neuronaux.
2012 : AlexNet – Le deep learning montre de quoi il est capable
En 2012, AlexNet (Krizhevsky, Sutskever, Hinton) a largement remporté le concours ImageNet – un signal d'alarme indiquant que les réseaux profonds, associés à la puissance des GPU, pouvaient soudainement être déployés à grande échelle. À partir de là, l'IA n'était plus une simple « recherche » dans de nombreuses entreprises, mais un produit à part entière.
2017 : les transformateurs – le fondement des modèles linguistiques actuels
Le prochain grand tournant est survenu en 2017 avec « Attention Is All You Need » : le Transformer.
Les transformateurs sont (pour simplifier) extrêmement doués pour apprendre les relations au sein de séquences et constituent la colonne vertébrale de nombreux modèles linguistiques et multimodaux modernes. Aujourd’hui, quand on demande qui a inventé l’IA, beaucoup veulent en réalité savoir : qui a rendu possible l’IA générative moderne ? Et 2017 est une année charnière à cet égard.
À partir de là, l'IA n'est pas seulement devenue « meilleure », mais elle s'est aussi soudainement imposée au grand public : des modèles comme BERT (2018) ont montré à quel point les transformateurs pouvaient être performants dans les tâches linguistiques, GPT-3 (2020) a généralisé la génération de texte à grande échelle et, avec ChatGPT (2022), tout cela s'est définitivement ancré dans le quotidien.
L'avenir de l'IA : de simple outil à membre à part entière de l'équipe
Les prochaines années ne seront pas tant consacrées à « toujours plus grand, toujours plus intelligent », mais davantage à l'intégration : l'IA s'inscrira dans les processus, les rôles et les chaînes de responsabilité.
Concrètement, cela signifie :
- Qualité des données devient le goulot d'étranglement (et non le choix du modèle).
- La sécurité et la conformité passent de la liste des « choses à faire plus tard » en tête de liste.
- Les cas d'utilisation doivent être mesurables : temps, qualité, risque, chiffre d'affaires… quelque chose de concret.
L'IA devient plus ciblée (et donc plus utile)
Au lieu de modèles universels valables pour tout, on voit apparaître davantage de systèmes spécifiques à un domaine et des solutions: IA pour l’assistance, IA pour le contrôle qualité, IA pour la gestion des connaissances, IA pour les documents. Quand on demande « Depuis quand l’IA existe-t-elle ? », on veut souvent dire, dans le monde des affaires : depuis quand l’IA est-elle vraiment pertinente pour nous ? Pour beaucoup, la réponse est : depuis qu’elle peut être intégrée dans le quotidien et qu’elle est devenue rentable.
L'IA a certes de nombreuses capacités. Mais ses avantages ne se concrétisent que lorsque quelqu'un parvient à faire le lien entre l'informatique, les métiers et la stratégie. C'est précisément là que la démonstration se distingue de la création de valeur.
L'IA est une évolution, pas une invention
« Qui a inventé l'IA ? » : c'est une mauvaise question, mais qui cache une curiosité légitime. L'IA n'est pas le fruit d'une invention individuelle, mais d'un relais : Turing en a posé les fondements conceptuels, Dartmouth a donné son nom à ce domaine, McCarthy en a forgé le terme, Rosenblatt et ses collègues ont fourni les premiers modèles d'apprentissage, le backprop a rendu l'entraînement plus praticable, AlexNet a permis la percée dans la pratique et les Transformers ont donné naissance à la génération actuelle.
Si tu en parles au sein de l'entreprise, voici l'essentiel : l'IA a pris de l'ampleur – et elle continue de se développer. La différence ne tient pas à la magie, mais à des objectifs clairs, à des données de qualité et à un plan qui tient compte de la mise en œuvre et des responsabilités.
C'est précisément là qu'intervient BE BRAVE : en tant que partenaire qui ne se contente pas d’expliquer l’IA, mais qui l’intègre dans les processus, les équipes et les systèmes de manière à en faire un véritable levier commercial – de façon pragmatique, bien structurée et dans le respect des normes suisses, de la protection des données et de la faisabilité.
FAQ
Qui a inventé l'IA : John McCarthy ou Alan Turing ?
Si l'on doit citer un nom : c'est John McCarthy qui a inventé le terme « intelligence artificielle » et organisé l'atelier de Dartmouth en 1956. En 1950, Alan Turing a posé les bases essentielles de la notion d'intelligence artificielle et du test de Turing.
Depuis quand l'IA existe-t-elle ?
En tant que domaine de recherche, il est généralement considéré comme ayant vu le jour « officiellement » à partir de 1956 (Dartmouth). En tant qu'idée (des machines qui « pensent »), il remonte bien plus loin – mais les années 1950 et 1956 constituent les repères courants.
Pourquoi y a-t-il eu des « hivers de l'IA » ?
Parce que les attentes et la réalité divergeaient parfois : des promesses trop ambitieuses, une puissance de calcul insuffisante, un manque de données, des systèmes trop fragiles. Résultat : une baisse des financements et de l'intérêt.
Quelle a été la percée la plus importante pour l'IA moderne ?
Il y en a eu plusieurs, mais deux sont essentiels : AlexNet en 2012 (l'apprentissage profond à grande échelle) et Transformer en 2017 (à la base de nombreux modèles linguistiques actuels).