Image intelligence artificielle actuelle : histoire et définition

apprentissage-intelligence-artificielle-ia-histoire

L’intelligence artificielle démarre comme discipline en 1956, elle a connu son âge d’or en 1980 avec des publications abracadabrantes avant, de nombreux scientifiques ont imaginés plusieurs modèles intelligents et rapides, ainsi résoudre des problèmes compliqués, comme le décryptage d’Enigma par Alan Turing.

Histoire de l’intelligence artificielle IA :

source: Poisson Fécond

Depuis l’aube de notre existence, l’Homme essaie toujours de donner du sens à ce qui l’entoure, nature, créatures…et s’interroge sur le monde, ainsi sur lui-même.

• L’Homme a toujours cherché à imiter la Nature dans l’espoir d’avoir une certaine action ou un certain contrôle sur les faits et les choses.

• L’Homme a toujours proposé des modèles du simple au complexe, souvent dans un but explicatif sur des mythes et des sciences, face à l’inconnu et aux questions sans réponses, l’humanité a pu développer sa vision des choses et son approche afin de résoudre des problématiques qui tracassent son quotidien.

• Histoire de l’intelligence artificielle = histoire de l’évolution de la pensée humaine sur les questions portant sur la nature de l’esprit (philosophie, mythes, psychologie, sciences) et + histoire des technologies liées à ces questions.

L’image de l’intelligence artificielle, des origines à nos jours

L’image en générale sur l’Intelligence Artificielle est largement positive. Cette vision s’est consolidé dernièrement mais il ne s’est par élargi. Plus de 7 personnes sur 10 ont toujours une bonne image de l’Intelligence Artificielle 71% chez les Français.

Aujourd’hui, les progrès de l’intelligence artificielle est très répandu grâce au buzz que internet rend possible, mais ces évolutions ne datent pas de 50 ans en arrière, l’idée de conception des machines « intelligentes » remonte à la nuit des temps.

Les statues articulées de l’Egypte ancienne date de 800 avant Jésus-Christ, en passant par les automates de la Renaissance, allant jusqu’à la création des robots, l’Homme a toujours rêvé d’animer et « contrôler » la matière.

Les « créatures artificielles » employées lors des cérémonies religieuses, qui fait référence aux statues animées.

La civilisation égyptienne, pionnière de son époque, fut en effet l’une des premières à concevoir des statues articulées de l’Egypte ancienne, d’ou nous viennent également ces statuettes articulées, Boulanger pétrissant sa pâte au Louvre, Paysan au travail. Ces premiers automates ne mettaient en œuvre que des mécanismes élémentaires : leviers, poulies, treuils, vis, coins, tuyaux,dans les machineries de l’époque.

Le livre de Jean-gabriel Ganascia parle de l’intelligence artificielle ou Les créatures artificielles: des automates aux mondes virtuels.

source : guichetdusavoir.org/ statue articulée de l’Égypte ancienne

L’invention des automates remonte à l’Antiquité, reste à dire que c’est les plus anciennes preuves de l’intérêt de l’Homme à l’intelligence artificielle.

les mythes disent que dans l’Iliade (chant XVIII), le Dieu du feu Héphaïstos avait élaboré et échafaudé des tables à trois pieds pour le servir. L’Iliade est une épopée de la Grèce antique attribuée à l’aède Homère.

Le thème légendaire et héroïque de l’épopée était la guerre de Troie, l’affrontement des Troyens et les Achéens (toute la Grèce), chaque camp étant soutenu par diverses divinités comme Poséidon, Apollon ou encore Athéna.

L’ordre chronologique de l’histoire de l’intelligence artificielle

Les prémices : Antiquité

Antiquité égyptienne : l’esprit dans la machine dans des statues sacrées.

Vers le Xe siècle av. J-C : automates anthropomorphes réalistes en Chine (par Yan Shi, au service de Ji Man)

D’autres automates anthropomorphes réalistes ont été construits par des artisans de toutes les civilisations, dont Héron d’Alexandrie, Al-Djazari inventeur et ingénieur mécanique arabe (1136-1206) parmi ces création :

  • Les machines automatiques.
  • L’un des premiers « ordinateurs » du monde.
  • Un calculateur analogique.
  • Les humanoïdes mécaniques programmables.

Wolfgang von Kempelen écrivain et inventeur hongrois. Il est particulièrement connu pour ses machines parlantes et son célèbre joueur d’échecs qu’il fabriqua en 1769.

Wolfgang-von-Kempelen-ai-job-histoire
source : overblog / Une réplique de l’automate truqué de John Gaughan

Les croyants de son époque étaient persuadés que les artisans avaient soufflé ces statues avec des esprits réels, capables de sagesse et d’émotion.

Source: showcase

Dans la mythologie grecque : robots serviteurs du dieu Hephaïstos.

Vers 1750 av. J.-C.  à Babylone (époque d’Hammurabi), tables présentant les algorithmes les plus anciens.

Vers 300 av. J.-C. : algorithmes plus généraux publiés par des mathématiciens grecs Euclide et Eratosthène.

Vers 87 av. J.-C. : machine d’Anticythère, premier calculateur analogique dite réalisé par Archimède, mais l’inventeur reste inconnu selon ls revus scientifiques, il s’agit du plus ancien calculateur analogique capable de décrire avec précision la position du soleil et la lune.

machine-d-Anticythère-le-plus-ancien-calculateur-analogique
les partie restantes du calculateur analogique
le-plus-ancien-calculateur-analogique
la simulation complexe du calculateur analogique

Antiquité et Moyen Âge

Vers le IIIe siècle av. J-C : Les premiers automates de l’Antiquité par Philon de Byzance et Ctésibios d’Alexandrie.

Il s’agit d’un automate anthropomorphe, la conception d’une servante qui tienne une cruche dans sa main droite. Comme les Grecs buvaient généralement le vin étendu d’eau à l’époque; quand le visiteur mettait une coupe dans sa main gauche, la « servante » versait automatiquement du vin d’abord, puis de l’eau.

Vers le VIIIe siècle : Mohamed Ybn Moussa al-Khwârizmî (né dans les années 780, originaire de Khiva dans la région du Khwarezm, dans l’actuel Ouzbékistan, mort vers 850 à Bagdad), théorie des algorithmes + « Abrégé du calcul par la restauration et la comparaison », invention de l’algèbre (de l’arabe « Al-jabr » signifiant « compensation »), 1 er traité à étudier les équations du 1er et 2 nd degré.

Au XIIIe siècle : le philosophe Raymond Lulle (1232-1315) conçoit plusieurs machines logiques dédiées à la production de connaissance par des moyens logiques.

Moyen Âge et Temps modernes

Vers 1550 : la création mythique du Golem par le rabbin de Prague (Maharal).

Au XVIIIe siècle : des philosophes comme Gottfried Leibniz, Thomas Hobbes ou René Descartes explorent la possibilité que toute la pensée rationnelle puisse être aussi systématique que l’algèbre ou la géométrie (la raison n’est que calcul).

Dans le Léviathan de Hobbes, on retrouve la célèbre phrase : « la raison […] n’est rien d’autre que le fait de calculer ».

C’est le fond de la pensé de l’être humain vis à vis son image de l’intelligence artificielle, pour lui, l’hypothèse que le processus de pensée humaine peut être mécanisé.

En 1645 : Pascaline (machine à calculée inventée par Blaise Pascal).

En 1703 : arithmétique binaire inventée par Leibniz.

Au XVIIIe siècle : programmation métier à tisser (Basile Bouchon, J.-B. Falcon, Jacquard…).

En 1735 : le flûteur automate (Jacques de Vaucanson).

Le XIXe siècle

En 1770 à 1820 : le Turc mécanique (canular).

En 1822 : la machine à calculer automatique,« machine à différences » de Charles Babbage.

En 1836 : La machine analytique (analytical engine en anglais) est une machine à calculer programmable imaginée en 1834 par le mathématicien anglais Charles Babbage, qui a passé toute sa vie à l’améliorer. Il ne la réalisera jamais (juste un prototype inachevé).

En 1843 : écriture d’un algorithme pour calculer les nombres de Bernoulli sur la future machine analytique de Babbage (Ada Lovelace).

En 1847 : algèbre de Boole (George Boole).

En 1869 : piano logique de Jevons : est une machine permettant, d’une façon mécanique, d’arriver aux conclusions induites par un jeu de prémisses.

En 1876 : analyseur différentiel de l’ingénieur Britannique James Thomson, conçu pour résoudre les équations différentielles moyens intégration, grâce à des mécanismes de disque de roue et pour effectuer les calculs.

L’époque des pionniers 

1914 : Thomas J. Watson est nommé à la tête de la compagnie C-T-R (Computing-Tabulating-Recording Comp).

1921 : représentation théâtrale de R. U. R. (Rossumovi univerzální roboti, Rossum’s Universal Robots) Karel Čapek

1924 : Watson renomme la compagnie C-T-R en IBM

1931 : théorème d’incomplétude de Gödel de Kurt Gödel

1930 : création de la Compagnie des Machines Bull CMB, une société industrielle entre 1933 et 1964. Née des brevets de machines mécanographiques du Norvégien Fredrik Rosing Bull

1936 : publication de « On Computable Numbers with an Application to the Entscheidungsproblem » par Alan Turing  indécidabilité algorithmique, modèle machine abstraite

1939 : IBM commence à construire le Mark I: elle achevée le travail de la Compagnie des Machines Bull CMB. Mark I lisait ses instructions sur des cartes perforées et exécutait l’instruction courante puis lisait la suivante. Il n’avait pas d’instruction de branchement conditionnel, en langage purement informatique veut dire sans boucle if, switch, while, for…En programmation en appel ce protocole FIFO (Firs in First Out), la première instruction lue, la première instruction exécutée, il y a aussi LIFO (Last in First Out), tout dépend du type de processeur.

Les années 1940 et le début de la cybernétique

Une élite de scientifiques de différentes disciplines (mathématiques, ingénierie, économie,psychologie et science politique) proposaient l’idée de la possibilité de créer un cerveau artificiel (origines de la cybernétique) : L’intelligence est définie comme une capacité d’adaptation dans le temps. Cette adaptation optimise une trajectoire pour atteindre le but final voulu.

Leur but était de donner une vision unifiée, peut être standardiser, des domaines naissants de l’automatique, de l’électronique et de la théorie mathématique de l’information, c’est le cas de nos jour de l’informatique industrielle; des système de contrôle-commande ou Homme-machine.

La notion de machines programmables :l’importance de la notion de traitement de l’information, machine de Turing : application de règles sur des symboles.  

Idée : programme = données → système automodifiable simulation : « si je pouvais imiter la Nature, c’est peut-être que j’avais découvert l’un de ses secrets » [Mandelbrot, 1963].

1941 : le Z3, le calculateur programmable de Konrad Zuse. Les premiers ordinateurs modernes sont apparus durant la Seconde Guerre mondiale les machines massives de cryptanalyse ( l’ENIAC, Z3 et le Colossus), conçues à partir des fondements théoriques établis par Alan Turing et développés par John von Neumann.

1942 : décryptage d’Enigma au Bletchley Park par Turing. Bletchley Park était une usine à décrypter où la quasi-totalité des mathématiciens de Cambridge et d’Oxford avaient intégrés.

La « bombe » de Turing : vers le décryptage industriel, que actuellement est devenu une science a étudiée. Alan Turing va publier en 1936 un article fondateur intitulé « Sur les nombres calculable avec une application au problème de la décision », c’était une réponse de la problématique posée auparavant par David hilbert : »existe-il une méthode effectivement calculable pour décider si une proposition mathématique est valide ou non? »

Pour répondre à cette question Alan Turing va imaginer une machine très simple, mais qui est totalement programmable, son point fort est qui permette de tester toute sorte d’algorithme.

Grâce à Alan Turing, aujourd’hui on trouve de l’intelligence artificielle industrie, intelligence artificielle pour la santé, intelligence artificielle sur PC ou smartphone, comme chez Microsoft, chez Apple avec son dernier SoC bionic A13, qui contient une unité d’apprentissage automatique accélérée ou IBM.

Les années 1950 et les débuts de l’IA

Les années 1950 et les débuts de l’IA, dans le « jeu de l’imitation » « test de Turing » : l’idée est si une machine peut mener une conversation (par téléscripteur interposé) où est très difficile de faire la différence durant une conversation avec un être humain, alors la machine peut être qualifiée d’« intelligente », on entend un smartphone intelligent, l’exemple de SIRI chez Apple, chez google l’intelligence artificielle a prit une place très importante.

 1955 : En 1955, Allen Newell et (le futur prix Nobel) Herbert Simon, avec l’aide de Cliff Shaw, ont créé le « Théoricien logique » un programme capable de démontrer 38 des 52 premiers théorèmes des Principia Mathematica de Russell et Whitehead, une démonstrations inédites, une première, dont certaines sont jugées particulièrement élégantes–> résolution du problème corps-esprit ?

1956 : « intelligence artificielle IA » à la conférence de Dartmouth organisée par Minsky, McCarthy, Shannon et Rochester (Dartmouth Summer Research Project on Artificial Intelligence) l’atelier scientifique, où ils ont abordés la naissance de l’intelligence artificielle AI comme un sujet de recherche autonome : « chaque aspect de l’apprentissage, ou toute autre caractéristique de l’intelligence, peut être décrit si précisément qu’une machine peut le simuler »

Les grands espoirs : années 1950 et 1960

A partir des années 1950, les programmes développés à l’époque sont considérés par la majorité des gens comme « extraordinaires », car les machines les plus populaires sont les calculateurs comme IBM Tbulators Social Security 1936, remplacés juste après par des ordinateurs qui résolvent des problèmes algébriques de mots, démontrent des théorèmes en géométrie et apprennent à parler anglais, à cette époque, peu croient que de tels comportements « intelligents » soient possibles pour des machines.

Cette approche donne un optimisme fou des chercheurs : une machine vraiment intelligente, pense et décide d’ici 20 ans, chose qui poussée les investissements massifs (DARPA).

Approche connexionniste : le Perceptron de Frank Rosenblatt 1958 l’un des pionniers de l’intelligence artificielle IA, a conçu le premier réseau doté d’apprentissage, prendre des décisions ou traduire des langues. Il s’agit du plus ancien algorithme de Machine Learning.

Le perceptron avait pour but de reconnaître des lettre alphabet avec des cellules photo-électrique comme capteur.

1966 : ELIZA de Joseph Weizenbaum (test de Turing). C’est un programme de conversation écrit par Joseph Weizenbaum en janvier 1966. Son but était de reproduire une discussion entre un humain et un ordinateur qui représente un faux thérapeute rogerien.

L’idée du test de Turing vers une machine pensante

Version simplifiée du problème argumentant qu’une « machine pensante » est au moins plausible, le test de Turing a été la première hypothèse sérieuse dans le domaine de la philosophie de l’intelligence artificielle.

Le Test de Turing est simple, un évaluateur humain chargé de juger une conversation textuelle entre une machine et un humain. L’évaluateur ignore lequel des deux participants homme-machine est la machine. S’il est incapable de discerner l’homme de la machine après 5 minutes de conversation, alors la machine a réussie le test. Le principe du test ne mesure pas la capacité d’une machine à répondre correctement à une question, mais surtout à quel point la ressemblance des réponses à celles fournit par un humain.

algorithme-test-de-turing-
Source : TechTarget

La désillusion de années 1970

1969 : Le livre Perceptrons de Minsky et Papert dévoile des critique des modèles de type neurones formels ( connexionnisme).

A partir du milieu des années 1970, l’IA subit des critiques et des revers budgétaires appelé le premier « hiver » de l’IA. Les chercheurs en IA n’appréhendaient pas les difficultés des problèmes auxquels ils sont confrontés : L’optimisme provoque des attentes excessives, les résultats promis ne se matérialisent pourtant pas, le début des fins des investissements commence pour les projets de l’IA, les limites telles que le passage à l’échelle, le raisonnement associé aux bases de connaissances de culture générale… 

La renaissance de l’IA dans les années 1980

Trois grands tournants dans les années 1980 :

1. développement des programmes d’IA appelés « systèmes experts » : adoption par les entreprises, la prise de conscience que la connaissance devient le sujet central de la recherche en IA.

2. le gouvernement japonais finance massivement l’IA à travers son initiative, l’apparition des « ordinateurs de 5ème génération ».

3. renaissance du connexionnisme à travers les travaux de John Hopfield et David Rumelhart (PDP Research Group):

Début de la micro-informatique domestique, il s’agit d’un début de intelligence artificielle pour pc et Mac : Macintosh d’Apple et PC avec le système d’exploitation Windows, « microsoft intelligence artificielle », le premiers succès commerciaux des réseaux de neurones.

Le nouveau déclin des début des années 1990

La Strategic Computing Initiative de la DARPA a arrêté ses financements à l’IA, la nouvelle direction a conclu que l’intelligence artificielle n’est plus à la mode, elle a redirigé ses subventions vers d’autres projets plus propices, ainsi des résultats rapides, les objectifs impressionnants listés en 1981 par le Japon pour ses ordinateurs de cinquième génération n’ont pas été atteints, chose qui mit fin au programme d’intelligence artificielle mené par le gouvernement japonais.

Les nouveaux Exploits des fin des années 1990

1997 : Deep Blue d’IBM bat Garry Kasparov : 2 victoires, 3 nulles et 1 défaite (3,5 à 2,5). Deep Blue, le fruit de 5 ans de travail et de centaines de milliers de dollars d’investissement est devenu la première machine de jeu d’échecs à battre Garry Kasparov (world champion).

ibm-deep-blue-vs-kasparov
Source : Kasparov Vs. Deep Blue George Widman, 1996 (Forbes, 2011)

Deep Blue est devenue la machine titanesque qui bat l’intelligence de l’homme, ce succès était le début de la fin du combat homme/machine, et ceux qui suivront, ne reposent pas sur de nouveaux paradigmes révolutionnaires mais sur une application minutieuse des techniques d’ingénierie et sur la puissance phénoménale des ordinateurs. Deep Blue est capable de calculer environ 200 millions de coups par seconde.

Les nouveaux Exploits des années 2000-2010

Années 2000 : nouvel intérêt pour les données Internet BIGDATA.

La naissance de nouveaux géants du DIGITAL sur le terrain « les moteurs de recherches ».

En 2011 : marque le début d’une nouvelle ère, le projet Google Brain : un projet de recherche d’apprentissage en profondeur (deep learning).

2011 en février : dans un match de démonstration du jeu télévisé Jeopardy!, les deux célèbres champions de Jeopardy!, Brad Rutter et Ken Jennings ont été battus par le système de question/réponse conçu par IBM, au centre de recherche Watson; le superordinateur IBM (IBM Power Systems), il comporte 90 serveurs Power, 750 réunis dans 10 racks (2880 cœurs), utilisant le framework Hadoop, il faisait partie du grand projet Apache, afin de parcourir une quantité massive de contenu disponible environ 200 millions de pages en 3s.

Les nouveaux Exploits des années 2000-2010

En 2012 : Large Scale Visual Recognition Challenge : réduction des erreurs : stagnation des taux d’erreur à 25% au mieux, 16% d’erreurs avec des réseaux de neurones profonds. Un projet de recherche d’Alex Krizhevsky & Ilya Sutskever de l’Université de Toronto, Geoffrey E. Hinton de l’Université de Standford.

En 2013-2015: DNNResearch Google s’intéresse à l’apprentissage des machines, il commence à travailler sur les réseaux de neurones biologiques et leur application aux machines.

La Création d’OpenAI en 11 décembre 2015 à San Francisco, Californie, États-Unis, son Budget de 1 milliard de dollars américains, les Fondateurs : Elon Musk le PDG de Tesla et SpaceX, Sam Altman, Ilya Sutskever, Wojciech Zaremba, Greg Brockman, John Schulmanest. C’est une société de développement et de déploiement d’IA dont la mission est de veiller à ce que l’intelligence générale artificielle profite à toute l’humanité, mais aussi à Google : Andrew Ng, Jeff Dean, Tomas Mikolov, Google n’est pas le seul à chasser les pros de l’IA : Facebook (Yann LeCun, Vladimir Vapnik, Mikolov) ou Baidu (Ng)… 

En octobre 2015 : AlphaGo de l’entreprise britannique Google DeepMind, ce programme informatique capable de jouer au jeu de go, gagne par 5 à 0 un match contre Fan Hui, 2ème dan professionnel et champion d’Europe : 1 ère victoire d’une IA contre un joueur professionnel, sans handicap et sur un goban 19×19.

alphago-vs-lee-sedol
Source : AlphaGo seals 4-1 victory over Go grandmaster Lee Sedol The Guardian (Yonhap/Reuters, 2017)

En 2016 : encore l’IA de Google AlphaGo a remporté le match contre Lee Sedol (meilleur joueur du monde), l’IA a gagné toutes les parties sauf la quatrième parmi les 5 jouées.

Le principe d’AlphaGo : Basé sur la combinaison de techniques d’apprentissage automatique et de parcours de graphe, associées à de nombreux entraînements hommes/ordinateurs, et surtout sur des copies de lui-même.

Intelligence artificielle IA critique

L’intelligence artificielle a était critiqué et jusqu’au jour d’aujourd’hui encore, des associations qui crient : intelligence artificielle danger, l’opnion public, même les gurus de l’application de l’IA comme Elon Musk ont exprimé leur inquiétude sur le sujet, quand la machine prendra le dessus, l’intelligence artificielle est un risque fondamental pour l’existence de l’être humain.

Reste a analysé les points positifs de l’IA sur notre quotidien, l’appication de l’IA dans la santé, diagnostiqué des cancer…l’IA et la finance, l’intelligence artificielle et l’économie. Questions éthiques sur IA et robotique, usage militaire, sécurité, vie privé.

C’est en raison de la représentation de l’humain comme un être transparent et rationnel que son « être informationnel » se dévoile, et à partir de « son modèle », on peut créer la machine intelligente. Dans cette approche, le récit fondateur de l’intelligence artificielle, et, globalement, de toutes les disciplines contemporaines qui se basent sur la notion : information / communication, est d’abord celui de la conception d’une représentation de l’humain.

La bonne image de l’IA continue avant tout à reposer sur son utilité perçue, une intelligence artificielle forte a toujours fasciné l’homme, vu la tache colossale exécutée par la machine, remplaçant le travail de l’homme répétitif et le traitement de données gigantesques.

N’hésitez pas à laisser vos commentaires sur le sujet, l’équipe CosmopolMag prépare d’autres articles sur l’IA.

Crédits d’illustration et sources :

AIGoogle – université de saint-étienne

• Kasparov Vs. Deep Blue George Widman, 1996 (Forbes, 2011)

• IBM-Watson Defeats Humans in “Jeopardy!” Jeopardy Productions (CBS News, 2011)

• AlphaGo seals 4-1 victory over Go grandmaster Lee Sedol The Guardian (Yonhap/Reuters, 2017)

Ads_in_articles1

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici