Intelligence Artificielle

L’intelligence artificielle (IA) est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine »1.

Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée2. Certaines instances, notamment la CNIL, relevant le peu de précision dans la définition de l’IA, introduisent ce sujet comme « le grand mythe de notre temps »3.

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des mathématiques et de la philosophie) et à l’informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives4.

Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques5. La réalité semble encore tenir l’intelligence artificielle loin des performances du vivant ; ainsi, l’IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles6.

https://upload.wikimedia.org/wikipedia/commons/9/9c/%E3%82%B9%E3%83%9E%E3%83%BC%E3%83%88%E3%82%B9%E3%83%94%E3%83%BC%E3%82%AB%E3%83%BC.jpg?uselang=fr
Les assistants personnels intelligents sont l’une des applications concrètes de l’intelligence artificielle dans les années 2010.


Définition

Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut

niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique »a, 7. On y trouve donc le côté « artificiel »

atteint par l’usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.

Même si elles respectent globalement la définition de Minsky, certaines définitions de l’IA varient sur deux points fondamentaux8 :

les définitions qui lient l’IA à un aspect humain de l’intelligence, et celles qui la lient à un modèle idéal d’intelligence, non forcément humaine, nommée rationalité ;

les définitions qui insistent sur le fait que l’IA a pour but d’avoir toutes les apparences de l’intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d’IA doit ressembler également à celui de l’être humain et être au moins aussi rationnel.


Historique


Création et développement

Historiquement, l’idée d’intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut

« penser ». Dans l’article « Computing Machinery and Intelligence » (Mind, octobre 1950)9, Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ». Il développe ensuite cette idée dans plusieurs forums, dans la conférence « L’intelligence de la machine, une idée hérétique »10, dans la conférence qu’il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? »11 ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser ? »12.

Une autre origine probable est la publication, en 1949, par Warren Weaver d’un mémorandum sur la traduction automatique des langues13 qui suggère qu’une machine puisse faire une tâche qui relève typiquement de l’intelligence humaine.

Le développement des techniques informatiques (augmentation de la puissance de calcul) aboutit ensuite à plusieurs avancées :

dans les années 1980, l’apprentissage automatique se développe, notamment avec la renaissance du connexionnisme. L’ordinateur commence à déduire des « règles à suivre » en analysant seulement des données14, 15 ;

parallèlement, des algorithmes « apprenants » sont créés qui préfigurent les futurs réseaux de neurones (l’apprentissage par renforcement, les machines à vecteurs de support, etc.). Ceci permet par exemple en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d’échecs16 lors d’un match revanche de six parties ;

l’intelligence artificielle devient un domaine de recherche international, marquée par une conférence au Dartmouth College à l’été 195617, 18 à laquelle assistaient ceux qui vont marquer la discipline ;

depuis les années 1960, la recherche se fait principalement aux États-Unis, notamment à l’université Stanford sous l’impulsion de John McCarthy19, au MIT sous celle de Marvin Minsky20, à l’université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon 21 et à l’université d’Édimbourg sous celle de Donald Michie22, en Europe et en Chine, ainsi qu’au Japon avec le projet « ordinateurs de cinquième génération (en) » du gouvernement. En France, l’un des pionniers est Jacques Pitrat23 ;

dans les années 2000, le Web 2.0, le big data et de nouvelles puissances et infrastructures de calcul permettent à certains ordinateurs d’explorer des masses de données sans précédent ; c’est l’apprentissage profond (« deep learning »), dont l’un des

pionniers est le français Yann Le Cun24.

Les bornes de ce domaine varient, ainsi optimiser un itinéraire était considéré comme un problème d’intelligence artificielle dans les années 1950 et n’est plus considéré aujourd’hui que comme un simple problème d’algorithmie25.

Vers 2015, le secteur de l’intelligence artificielle cherche à relever quatre défis : la perception visuelle, la compréhension du langage naturel écrit ou parlé, l’analyse automatique du langage et la prise de décision autonome26. Produire et organiser des données nombreuses et de qualité, c’est-à-dire corrélées, complètes, qualifiées (sourcées, datées, géoréférencées…), historisées est un autre enjeu. La capacité déductive et de généralisation pertinente d’un ordinateur, à partir de peu de données ou d’un faible nombre d’évènements, est un autre objectif, plus lointain26.

Entre 2010 et 2016, les investissements auraient été décuplés, atteignant une dizaine de milliards de dollars en 201627.


Précurseurs

Si les progrès de l’intelligence artificielle sont récents, ce thème de réflexion est tout à fait ancien, et il apparaît régulièrement au cours de l’histoire. Les premiers signes d’intérêt pour une intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.


Automates

Une des plus anciennes traces du thème de « l’homme dans la machine » date de 800 avant notre ère, en Égypte. La statue du dieu Amon levait le bras pour désigner le nouveau pharaon parmi les prétendants qui défilaient devant lui, puis elle « prononçait » un discours de consécration. Les Égyptiens étaient probablement conscients de la présence d’un prêtre actionnant un mécanisme et déclarant les paroles sacrées derrière la statue, mais cela ne semblait pas être pour eux contradictoire avec l’incarnation de la divinité. Vers la même époque, Homère, dans L’Iliade (XVIII, 370– 421), décrit les automates réalisés par le dieu forgeron Héphaïstos : des trépieds munis de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure du dieu ; ou encore, deux servantes forgées en or qui l’assistent dans sa tâche. De même, le Géant de bronze Talos, gardien des rivages de la Crète, était parfois considéré comme une œuvre du dieu.

Vitruve, architecte romain, décrit l’existence entre le IIIe et le Ier siècle avant notre ère, d’une école d’ingénieurs fondée par Ctesibius à Alexandrie, et concevant des mécanismes destinés à l’amusement tels des corbeaux qui chantaient. Héron L’Ancien décrit dans son traité « Automates », un carrousel animé grâce à la vapeur et considéré comme anticipant les machines à vapeur. Les automates disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger Bacon la conception d’automates doués de la parole; en fait, probablement de mécanismes simulant la prononciation de certains mots simples.

Jacques de Vaucanson a construit en 1738 un « canard artificiel de cuivre doré, qui boit, mange, cancane, barbote et digère comme un vrai canard ». Il était possible de programmer les mouvements de cet automate, grâce à des pignons placés sur un cylindre gravé, qui contrôlaient des baguettes traversant les pattes du canard. L’automate a été exposé pendant plusieurs années en France, en Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mécanisme interne. Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquée à partir des aliments ingérés, mais préparée à l’avance. D’autres estiment que cet avis n’est fondé que sur des imitations du canard de Vaucanson. L’incendie du musée de Nijni Novgorod en Russie, vers 1879, a détruit cet automate29.

Léonard de Vinci a construit en 1515 un automate en forme de lion pour amuser le roi de France, François I28. Gio Battista Aleotti et Salomon de Caus, eux, ont construit des oiseaux artificiels et chantants, des flûtistes mécaniques, des nymphes, des dragons et des satyres animés pour égayer des fêtes aristocratiques, des jardins et des grottes. René Descartes, lui, aurait conçu en 1649 un automate qu’il appelait « ma fille Francine ». Il conduit par ailleurs une réflexion d’un modernisme étonnant sur les différences entre la nature des automates, et celles d’une part des animaux (pas de différence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le précurseur méconnu d’un des principaux thèmes de la science-fiction : l’indistinction entre le vivant et l’artificiel, entre les hommes et les robots, les androïdes ou les intelligences artificielles.

Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les meilleurs automates fondés sur un système purement mécanique, avant le développement des dispositifs électromécaniques. Certains de ces automates, par un système de cames multiples, étaient capables d’écrire un petit billet (toujours le même). Enfin, Les Contes d’Hoffmann (et ballet) L’Homme au sable décrit une poupée mécanique dont s’éprend le héros.

https://upload.wikimedia.org/wikipedia/commons/8/8f/Digesting_Duck.jpg?uselang=fr
Le canard artificiel de Vaucanson (1738).


Pensée automatique

Une des premières tentatives de formalisation de la pensée connue est le zairja, mécanisme qu’utilisaient les astrologues arabe pour générer des idées supposées logiques, dont l’invention est attribuée à Abu al-Abbas as-Sabti au XIIe siècle. Raymond Lulle s’en est probablement inspiré pour mettre au point son Ars Magna30. Missionnaire, philosophe, et théologien espagnol du XIIIe siècle, il essaya lui aussi de générer des idées grâce à un système mécanique. Il combinait aléatoirement des concepts grâce à une sorte de règle à calcul, sur laquelle pivotaient des disques concentriques gravés de lettres et de symboles philosophiques. Il fondait sa méthode sur l’identification de concepts de base, puis leur combinaison mécanique soit entre eux, soit avec des idées connexes. Raymond Lulle l’appliqua à la métaphysique, puis à la morale, à la médecine et à l’astrologie. Mais il n’utilisait que la logique déductive, ce qui ne permettait pas à son système d’acquérir un apprentissage, ni davantage de remettre en cause ses principes de départ : seule la logique inductive le permet.

Gottfried Wilhelm Leibniz, au XVIIe siècle, a imaginé un calcul pensant (calculus rationator), en assignant un nombre à chaque concept. La manipulation de ces nombres aurait permis de résoudre les questions les plus difficiles, et même d’aboutir à un langage universel. Leibniz a toutefois démontré que l’une des principales difficultés de cette méthode, également rencontrée dans les travaux modernes sur l’intelligence artificielle, est l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idée de toutes les autres pour simplifier les problèmes liés à la pensée.

George Boole a inventé la formulation mathématique des processus fondamentaux du raisonnement, connue sous le nom d’algèbre de Boole. Il était conscient des liens de ses travaux avec les mécanismes de l’intelligence, comme le montre le titre de son principal ouvrage paru en 1854 : Les Lois de la pensée31 (The laws of thought), sur l’algèbre booléenne.

Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant des variables non logiques, n’ayant en soi aucun degré de vérité (maison, propriétaire). Cette formalisation eut une grande importance puisqu’elle permit de démontrer des théorèmes généraux, simplement en appliquant des règles typographiques à des ensembles de symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à appliquer. Par ailleurs, l’utilisateur joue un rôle important

puisqu’il connaît le sens des symboles qu’il a inventés et ce sensb n’est pas toujours formalisé, ce qui ramène au problème de la signification en

intelligence artificielle, et de la subjectivité des utilisateurs.

Bertrand Russell et Alfred North Whitehead publièrent au début du XXe siècle un ouvrage intitulé Principia Mathematica, dans lequel ils résolvent des contradictions internes à la théorie de Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une formalisation complète des mathématiques32.

Kurt Gödel démontre au contraire que les mathématiques resteront une construction ouverte, en publiant en 1931 un article intitulé « Des propositions formellement indécidables contenues dans les Principia mathematica et autres systèmes similaires ». Sa démonstration est qu’à partir d’une certaine complexité d’un système, on peut y créer plus de propositions logiques qu’on ne peut en démontrer vraies ou fausses. L’arithmétique, par exemple, ne peut trancher par ses axiomes si on doit accepter des nombres dont le carré soit -1. Ce choix reste arbitraire et n’est en rien lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les précédents, au fur et à mesure qu’on en aura besoin. Si l’arithmétique est démontrée incomplète, le calcul des prédicats (logique formelle) est au contraire

démontré par Gödel comme complet33.

Alan Turing invente des machines abstraites et universelles (rebaptisées les machines de Turing), dont les ordinateurs modernes sont considérés comme des concrétisations. Il démontre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage, dans les cas qu’il cite), sans pour autant que cela constitue pour Turing un motif pour douter de la faisabilité de machines pensantes répondant aux critères du test de Turing.

Irving John Good34, Myron Tribus et E.T. Jaynes35 ont décrit de façon très claire les principes assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes. Ils n’ont malheureusement pas traité la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc propre à résoudre quelques problèmes ouverts.

Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la catégorisation des problèmes selon des classes de difficulté (en rapport avec les travaux de Cantor sur l’infini) [réf. souhaitée].


Faits marquants depuis les années 2000

L’intelligence artificielle est un sujet d’actualité au XXIe siècle. En 2004, l’Institut Singularity a lancé une campagne Internet appelée « Trois lois dangereuses » : « Three Laws Unsafe » (en lien avec les trois lois d’Asimov) pour sensibiliser aux questions de la problématique de l’intelligence artificielle et l’insuffisance des lois d’Asimov en particulier. (Singularity Institute for Artificial Intelligence 2004)36.

En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau des mammifères. Il s’agit d’une des méthodes envisagées pour réaliser une IA. Ils annoncent de plus comme objectif de fabriquer, dans dix ans, le premier « vrai » cerveau électronique37. En mars 2007, le gouvernement sud-coréen annonce que plus tard dans l’année, il émettrait une charte sur l’éthique des robots, afin de fixer des normes pour les utilisateurs et les fabricants. Selon Park Hye-Young, du ministère de l’Information et de la communication, la Charte reflète les trois lois d’Asimov : la tentative de définition des règles de base pour le développement futur de la robotique. En juillet 2009, en Californie une conférence organisée par l’Association for the Advancement of Artificial Intelligence (AAAI), où un groupe d’informaticiens se demande s’il devrait y avoir des limites sur la recherche qui pourrait conduire à la perte de l’emprise humaine sur les systèmes informatiques, et où il est également question de l’explosion de l’intelligence (artificielle) et du danger de la singularité technologique conduisant à un changement d’ère, ou de paradigme totalement en dehors du contrôle

humain38, 39.

En 2009, le Massachusetts Institute of Technology (MIT) a lancé un projet visant à repenser la recherche en intelligence artificielle. Il réunira des scientifiques qui ont eu du succès dans des domaines distincts de l’IA. Neil Gershenfeld déclare « Nous voulons essentiellement revenir 30 ans en arrière, et de revoir quelques directions aujourd’hui gelées »40.

En novembre 2009, l’US Air Force cherche à acquérir 2 200 PlayStation 341 [réf. obsolète] pour utiliser le processeur cell à 7 ou 8 cœurs qu’elle contient dans le but d’augmenter les capacités de leur superordinateur constitué de 336 PlayStation 3 (total théorique 52,8 petaFLOPS en double précision). Le nombre sera réduit à 1 700 unités le 22 décembre 200942. Le projet vise le traitement vidéo haute-définition, et l’« informatique neuromorphique », ou la création de calculateurs avec des propriétés/fonctions similaires au cerveau humain41.


Années 2010

Le 27 janvier 2010, l’US Air Force demande l’aide de l’industrie pour développer une intelligence avancée de collecte d’information et avec la capacité de décision rapide pour aider les forces américaines pour attaquer ses ennemis rapidement à leurs points les plus vulnérables. L’US Air Force utilisera une intelligence artificielle, le raisonnement ontologique, et les procédures informatique basées sur la connaissance, ainsi que d’autres traitements de données avancés afin de frapper l’ennemi au meilleur point43. D’autre part, d’ici 2020, plus de mille bombardiers et chasseurs F-22 et F-35 de dernière génération, parmi plus de 2 500 avions militaires, commenceront à être équipés de sorte que, d’ici 2040, tous les avions de guerre américains soient pilotés par intelligence artificielle, en plus des 10 000 véhicules terrestres et des 7 000 dispositifs aériens commandés d’ores et déjà à distance44.

Le 16 février 2011, Watson, le superordinateur conçu par IBM, remporte deux des trois manches du jeu télévisé Jeopardy! en battant largement ses deux concurrents humains en gains cumulés. Pour cette IA, la performance a résidé dans le fait de répondre à des questions de culture générale (et non un domaine technique précis) dans des délais très courts. En février 2016, l’artiste et designer Aaron Siegel propose de faire de Watson un candidat à l’élection présidentielle américaine afin de lancer le débat sur « le potentiel de l’intelligence artificielle dans la politique »45.

En mai 2013, Google ouvre un laboratoire de recherches dans les locaux de la NASA. Grâce à un super calculateur quantique conçu par D-Wave Systems et qui serait d’après cette société 11 000 fois plus performant qu’un ordinateur actuel (de 2013)46, ils espèrent ainsi faire progresser l’intelligence artificielle, notamment l’apprentissage automatique. Raymond Kurzweil est engagé en décembre 2012 par Google afin de participer et d’améliorer l’apprentissage automatique des machines et des IA 47.

Entre 2014 et 2015, à la suite du développement rapide du deep learning, et à l’encontre des penseurs transhumanistes, quelques scientifiques et membres de la communauté high tech craignent que l’intelligence artificielle ne vienne à terme dépasser les performances de l’intelligence humaine.

Parmi eux, l’astrophysicien britannique Stephen Hawking48, le fondateur de Microsoft Bill Gates49 et le PDG de Tesla Elon Musk50.

Les géants de l’Internet s’intéressent de plus en plus à l’IA 51. Le 3 janvier 2016, le patron de Facebook, Mark Zuckerberg, s’est donné pour objectif de l’année de « construire une intelligence artificielle simple pour piloter ma maison ou m’aider dans mon travail »52. Il avait déjà créé en 2013 le laboratoire Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur français Yann Le Cun et ouvert un laboratoire de recherche

permanente dans le domaine à Paris53.

Apple a de son côté récemment acquis plusieurs start-up du secteur (Perceptio, VocalIQ, Emotient et Turi)54.

En janvier 2018, des modèles d’intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension de l’université Stanford. Le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet maintenant aux modèles d’apprentissage automatique de traiter de grandes quantités d’informations avant de fournir des réponses précises aux questions qui leur sont posées55.

En février 2019, l’institut de recherche OpenAI annonce avoir créé un programme d’intelligence artificielle capable de générer des textes tellement réalistes que cette technologie pourrait être dangereuse56, 57. Si le logiciel est utilisé avec une intention malveillante, il peut générer facilement des

fausses nouvelles très crédibles. Inquiet par l’utilisation qui pourrait en être faite, OpenAI préfère ne pas rendre public le code source du programme58.


En France

En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis Laurière, Claude-François Picard, Jacques Pitrat et Jean-Claude Simon59. Un congrès national annuel, « Reconnaissance de formes et intelligence artificielle », est créé en 1979 à Toulouse60. En lien avec l’organisation de la conférence International Joint Conference on Artificial Intelligence à Chambéry en 1993, et la création d’un GRECO-PRC 61 « intelligence artificielle », en 1983, il donne naissance à une société savante, l’Association française pour l’intelligence artificielle (AFIA) en 1989, qui, entre autres, organise des conférences nationales en intelligence artificielle62.

Le 17 janvier 2017, le fonds de capital risque Serena Capital lance un fonds de 80 millions d’euros destiné à l’investissement dans les start-ups européennes du big data et de l’intelligence artificielle63. Le

19 janvier 2017, une audition se tient au Sénat : « L’intelligence Artificielle menace-t-elle nos

emplois ? »64. Le 20 janvier 2017, Axelle Lemaire entend valoriser les potentiels scientifiques et industriels français grâce au projet « France IA »65.

En janvier 2017, dans le cadre de sa mission de réflexion sur les enjeux éthiques et les questions de société soulevés par les technologies numériques, la Commission nationale de l’informatique et des libertés (CNIL) annonce l’organisation d’un débat public sur les algorithmes et l’intelligence artificielle66. Le 15 décembre 2017, à l’issue d’un débat ayant mobilisé 60 partenaires (institutions publiques, associations, entreprises,

acteurs du monde de la recherche, société civile)67, elle publie son rapport « Comment permettre à l’Homme de garder la main ? »68 comprenant des recommandations pour la construction d’un modèle éthique d’intelligence artificielle.

En septembre 2017, Cédric Villani, premier vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST)69, est chargé de mener une consultation publique sur l’intelligence artificielle70. Il rend son rapport le 28 mars 201871, à la veille d’une intervention du président de la République Emmanuel Macron au Collège de France pour annoncer la stratégie de la France dans ce domaine72. Il y dévoile un plan de 1,5 milliard d’euros sur l’ensemble du quinquennat, ainsi qu’une évolution de la législation française pour permettre la mise en application de l’intelligence artificielle, en particulier concernant la circulation des véhicules autonomes73. Parallèlement à ces annonces, il est interviewé par Wired, magazine de référence pour la communauté mondiale des nouvelles technologies, et y exprime sa vision de l’intelligence artificielle, à savoir que les algorithmes utilisés par l’État doivent être ouverts, que l’intelligence artificielle doit être encadrée par des règles philosophiques et éthiques et qu’il faut s’opposer à l’usage d’armes automatiques ou de dispositifs prenant des décisions sans consulter un

humain74, 75.

En mars 2018, Microsoft France lance l’École IA Microsoft, inaugurée par son président Carlo Purassanta, une formation ouverte aux décrocheurs scolaires et aux personnes éloignées de l’emploi, en partenariat avec Simplon.co76. Dix écoles sont lancées en un an à partir de septembre 201877. Microsoft France mise sur le développement de l’intelligence artificielle comme nouveau vecteur d’inclusion professionnelle78

En octobre 2019, le site ActuIA annonce le lancement du premier magazine papier consacré à l’intelligence artificielle79.


Intelligence artificielle forte


Définition

Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi d’éprouver une impression d’une réelle conscience, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements »80.

L’intelligence artificielle forte a servi de moteur à la discipline, mais a également suscité de nombreux débats [Lesquels ?].

En partant du principe, étayé par les neurosciences81, que la conscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d’obstacle théorique à la création d’une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l’IA forte, si à l’heure actuelle il n’y a pas d’ordinateurs ou d’algorithmes aussi intelligents que l’être humain, ce n’est pas un problème d’outil mais de conception. Il n’y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites celles de la calculabilité), seulement des limites liées à l’aptitude humaine à concevoir les logiciels appropriés (programme, base de données…).


Estimation de faisabilité

Comparer la capacité de traitement de l’information d’un cerveau humain à celle d’un ordinateur peut aider à comprendre les ordres de grandeur pour estimer la possibilité pratique ou non d’une intelligence artificielle forte, de même qu’un simple calcul de puissance en kW permet grosso modo de dire qu’un camion donné pourra espérer transporter commodément telle ou telle charge ou si cela lui sera impossible. Voici quelques exemples d’ordres de grandeur en traitement de l’information :

Balance Roberval : 1 bit par seconde (comparaison de deux poids) ;

mainframe typique des années 1970 : 1 million d’opérations par seconde sur 32 bits ;

Intel Paragon XP/S, 4 000 processeurs i860 à 50 MHz (1992) : 160 milliards d’opérations par seconde ;

Summit, 9216 processeurs POWER9 (2018) : 200 pétaflops, soit 200 millions de milliards d’opérations par seconde. Fugaku 415-PFLOPS (2020-2021): 415 pétaflops, soit 415 millions de milliards d’opérations par seconde.

Cette puissance n’est pas à prendre au pied de la lettre. Elle précise surtout les ordres de grandeur en présence et leur évolution relativement rapide (jusqu’en 2018).

L’intelligence artificielle n’avait donné que des résultats mitigés sur les ordinateurs typiques de 1970 effectuant 107 opérations logiques par secondec, 82. Le cerveau humain, formé de 1011 neurones ne pouvant chacun commuter plus de 100 fois par seconde en raison de leur temps de relaxation permettait beaucoup plus de traitements logiques par unité de temps (1013 opérations logiques par seconde)82. Ce handicap technique

précis n’existe plus sur les ordinateurs depuis les années 2000, travaillant en 64 bits et avec des horloges cadencées à 4 GHz environ, pour des processeurs destinés aux particuliers. Concernant des supercalculateurs comme Summit ou Fugaku 415-PFLOPS, le rapport du nombre de comparaisons par seconde entre ordinateur et cerveau a même complètement changé de sens.

Le matériel serait donc maintenant disponible, toutefois l’IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d’un problème complexe. Certaines connaissances dites implicites sont acquises par l’expérience et mal formalisables. L’apprentissage de ces connaissances implicites par l’expérience est exploitée depuis les années 1980 (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît : la complexité structurelle. Comment mettre en relation des modules spécialisés pour traiter un certain type d’informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc. En revanche, une fois un système cognitif conçu et son apprentissage par l’expérience réalisé, l’« intelligence » correspondante peut être distribuée en un grand nombre d’exemplaires, par exemple sur les portables d’actuaires ou de banquiers pouvant ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout de suite grâce à des applications dites de credit scoring.


Diversité des opinions

Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle forte (c’est-à-dire douée d’une sorte de conscience) sont les suivantes :

impossible : la conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques. Cette position est défendue par certains philosophes et sociologues comme Harry Collins, pour qui l’intelligence requiert une immersion dans la société humaine, et donc un corps humain83, et peut rappeler le courant du vitalisme.

impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l’atteinte pratique des calculateurs conventionnels (complexité en   au lieu de

, par exemple, sous réserve d’existence du calculateur approprié). Au-delà de la rapidité, certains scientifiques comme Roger Penrose défendent que la conscience nécessiterait un fonctionnement non compatible avec les lois de la physique classique, et accessible uniquement avec des systèmes quantiques84. Toutefois, l’état de la recherche en informatique quantique n’est pas encore suffisamment avancé pour permettre de l’utiliser dans des applications concrètes hors laboratoires85, rendant difficile la vérification de ces hypothèses.

impossible car la pensée n’est pas un phénomène calculable par des processus discrets et finis. Cette théorie est notamment avancée par le philosophe John Searle et son expérience de la chambre chinoise86. Une conscience est donc nécessaire pour accéder à l’intelligence, mais un système informatique ne serait capable que d’en simuler une, sans pour autant la posséder, renvoyant au concept philosophique du zombie.

possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l’apprentissage symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette position est portée par des mouvements comme ceux du computationnalisme et est portée par des philosophes comme Hubert Dreyfus,

pour qui le cerveau suit les lois de la physique et de la biologie, impliquant que l’esprit est donc un processus simulable87. Cette dernière opinion constitue la position la plus engagée en faveur de l’intelligence artificielle forte.

Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing ; voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement (voir Zombie (philosophie)). Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n’est par une pétition de principe qui spécule que chaque humain se retrouve à l’identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie.


Travaux complémentaires

Le mathématicien de la physique Roger Penrose88 pense que la conscience viendrait de l’exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les résultats encore très partiels de l’IA. Il restait jusqu’à présent isolé sur cette question. Un autre chercheur, Andrei Kirilyuk, a présenté depuis une thèse de même

esprit quoique moins radicale89.


Distinction entre intelligence artificielle forte et intelligence artificielle généralisée

L’intelligence artificielle généralisée (artificial general intelligence ou AGI) désigne tout système capable d’apprendre et d’effectuer n’importe quelle tâche qu’un humain serait capable de faire. Si certains utilisent le terme d’intelligence artificielle forte pour désigner ces systèmes90, d’autres sources académiques préfèrent réserver ce terme aux systèmes capables d’être conscients (quoiqu’une définition de la conscience pour une IA ne fasse pas consensus, comme exposé ci-dessus)91. Malgré les progrès effectués ces dernières années, les systèmes actuels restent loin d’une éventuelle AGI et

restent purement spéculatifs83.


Intelligence artificielle faible

La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l’intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d’humains face à d’autres humains lors d’un dialogue.

Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. », mais son auteur rappelle qu’il s’agit d’une simple mystification : le programme ne comprend en réalité rien.

Les tenants de l’IA forte admettent que s’il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu’on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d’une machine et celui d’un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l’intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l’intelligence ».

Les tenants de l’IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l’IA forte qui contestent cette interprétation.

Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, la supervision (en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et l’exploration de données dans les années 1990. Et, qui plus est, avec une certaine continuité.

Il s’agit surtout d’intelligence humaine reconstituée, et de programmation ad hoc d’un apprentissage, sans qu’une théorie unificatrice n’existe pour le moment (2011)[Passage à actualiser]. Le théorème de Cox-Jaynes indique toutefois, ce qui est un résultat fort, que sous cinq contraintes raisonnables, tout procédé d’apprentissage devra être soit conforme à l’inférence bayésienne, soit incohérent à terme, donc inefficace92.

Distinction avec « narrow AI »

Si le terme intelligence artificielle peut désigner un système capable de résoudre plusieurs problèmes de façon relativement autonome tout en ne faisant que simuler le principe d’intelligence, il peut aussi désigner des systèmes capables de résoudre uniquement un type de problème pour un jeu de données prédéfini93. On peut donner pour exemple un système entrainé à reconnaitre des chiffres écrits à la main, comme ceux utilisés par La Poste94, qui malgré sa grande performance sur sa tâche, serait incapable de fonctionner sur un problème sortant de ce pour quoi il a été conçu.

Ces intelligences artificielles, nommées « narrow AI » (« intelligence artificielle étroite »), sont conçues spécifiquement sur une tâche, sans développement particulier pour la généraliser comme le ferait une IA forte. Elles n’en gardent pas moins leur utilité, et restent très utilisées dans l’industrie95, étant les seuls systèmes d’IA utilisables jusqu’à ce qu’une IA forte soit accessible et commercialisée.


Test de Turing

https://upload.wikimedia.org/wikipedia/commons/e/e4/Turing_Test_version_3.png?uselang=fr
Schéma du test de Turing.

À l’orée des années 1950, entre la naissance de la cybernétique et l’émergence quelques années plus tard de l’intelligence artificielle, alors que les meilleurs esprits du temps s’interrogent sur la possibilité de construire des machines pensantes, Alan Turing propose, dès le début d’un article demeuré célèbre, un test pour déterminer si une machine peut être définie comme « consciente »96.

Définir l’intelligence est un défi et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, en 1950, à proposer « le jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs que l’on n’appelait pas encore informatique en francophonie. Ce « jeu de l’imitation » suggérait qu’un juge fictif puisse dialoguer d’une part avec une machine et d’autre part avec un humain à l’aide d’un terminal sans

pouvoir les discriminer97.

Jusqu’à ce jour, aucun logiciel n’a encore réussi ce test, à savoir se comporter de façon à ne pas être discriminé d’un humain, malgré de nombreuses tentatives. Devant la persistance de ces échecs, certains spécialistes comme Jean-Gabriel Ganascia pensent que mettre au point un programme aussi complexe ne démontrera pas l’intelligence des programmes ni leur capacité à penser98.

De nos jours, une machine peut certes réviser et faire évoluer des objectifs qu’on lui a attribués. Une machine peut même être programmée pour pouvoir restructurer sa connaissance initiale à partir

d’informations reçues ou perçues. Mais la machine d’aujourd’hui ne pense pas à proprement parler, car elle n’a pas conscience d’elle-même (et en particulier de ses limites), elle ne peut pas ultimement décider de ses buts ni imaginer de nouvelles formes de représentations du monde96.


Estimation de faisabilité

Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet, propose99 six « préceptes » conditionnant un système de dialogue évolué, en précisant qu’elles sont déjà mises en œuvre par des systèmes existants :

objectivité (utilisation d’une base de connaissance par le système) ;

textualité (prise en compte d’interventions de plus d’une phrase, qu’elles émanent du système ou de l’utilisateur) ; apprentissage (intégration au moins temporaire d’informations issues des propos de l’utilisateur) ; questionnement (demande de précisions de la part du système) ;

rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ; explicitation (explicitation par le système d’une réponse qu’il a apportée précédemment).

Il suggère aussi que le système devrait être en mesure de se faire par lui-même une représentation de l’utilisateur auquel il a affaire, pour s’adapter à lui. De son côté, l’utilisateur a tendance à s’adapter au système à partir du moment où il a bien compris qu’il s’adresse à une machine : il ne conversera pas de la même manière avec un système automatisé qu’avec un interlocuteur humain, ce qui présente pour le concepteur l’avantage pragmatique de simplifier certains aspects du dialogue.


Autres tests notables

D’autres tests ont également été développés pour évaluer la performance d’une intelligence artificielle :

Le test du café 100 : imaginé par Steve Wozniak, le test consiste à placer un système intelligent dans un habitat américain moyen et lui demander de faire un café. La réussite du test implique donc plusieurs tâches comme l’orientation dans un environnement inconnu, déduire le fonctionnement d’une machine, trouver les ustensiles nécessaires…

Le test de l’étudiant101 : proposé par Ben Goertzel, le test évalue la capacité d’un robot à s’inscrire dans un établissement d’enseignement supérieur, suivre les cours, passer les examens et obtenir le diplôme final.

Le test de l’embauche : proposé par le chercheur Nils John Nilsson, le test consiste à faire postuler un système intelligent à un travail important, et travailler au moins aussi bien qu’un humain102.


Personnalités de l’intelligence artificielle


Prix Turing

Plusieurs prix Turing (ACM Turing Award) ont été attribués à des pionniers de l’intelligence artificielle, notamment :

Marvin Minsky (1969)

John McCarthy (1971)

Allen Newell et Herbert Simon (1975) Edward Feigenbaum et Raj Reddy (1994) Judea Pearl (2011)

Yann Le Cun, Geoffrey Hinton et Yoshua Bengio (2019).


Autres personnalités

Ian Goodfellow (en), inventeur des réseaux antagonistes génératifs.

Andrew Ng, connu comme directeur scientifique de Baidu et comme créateur de Coursera Terry Winograd, pionnier en traitement du langage naturel.

Vladimir Vapnik co-inventeur des machines à vecteurs de support.

Seymour Papert, ancien directeur du Laboratoire d’intelligence artificielle du MIT.


Courants de pensée

La cybernétique naissante des années 1940 revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c’est tout naturellement qu’elle envisagea deux approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait l’intelligence artificielle : une approche par la décomposition (du haut vers le bas) et une approche contraire par construction progressive du bas vers le haut.

Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l’aise pour décomposer rapidement ce que l’on connaît bien, et une approche pragmatique à partir des seuls éléments que l’on connaît afin de se familiariser avec les concepts émergents est plus utile pour les domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent le cognitivisme et le connexionnisme, qui tentent aujourd’hui (2005) [Passage à actualiser] d’opérer progressivement leur fusion.

Le guide pratique de Linux sur l’intelligence artificielle v3.0103, révisé le 15 décembre 2012, adopte pour la commodité du lecteur la taxinomie suivante :

systèmes symboliques ; connexionnisme ;

calcul évolutif (algorithmes génétiques, par exemple) ; alife (vie artificielle) et complexité ;

agents et robotique.


Cognitivisme

Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés évidemment très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget, envisage le processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Il cite les exemples suivants de Piaget :

L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux.

Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un concept de conservation de la quantité de matière.

Au bout du compte, ces jeux d’enfants se révèlent essentiels à la formation de l’esprit, qui dégagent quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et erreurs.


Connexionnisme

Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d’une interaction globale des parties élémentaires d’un système. On ne peut nier que le chien dispose d’une sorte de connaissance des équations différentielles du mouvement, puisqu’il arrive à attraper un bâton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu’il se comporte comme s’il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu l’intuition des philosophes se caractériserait par la prise en compte et la consolidation d’éléments perceptifs dont aucun pris isolément n’atteint le seuil de la conscience, ou en tout cas n’y déclenche d’interprétation particulière.


Synthèse

Trois concepts reviennent de façon récurrente dans la plupart des travaux :

la redondance (le système est peu sensible à des pannes ponctuelles) ;

la réentrance (les composants s’informent en permanence entre eux ; cette notion diffère de la réentrance en programmation) ; la sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés).


Différentes facettes

On peut considérer différents dispositifs intervenant, ensemble ou séparément, dans un système d’intelligence artificielle tels que :

le dialogue automatique : se faire comprendre en lui parlant ;

la traduction automatique, si possible en temps réel ou très légèrement différé ; le traitement automatique du langage naturel ;

le raisonnement automatique (voir systèmes experts) ; le partitionnement et la classification automatique ;

la composition musicale automatique (voir les travaux de René-Louis Baron et de l’Ircam ; plus récemment les recherches de François Pachet, ainsi que le développement de flowmachines telles que Deepbach104, 105) ;

la reconnaissance de formes, des visages et la vision en général, etc. ;

l’intégration automatique d’informations provenant de sources hétérogènes, (fusion de données) ;

l’émotion artificielle (voir les travaux de Rosalind Picard sur l’émotion) et l’éventualité d’une subjectivité artificielle ; etc.

Les réalisations actuelles de l’intelligence artificielle peuvent intervenir notamment dans les fonctions suivantes :

l’aide aux diagnostics ; l’aide à la décision ;

la résolution de problèmes complexes, tels que les problèmes d’allocation de ressources ; l’assistance par des machines dans les tâches dangereuses, ou demandant une grande précision ; l’automatisation de tâches.


Conception de systèmes

Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres pour écrire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus médiatisés. ELIZA (le premier agent conversationnel, donc pas de la « véritable » intelligence artificielle) tenait en trois pages de SNOBOL. On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme et les langages typés de la programmation fonctionnelle comme Haskell ou OCaml.

Aujourd’hui, ce sont Python et R qui fournissent les outils les plus riches dans ce domaine. Des plateformes comme TensorFlow et ses bibliothèques haut niveau ont démocratisé et accéléré le développement d’intelligences artificielles106.

Distinction entre intelligence artificielle, machine learning et deep learning

Il y a une confusion fréquente dans le débat public entre « intelligence artificielle », apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais sont imbriquées :

l’intelligence artificielle englobe le machine learning, qui lui-même englobe le deep learning 107 ;

l’intelligence artificielle peut aussi englober plusieurs autres types de briques logicielles, comme les moteurs de règles108.


Domaines d’application

L’intelligence artificielle a été utilisée (ou intervient) dans une variété de domaines.

Finance et banques

Certaines banques font appel à et développent des systèmes experts d’évaluation de risque lié à l’octroi d’un crédit (credit-scoring), notamment en utilisant ces systèmes pour la vérification des informations fournies, ou leur récupération et traitement de façon automatisée109. Un exemple est le score FICO.

File:Carto IA deepLearning.svg
Schéma montrant le positionnement des notions d’IA, machine learning et deep learning imbriquées les unes aux autres.

Plusieurs grands noms de la finance se sont montrées intéressées par de telles technologies, avec des projets comme ceux de Bridgewater Associates où une intelligence artificielle va gérer entièrement un fonds110 ou encore la plateforme d’analyse prédictive Sidetrade.

Sont également développées des systèmes de trading algorithmique, où les gains de vitesses permis par l’automatisation par rapport à des traders humains peut faire la différence, en particulier grâce au trading à haute fréquence111.


Militaire

Le domaine militaire utilise des systèmes tels que les drones, les systèmes de commandement et d’aide à la décision.

L’utilisation des intelligences artificielles dans le domaine militaire est devenu de plus en plus important. Les États-Unis ont dépensé 18 milliards de dollars pour trois années de recherches dans tous les domaines requis à l’automatisation de l’armement militaire112.

La médecine a aussi vu de grands progrès grâce à l’utilisation de systèmes d’aide au diagnostic ou de diagnostic automatisé116.

En 2018, Google DeepMind, filiale de Google spécialisée dans la recherche avancée en intelligence artificielle, a publié les résultats d’une expérimentation d’intelligence artificielle pouvant détecter les maladies oculaires. Les résultats indiquent que l’IA le fait avec une marge d’erreur plus faible que les ophtalmologues117.

La France crée en 2019 le Health Data Hub afin de simplifier et encadrer l’utilisation des données de santé118.

Plusieurs systèmes intelligents ont pu être utilisés pour lutter contre la pandémie de Covid-19, notamment avec le superordinateur Fugaku 415-PFLOPS.

https://upload.wikimedia.org/wikipedia/commons/2/20/NAO_waving.JPG?uselang=fr
Un robot NAO en 2014.

Renseignement policier

Un usage de l’IA se développe dans le domaine de la prévention des crimes et délits. La police britannique, par exemple, développe une IA de ce genre, annoncée comme pouvant être opérationnelle dès mars 2019119. Baptisée National Data Analytics Solution (Solution nationale d’analyse de données ou NDAS), elle repose sur l’IA et des statistiques et vise à estimer le risque qu’une personne commette un crime ou en soit elle-même victime, pour orienter les services sociaux et médicaux qui peuvent la conseiller.

L’usage d’outils de prédiction des crimes à partir des données préalablement existantes est toutefois l’objet de controverses, compte tenu des biais sociaux (notamment raciaux) qu’il comporte120. En effet, la logique d’identification de schémas propre à ces technologies joue un rôle de renforcement des préjugés déjà existants.

https://upload.wikimedia.org/wikipedia/commons/8/8b/Automated_online_assistant.png
Un assistant personnel intelligent fournissant un service client sur une page d’un site web, l’une des nombreuses applications très primitives de l’intelligence artificielle.


Droit

Le droit fait appel à l’IA dans la perspective de prédire les décisions de justice, d’aider à la décision et de trancher les cas simples121. L’Estonie a par exemple développé une intelligence artificielle capable de prendre des décisions de justice sur des délits mineurs122. Les États-Unis utilisent par ailleurs dans certaines juridictions le système COMPAS (en)(Correctional Offender Management profiling for Alternative Sanctions), un système d’aide de prise à la décision pour les juges122. Plusieurs startups se sont spécialisées dans ce créneau, créant le domaine de la legaltech123.


Logistique et transports

Le domaine de la logistique a vu certains projets utilisant de l’intelligence artificielle se développer notamment pour la gestion de la chaîne logistique (supply chain) ou des problématiques de livraison telle celle du dernier kilomètre124.

L’intelligence artificielle est également fortement utilisée dans le domaine des transports en commun, car elle permet de faciliter la régulation et la gestion du trafic au sein de réseaux de plus en plus complexes, comme le système UrbanLoop actuellement en cours d’étude dans la ville de

Nancy125.

Même si les problèmes d’optimisation de temps de trajet ou de transports font partie des plus anciennes applications de solutions à base d’intelligence artificielle (voir le problème du voyageur de commerce ou l’algorithme de Dijkstra), les avancées récentes, notamment en apprentissage profond, ont permis des progrès significatifs en matière de précision. Certains projets comme Google Maps utilisent par exemple des systèmes d’IA en milieu

urbain pour compenser la réflection du signal GPS sur les immeubles avoisinant126, ou pour cartographier des zones où peu d’informations sont disponibles127, 128.

Plusieurs entreprises ont par ailleurs annoncé avoir développé des programmes de recherche en voiture autonome, notamment Google à travers sa filiale Waymo, l’entreprise française Navya ou encore Tesla.


Industrie

Les systèmes intelligents deviennent monnaie courante dans de nombreuses industries. Plusieurs tâches peuvent leur être confiées, notamment celles considérées comme trop dangereuses pour un humain129. Certains applications se concentrent sur les systèmes de maintenance prédictive, permettant des gains de performance grâce à une détection des problèmes de production en amont.


Robotique

La robotique a recours à l’intelligence artificielle à plusieurs égards. Notamment pour la perception de l’environnement (objets et visages), l’apprentissage et l’intelligence artificielle développementale130, 131.

L’interaction homme-robot manque encore souvent de naturel et est un enjeu de la robotique. Il s’agit de permettre aux robots d’évoluer dans le monde dynamique et social des humains et d’échanger avec eux de façon satisfaisante130. L’échange nécessite également, à l’inverse, une évolution du regard que les humains portent sur les robots ; selon Véronique Aubergé, chercheuse à l’Université Grenoble-Alpes « la vraie révolution n’est pas technologique, elle est culturelle ». D’ores et déjà, travers les robots dotés d’intelligence artificielle, tel Google Home, les utilisateurs

combleraient un isolement social130.


Jeux vidéo

L’intelligence artificielle est par exemple utilisée pour animer les personnages non-joueurs de jeux vidéo, qui sont conçus pour servir d’opposants, d’aides ou d’accompagnants lorsque des joueurs humains ne sont pas disponibles ou désirés. Différents niveaux de complexité sont développés.

Le 24 janvier 2019, Google DeepMind présente sur son blog AlphaStar, une intelligence artificielle dédiée au jeu de stratégie en temps réel StarCraft II qui a affronté deux joueurs humains lors d’un match retransmis en direct sur Internet. Durant cet évènement, AlphaStar bat deux joueurs professionnels, dont Grzegorz « MaNa » Komincz, de l’équipe Team Liquid, l’un des meilleurs joueurs professionnels au monde. Le développement de cette intelligence artificielle a été permis par un partenariat entre Google DeepMind et Blizzard Entertainment, l’éditeur du jeu.


Art

Dès la fin des années 1980, des artistes s’emparent de l’intelligence artificielle pour donner un comportement autonome à leurs œuvres. Les Français Michel Bret, Edmond Couchot et Marie-Hélène Tramus sont des pionniers, ainsi qu’en témoignent des œuvres comme La Plume et Le Pissenlit (1988)132, puis La Funambule (2000), animée par un réseau de neurones. L’Américain Karl Sims, en partenariat avec la société Thingking Machines, crée en 1993 Genetic Images, machines incorporant[Comment ?] des algorithmes génétiques. Le couple franco-autrichien Christa Sommerer et Laurent Mignonneau crée depuis le début des années 1990 de nombreuses œuvres dans le champ de la vie artificielle, parmi lesquelles Interactive plant growing (1992) ou A-Volve (1994)[réf. nécessaire]. Le Français Florent Aziosmanoff propose quant à lui de considérer que l’emploi de l’intelligence artificielle dans l’art conduit à l’émergence d’une nouvelle discipline d’expression, qu’il nomme le Living art133.

En mars 2018, l’artiste Joseph Ayerle publie la vidéo d’art intitulée Un’emozione per sempre 2.0, dans laquelle il met en scène une Ornella Muti virtuelle, recréée par une intelligence artificielle. Après seulement quelques jours d’entraînement, l’intelligence artificielle est capable d’animer le visage de l’actrice italienne pour réaliser des scènes qu’elle n’a jamais jouées134.

Le 23 octobre 2018, la société de vente aux enchères Christie’s met en vente le tableau Portrait d’Edmond de Belamy réalisé par une intelligence artificielle à l’aide de réseaux antagonistes génératifs. La peinture est signée par la formule mathématique à l’origine de sa création (« Min (G) max

(D) Ex [log (D(x))] + Ez [log(1-D(G(z)))] »)135. Cette vente soulève de nombreux débats sur son statut de création artistique et sur l’auteur de l’œuvre : il peut être l’intelligence artificielle elle-même ou les trois créateurs qui l’ont programmée136. L’œuvre est achetée pour 350 000 dollars137. Cette vente peut être considérée comme une reconnaissance du GAN-isme (l’abréviation de Generative Adversarial Networks, « réseaux antagonistes génératifs » en français), un mouvement artistique qui utilise l’intelligence artificielle dans la création d’une œuvre picturale137.

L’artiste numérique Solimán López138 utilise l’intelligence artificielle comme outil pour créer des interactions inédites avec d’autres médias, outils et concepts. En 2019, dans High Meshes, il invente des micro-communautés de personnes réelles scannées en 3D par photogrammétrie. Ces données alimentent un logiciel d’intelligence artificielle qui rassemble les corps en fonction de leurs informations purement numériques sans tenir compte des questions raciales, sexuelles, religieuses, politiques ou culturelles. Dans le projet D.A.I, en 2018, des cartes d’identités de multiples pays sont analysées par une intelligence artificielle et aboutissent à de nouveaux papiers, symbolisant un monde sans frontières.


Autres domaines

La domesticité, avec des robots employé de maison139, ou pour certaines tâches précises comme en domotique.

En programmation informatique, notamment pour la maintenance prédictive, l’autocomplétion ou l’aide au développement140.

En journalisme : des IA (appelées improprement « robots journalistes ») pourraient à terme aider les journalistes en les débarrassant de certaines tâches, notamment la veille, le bâtonnage de dépêches ou la vérification des fake news141.

La Corée du Sud propose la toute première animatrice télé virtuelle en novembre 2020 lors d’un JT. 142

En design : la conception assistée par ordinateur fait depuis longtemps appel à des algorithmes d’optimisation. En 2019, le créateur Philippe Starck lance ainsi une chaise développée en collaboration avec la société Autodesk, la « A.I.chair »143.


Réglementation

Jusqu’à présent, l’intelligence artificielle n’est pas officiellement réglementée en Occident. Toutefois, tant les algorithmes que les données personnelles utilisées sont soumis aux règles du RGPD 144.

Le 18 décembre 2018, le groupe d’expert de haut niveau sur l’intelligence artificielle de l’Union européenne publie un document contenant des lignes directrices en matière d’éthique de l’intelligence artificielle145.


Questionnements

Les succès en IA encouragent les spéculations. Dans les milieux technophiles, on verse en général dans l’enthousiasme, le mouvement transhumaniste en est la meilleure expression. Au contraire, d’autres s’inquiètent et sont portées par des interrogations, parfois alarmistes, y compris dans la sphère de la haute technologie. Ainsi, des figures réputées telles que Bill Gates — ancien PDG de Microsoft et « figure emblématique de la révolution informatique de la fin du XXe siècle »146 — pensent qu’il faut rester très prudent quant aux développements futurs de ces technologies, qui pourraient devenir liberticides ou dangereuses.

Le développement de l’intelligence artificielle suscite un grand nombre de questions, notamment celle relative à la possibilité pour les IA ou algorithmes d’accéder un jour à la conscience, d’éprouver des émotions et finalement se substituer aux humains. Certaines de ces réactions sont ouvertement optimistes, d’autres sont au contraire pessimistes. En 2016, l’INRIA publie un premier Livre blanc consacré à l’IA 147.


La question de l’intelligence

Comme l’expose Martin Gibert dans son livre Faire la morale aux robots : une introduction à l’éthique des algorithmes, la définition du terme

« intelligence artificielle » pose une question fondamentale : Qu’est-ce que l’intelligence ?

Le chercheur en IA Yann Le Cun avance que le noyau de l’intelligence est la faculté de prédire. En effet, les bases de la programmation des premiers systèmes experts supposent de « maitriser parfaitement un problème et d’avoir une vue précise de toutes les solutions »148. En général, on oppose ces systèmes experts au plus récent apprentissage automatique, une technique où la machine est récompensée lorsqu’elle atteint les objectifs qu’on lui a donnés, avec une progression analogue à la méthode essai-erreur. Dans les années 2010, la technique la plus étudiée est celle de l’apprentissage supervisé, où les lois sont induites dans le système à partir d’exemples, de patterns et d’associations automatiques, notamment observables dans le big data. Dans tous les cas, l’efficacité de l’intelligence artificielle consiste à répondre aux objectifs donnés par les programmeurs et à tendre vers l’autonomie décisionnelle, ce qui présuppose une capacité de prédiction. [réf. souhaitée]

Le philosophe John Searle considère quant à lui que la faculté de comprendre est plus importante dans la définition de l’intelligence. Il démontre la faiblesse des systèmes d’intelligence artificielle et les limites du test de Turing, par son expérience de la chambre chinoise, d’où sa conclusion : « on ne devrait pas dire d’une IA qu’elle comprend les informations qu’elle traite lorsqu’elle manipule des règles de syntaxe sans maitriser la sémantique, c’est-à-dire sans reconnaitre le sens des mots. La question de savoir si on peut parler d’une véritable intelligence reste donc ouverte »148.


Espoirs et enthousiasme

Une description d’un possible avenir de l’intelligence artificielle a été faite par le statisticien anglais Irving John Good

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. »

— Irving John Good149

La mutation qu’évoque Good correspond à un changement « qualitatif » du principe même de progrès, et certains la nomment « singularité »150. Ce concept est central pour de nombreux transhumanistes, qui s’interrogent sur les dangers ou les espoirs d’un tel scénario, certains allant jusqu’à envisager l’émergence d’un « dieu » numérique appelé à prendre le contrôle du destin de l’humanité, ou à fusionner avec elle.

Good estimait à un peu plus d’une chance sur deux la mise au point d’une telle machine avant la fin du XXe siècle. La prédiction ne s’est toujours pas réalisée, en 2012, mais elle a imprégné le public à l’époque, notamment lors de la victoire de Deep Blue sur Garry Kasparov. Une partie du grand public était en effet persuadée qu’IBM venait de mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait profit. L’espoir a été déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant 200 millions de positions à la seconde, sans conscience du jeu lui-même, a été reconverti en machine classique utilisée pour l’exploration de

données.

Le développement de l’intelligence artificielle suscite l’enthousiasme des transhumanistes, notamment celui de l’ingénieur américain Ray Kurzweill, selon qui il est évident qu’à plus ou moins long terme, l’intelligence – jusqu’alors confinée dans son support biologique, le cerveau – deviendra progressivement non-biologique et considérablement plus puissante au point que des cyborgs remplaceront les humains, ceci en vertu de ce qu’il

appelle le « principe de singularité »151.

https://upload.wikimedia.org/wikipedia/commons/f/f4/Raymond_Kurzweil_Fantastic_Voyage.jpg?uselang=fr
Pour l’Américain Ray Kurzweil, l’intelligence artificielle dépassera bientôt l’intelligence naturelle.


Critiques et inquiétudes

Le développement de l’intelligence artificielle génère de l’enthousiasme, mais aussi de vives inquiétudes. Certains auteurs de science-fiction, tels Isaac Asimov, William Gibson ou Arthur C. Clarke, sur le modèle du récit de L’Apprenti sorcier, décrivent le risque d’une perte de contrôle des humains sur le processus technique. Dans les années 2000, différents intellectuels ont également pris position. Ainsi de l’astrophysicien Stephen Hawking, selon qui le risque est réel que des machines deviennent un jour plus intelligentes que les humains et finissent par les dominer, voire se substituer à eux, de la même façon que les humains ont exterminé certaines espèces animales153. Il pose en novembre 2017 au salon technologique Web Summit de Lisbonne la question suivante « Serons-nous aidés par l’intelligence artificielle ou mis de côté, ou encore détruits par elle ? »154.

Dans le milieu de la haute technologie, certains expriment publiquement des craintes similaires. C’est ainsi le cas, en 2015, de Bill Gates, Elon Musk et Bill Joy155. Selon le spécialiste américain de l’informatique Moshe Vardi, l’intelligence artificielle pourrait mettre 50 % de l’humanité au chômage. « Nous approchons d’une époque où les machines pourront surpasser les hommes dans presque toutes les tâches ». Son avènement poserait, à terme, la question de l’utilité même de l’espèce humaine156.

https://upload.wikimedia.org/wikipedia/commons/b/b4/Bill_Gates_-_World_Economic_Forum_Annual_Meeting_Davos_2008_number2.jpg?uselang=fr
Le développement de l’intelligence artificielle suscite des craintes, y compris au sein de la sphère high tech. En 2015, Bill Gates, ex-PDG de Microsoft, s’inquiète à ce sujet 152.

Certains industriels prennent ces risques au sérieux. Ainsi, en 2016, Google pose la question de la perte de contrôle potentiel d’agents apprenants qui pourraient apprendre à empêcher leur interruption dans une tâche. C’est dans ce sens que la firme développe un « bouton rouge » intégré en bas niveau dans les IA permettant de désactiver les intelligences artificielles, sans possibilité de contournement par celles-ci (au-delà de simplement « tuer » l’IA, l’objectif de ce « bouton rouge » est aussi de la geler dans son process, en évitant de l’arrêter, et éviter ainsi une remise à zéro des apprentissages ou des calculs en cours)157.

Ce risque est aussi considéré sur le plan juridique. Ainsi, le parlement européen a demandé à une commission d’étudier la possibilité qu’un robot doté d’une intelligence artificielle puisse être considéré comme une personne juridique158. Advenant un dommage causé à un tiers par une intelligence artificielle, celle-ci pourrait être condamnée à réparer ce dommage. Il serait envisageable de conférer une personnalité électronique à tout robot prenant des décisions autonomes ou interagissant de manière indépendante avec des tiers, au même titre qu’une personne morale et physique.

Aux États-Unis, Anthony Levandowski, le père de la voiture autonome, a fondé une organisation religieuse qui fait la promotion d’une « divinité » reposant sur une intelligence artificielle. Cette organisation, appelée « Way of the Future » (« La voie de l’avenir ») existerait depuis septembre 2015159.

Un autre problème est l’énorme quantité de ressources rares, de serveurs et d’énergie consommée par l’informatique sous-jacente à l’IA.


Critique de la technique et de la technologie

Comme l’explique l’historien François Jarrige, la critique de l’intelligence artificielle trouve son origine dans celle – plus ancienne et plus générale – des techniques et de la technologie, dont Lewis Mumford (aux États-Unis)160, Jacques Ellul (en France)161 et Günther Anders (en Allemagne)162 sont au XXe siècle les principaux instigateurs, et qui inspire aujourd’hui différents cercles militants (en France, par exemple : Pièces et Main d’Œuvre163 et Technologos164)165.

Selon Jarrige, leurs thèses restent peu connues ou controversées du fait que le « progrès » et l’« État » restent encore largement surestimés. Ainsi, reprenant les analyses d’Ellul166, les animateurs du groupe Technologos estiment que l’État est de loin le moins qualifié pour enrayer l’autonomisation du processus technicien167 et qu’il appartient aux individus de briser les mythes de l’État-providence et du progrès technique : « Ce

n’est pas la technique qui nous asservit mais le sacré transféré à la technique (…). Ce n’est pas l’État qui nous asservit, c’est sa transfiguration sacrale »168.

Dans un rapport en date de février 2018 intitulé The Malicious Use of Artificial Intelligence 26 experts spécialistes en intelligence artificielle mettent en garde contre les dangers d’un usage criminel de l’IA : augmentation de la cybercriminalité, conduire à des utilisations de drones à des fins

terroristes, manipulation de masse etc.169.


Questionnements éthiques

Le 28 septembre 2016, les géants du secteur de l’intelligence artificielle mettent en place un « partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société »170. L’année suivante, Google DeepMind se dote d’une unité en interne pour aborder les questions éthiques171.

Le 18 juillet 2018, 2 400 chercheurs, ingénieurs et personnalités du secteur de l’intelligence artificielle signent une lettre ouverte172, s’engageant à

« ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l’usage d’armes létales autonomes ». La lettre précise notamment que « La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. ». Parmi les signataires, se trouvent Elon Musk, les dirigeants de Google DeepMind, Stuart Russell, Yoshua Bengio ou encore Toby Walsh173.


IA et emploi

L’inquiétude du remplacement du travail humain par des machines n’est pas nouveau, et cette question est déjà présente chez certains économistes du XIXe siècle comme Thomas Mortimer (en), ou David Ricardo dans le premier chapitre Des principes de l’économie politique et de l’impôt. En 1995, Jeremy Rifkin publie End of Work: The Decline of the Global Labor Force and the Dawn of the Post-Market Era (en français : « La fin du travail : Le déclin de la force globale de travail dans le monde et l’aube de l’ère post-marché »). Les prédictions de la fin du travail sont donc courantes et accompagnent presque systématiquement les « grappes d’innovations ».

Le 17 septembre 2013, deux chercheurs d’Oxford, Carl Benedikt Frey (en) et Michael A. Osborne, publient un rapport prospectif sur les impacts de l’intelligence artificielle et de la robotisation sur l’emploi : The Future of Employment: How Susceptible Are Jobs to Computerisation?174. Ils y prédisent que 47 % des emplois pourraient être automatisés d’ici 2030. Ce rapport connaît un grand retentissement dans le monde académique et nourrit les inquiétudes autour de l’impact de l’intelligence artificielle sur l’emploi. Des critiques de ce rapport se sont formées. Tout d’abord, Osborne et Frey raisonnent en emploi constant, or selon Joseph Schumpeter et son principe de destruction créatrice, si certaines innovations détruisent des emplois, elles en créent aussi par ailleurs. David Autor, dans son article « Why Are There Still So Many Jobs? The History and Future of Workplace Automation » publié en 2015, nuance les prédictions de Frey et Osborne et s’interroge ainsi plutôt sur les modifications de la structure du marché de

l’emploi due à l’intelligence artificielle175.


L’intelligence artificielle et le travail numérique

Malgré les progrès importants de l’intelligence artificielle ces dernières années, nous ne pouvons pas dire que l’hypothèse de la fin du travail se soit encore réalisée. Il est vrai cependant que la structure du marché de l’emploi connaît de grands changements à cause de l’intelligence artificielle. Le sociologue Antonio Casilli, dans son ouvrage En attendant les robots : enquête sur le travail du clic176 examine les conséquences de la « disruption numérique » liée à l’intelligence artificielle sur la structure de l’emploi, en enquêtant sur les différentes formes d’activités humaines nécessaire à la production d’intelligence artificielle. Cette thèse s’inscrit dans une analyse de qu’on appelle le « travail numérique » (« digital labour »), concept forgé dans les années 2000 pour désigner l’ensemble des activités en ligne, créatrices de valeurs, le plus souvent captées par les grandes plateformes numériques. Le travail numérique est consubstantiellement lié à la production des intelligences artificielles et peut être analysé en trois

catégories177, 178:

Le travail à la demande

Cette forme a la particularité d’être à la fois en ligne et hors ligne. C’est le travail lié aux plateformes d’appariement algorithmique comme Uber, Deliveroo, ou même Airbnb, etc. Dans le cas du travail à la demande, l’intelligence artificielle ne remplace pas le travail humain mais elle permet plutôt une optimisation de la rencontre de l’offre et de la demande sur un certain marché. Cette forme de digital labour est moins liée à la production d’intelligence artificielle que les deux suivantes, en revanche, l’intelligence artificielle et l’algorithmique bousculent la structure de l’emploi des secteurs d’activités concernés.

L’optimisation algorithmique de la rencontre de l’offre et la demande encourage un système de rémunération à la tâche et prive les travailleurs du statut de salarié. Dans ce cas-là les conséquences de l’intelligence artificielle sur l’emploi concernent davantage une modification du statut des travailleurs, qu’un remplacement de l’homme par la machine. La tâche reste la même, seules les conditions d’emploi et de rémunération changent.

Le micro-travail

L’émergence du micro-travail, est très étroitement lié à la production d’intelligence artificielle, notamment dans la phase d’entraînement et de calibrage des algorithmes. En effet tous les algorithmes d’intelligence artificielle (particulièrement ceux utilisant la technologie du deep-learning) ont besoin d’une quantité incroyable de données pour réaliser leur apprentissage et devenir fonctionnels. Or il n’existe pas à ce jour d’autre solution que d’avoir recours à la main d’œuvre humaine pour fournir ces quantités de données. C’est Amazon, l’un des leaders mondiaux de l’intelligence artificielle qui possède la plus grande plateforme de micro-travail : Amazon Mechanical Turk créée en 2005. Les autres leaders de l’intelligence artificielle utilisent également les services de plateformes de micro-travail : Google se sert d’EWOK, Microsoft d’UHRS et IBM de Mighty IA179. Ces micro-tâches numériques sont en général : rédiger de courts commentaires, cliquer, regarder des vidéos ou des photos, traduire un texte, donner de la visibilité à un site Web, créer des playlists musicales, taguer des images ou reconnaître des visages ou des objets dans les photos. Aux micro-tâches s’appliquent des micro-paiements : certaines sont payées en centimes de dollars, un ou deux dollars pour les plus élaborées. L’institut américain Pew Research Center estime que les deux tiers des tâches proposées sur Amazon Mechanical Turk sont rémunérées moins de 10 centimes et la moyenne horaire de salaire était évaluée par des chercheurs à 1,38 dollar/heure en 2010180. Selon une étude de la Banque mondiale de 2013, il avait alors plus d’une centaine de plates-formes de micro-travail dans le monde, comptabilisant autour d’un million d’inscrits181, mais des enquêtes plus récentes ont vu ce nombre largement rehaussé, les estimations les plus actuelles allant de quelques dizaines de millions, à plus de 100 millions de micro-travailleurs dans le monde182. En France il y aurait environ 250 000 micro-travailleurs183. Le micro-travail peut être considéré comme le droit héritier du taylorisme qui s’est adapté à l’économie numérique.

Le travail social en réseau

Certains sociologues, parmi lesquels Antonio Casilli, considèrent que la présence en ligne, sur les plateformes qui captent nos données personnelles, peut être considéré comme une forme de travail 178. En effet cette activité en ligne est essentielle à la production de données qui seront par la suite utilisées afin de faire progresser les algorithmes. Cette activité pourrait donc être considérée comme du travail, dans la mesure où elle est créatrice de valeur pour les plateformes.

Malgré les craintes qui règnent autour de l’hypothèse de la fin du travail, cette idée semble actuellement relever du fantasme. Le travail humain demeure essentiel à la phase d’apprentissage des intelligences artificielles. Même entraînée et fonctionnelle, une intelligence artificielle nécessite souvent des vérifications humaines afin d’assurer son bon fonctionnement. L’exemple le plus notoire dans le domaine est celui des assistants vocaux, Amazon assume écouter les conversations des utilisateurs d’Alexa afin « d’améliorer l’expérience utilisateur »184, or ce sont bien des humains qui sont derrière ces écoutes. De même les voitures dites autonomes d’Uber ne peuvent pas fonctionner sans opérateur de conduite, qui n’est pas au volant, mais qui doit guider le véhicule en participant à la reconnaissance d’images fournis par les caméras en direct. Uber a d’ailleurs décidé de doubler le nombre de ces opérateurs de conduite après le premier accident mortel de début 2018185. L’analyse du digital labour met en lumière toute l’ambivalence actuelle de l’intelligence artificielle. Lorsque les grandes plateformes du numérique et les ingénieurs annoncent le remplacement de l’homme par les machines, une étude sociologique concrète nous montre que pour l’instant, le travail humain est essentiel pour combler les lacunes de l’intelligence artificielle. Il semble donc que derrière les promesses d’automatisation, se cache finalement une précarisation du statut des travailleurs (dans le cas du travail à la demande), un parcellisation extrême des tâches (dans le cas du micro-travail) et une invisibilisation du travail

(dans le cas du travail social en réseau)186.


Perspectives et projections dans le futur

Des chercheurs de l’Institut de l’avenir de l’humanité de l’Université d’Oxford, de l’Université Yale et d’AI Impact ont sondé 352 experts en apprentissage par machine pour prévoir les progrès de l’IA au cours des prochaines décennies187.

Les experts ont été interrogés sur le calendrier des capacités et des professions spécifiques, ainsi que leurs prédictions quant à savoir quand l’IA deviendra supérieure aux humains dans toutes les tâches187. Et quelles en seraient les implications sociales également187. Les chercheurs ont prédit que les machines seront meilleures que les humains dans le domaine de la traduction de langues d’ici 2024187. Elles seraient capables de rédiger des

essais d’ici 2026187. De conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031187.

D’ici 2050, elles pourront écrire des best-sellers ou exécuter des travaux de chirurgiens187. Selon les chercheurs, il y a 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement 45 ans187. Et, selon la même probabilité, les machines pourraient

prendre en charge tous les emplois humains en 120 ans187. Certains chercheurs prévoient même que cela pourrait se produire plus tôt187.


Dans la science-fiction

Voir aussi la catégorie :

Une machine ayant une conscience et capable d’éprouver des sentiments — ou de faire comme si c’était le

cas — est un grand thème classique de la science-fiction, notamment des romans d’Isaac Asimov sur les robots188.

Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures de Pinocchio, publié en 1881, où une marionnette capable d’éprouver de l’amour pour son créateur cherche à devenir un vrai petit garçon, ou dans L’Homme le plus doué du monde, une nouvelle de l’Américain Edward Page Mitchell où le cerveau d’un simple d’esprit est remplacé par un ordinateur inspiré des recherches de Charles Babbage189. Le roman Le Miroir flexible de Régis Messac propose quant à lui le principe d’une intelligence artificielle faible, mais évolutive, avec des automates inspirés de formes de vie simples, réagissant à certains stimuli tels que la lumière. Cette trame a fortement inspiré le film A.I. Intelligence artificielle réalisé par Steven Spielberg, sur la base d’idées de Stanley Kubrick, lui-même inspiré de Brian Aldiss190. L’œuvre de Dan Simmons, notamment le cycle d’Hypérion, évoque l’intelligence artificielle. Destination vide, de Frank Herbert, met en scène de manière fascinante l’émergence d’une intelligence artificielle forte. Plus récemment, l’écrivain français Christian Léourier a placé une intelligence artificielle au cœur de son roman court Helstrid (2018), dans lequel cette IA laisse un être humain mourir, contrevenant ainsi aux trois lois de la robotique instaurées par Isaac Asimov près de quatre-vingts ans plus tôt.

Les androïdes faisant preuve d’intelligence artificielle dans la fiction sont nombreux : le personnage de Data de la série télévisée Star Trek : The Next Generation est un être cybernétique doué d’intelligence, avec des capacités importantes d’apprentissage. Il est officier supérieur sur le vaisseau Enterprise et évolue aux côtés de ses coéquipiers humains qui l’inspirent dans sa quête d’humanité. Son pendant cinématographique est Bishop dans les films Aliens (1986) et Alien 3 (1992). Dans le manga Ghost in the Shell, une androïde s’éveille à la conscience. Dans la saga Terminator avec Arnold Schwarzenegger, le T-800 reprogrammé, conçu initialement pour tuer, semble dans la capacité d’éprouver des sentiments humains. Par ailleurs, les Terminators successifs sont envoyés dans le passé par Skynet, une intelligence artificielle qui a pris conscience d’elle-même, et du danger que représentent les humains envers elle-même191.

Quelques IA célèbres dans la science-fiction

·  1721 : Les Voyages de Gulliver, dans son ouvrage Voyage au pays de Houyhnhnms représentent des intelligences supérieures.

·  1968 : 2001, l’Odyssée de l’espace de Stanley Kubrick, inspiré de la nouvelle La Sentinelle d’Arthur C. Clarke, également auteur du scénario du film, avec la lutte entre l’ordinateur HAL et l’humain Dave.

·  1969 : Le Cerveau d’acier, d’après le roman de Dennis Feltham Jones (en) de 1967 (un système d’IA militaire américain contacte son homologue russe pour qu’ils coopèrent à leur mission commune, éviter la guerre nucléaire… en neutralisant les humains !).

·  1981 : Blade Runner de Ridley Scott, inspiré d’un roman de Philip K. Dick, où des humains artificiels (des « répliquants ») reviennent sur terre après une mission spatiale, mais n’acceptent pas leur mort programmée à la suite du succès de leur mission.

·  1982 : K 2000, une Pontiac Trans-Am embarque une intelligence artificielle au nom de KITT, conçue pour réaliser des diagnostics pour les dossiers de la F.L.A.G. Elle ne peut ressentir des émotions, ne peut porter atteinte à la vie d’autrui et n’écoute que les ordres de Michael Knight. Une partie de l’histoire repose sur l’importance de la programmation, notamment avec son jumeau maléfique et prototype K.A.R.R. dont sa principale différence est d’avoir en priorité l’instinct de survie qui prédomine les autres limites.

·  1982 : Tron de Steven Lisberger, où le Maître contrôle principal (MCP) est un programme d’échecs qui a évolué en IA et tente de prendre le contrôle total du système.

·  1985 : D.A.R.Y.L. est un androïde que le gouvernement américain cherche à détruire.

·  1999 : Matrix, trilogie cinématographique de science-fiction dans laquelle les humains, enfermés dans un monde créé par l’IA, sont asservis par les machines. Une petite poche de résistance humaine résiste et se bat encore dans l’espoir de la venue de l’Élu : Neo.

·  1999 : L’Homme bicentenaire, où un exemplaire de NDR-114, dénommé « Andrew », poursuit un long chemin vers l’acquisition de la conscience, au point de se voir reconnaitre le statut d’être humain à la fin de sa « vie ». Il s’agit d’une adaptation de la nouvelle éponyme d’Isaac Asimov.

·  2001 : A.I. Intelligence artificielle de Steven Spielberg, inspiré de la nouvelle de Brian Aldiss Les Supertoys durent tout l’été. Le personnage central est certainement un aboutissement mais pour l’instant seulement imaginaire de l’intelligence artificielle : un enfant-robot doué d’émotions et de sentiments.

·  2003 – 2007 : Code Lyoko dessin-animé où une I.A appelée X.A.N.A tente de s’emparer du contrôle du réseau mondial après avoir accédé à la conscience.

·  2004 : I, Robot, inspiré de l’œuvre de Isaac Asimov et thème semblable au film AI.

·  2008 : J.A.R.V.I.S. (Just A Rather Very Intelligent System) dans les films Iron Man, Avengers, etc. avec Robert Downey Jr., inspiré des comics de Marvel.

·  2011-2016 : la série télévisée Person of Interest met en scène un groupe de personnes guidées par une intelligence artificielle capable de prédire des crimes.

·  2012-2014 : la série télévisée Real Humans : 100 % humain décrit l’émergence de robots doués de conscience au sein de la société humaine.

·  2015 : Ex Machina de Alex Garland, dans lequel un test de Turing d’une semaine va dégénérer en faveur d’un robot féminin (gynoïde) révolutionnaire.

·  2016 : la série télévisée Westworld met en scène des androïdes à l’apparence humaine qui commencent à adopter des comportements imprévisibles192


L’intelligence artificielle et les jeux

Les jeux, notamment les jeux de stratégie, ont marqué l’histoire de l’intelligence artificielle, même s’ils ne mesurent que des compétences particulières, telles que la capacité de la machine en matière de calcul de probabilités, de prise de décision mais aussi d’apprentissage.

Hans Berliner (1929-2017), docteur en science informatique à l’université Carnegie-Mellon et fort joueur d’échecs, fut un des pionniers de la programmation pour les ordinateurs de jeu. Ses travaux commencèrent par un programme capable de battre un humain professionnel au backgammon, puis, à partir des années 1960 et avec l’aide d’IBM, il fit des recherches pour créer un programme capable de rivaliser avec des grands maîtres du jeu d’échecs. Ses travaux contribuèrent quelques décennies plus tard à la réalisation du supercalculateur Deep Blue193.

Outre la capacité des jeux à permettre de mesurer les performances de l’intelligence artificielle, que ce soit au travers un score ou un affrontement face à un humain, les jeux offrent un environnement propice à l’expérimentation pour les chercheurs, notamment dans le domaine de l’apprentissage par renforcement194.


Othello

Dans le jeu Othello, sur un plateau de 8 cases sur 8, chaque joueur place tour à tour des pions de sa couleur (noir ou blanc). Le vainqueur est celui qui possède les pions de la couleur dominante.

L’une des premières intelligences artificielles pour l’Othello est IAGO, développée en 1976 par l’université Caltech de Pasadena (Californie), qui bat sans difficultés le champion japonais Fumio Fujita.

Le premier tournoi d’Othello hommes contre machines est organisé en 1980. Un an plus tard, un nouveau tournoi de programmes regroupent 20 systèmes195. C’est entre 1996 et 1997 que le nombre de programmes explose : Darwersi (1996-1999) par Olivier Arsac, Hannibal (1996) par Martin Piotte et Louis Geoffroy, Keyano (1997) par Mark Brockington, Logistello (1997) par Michael Buro, etc.


Échecs

En 1968, le maître international anglais David Levy lança un défi à des spécialistes en intelligence artificielle, leur pariant qu’aucun programme informatique ne serait capable de le battre aux échecs dans les dix années à venir. Il remporta son pari, n’étant finalement battu par Deep Thought qu’en 1989196.

En 1988, l’ordinateur HiTech de Hans Berliner fut le premier programme à battre un grand maître du jeu d’échecs, Arnold Denker (74 ans) en match (3,5-1,5)197, d. Par la suite, de forts joueurs furent battus, comme le grand

maître Bent Larsen (alors à 2560 points Elo), vaincu en 1988 par Deep Thought dans un tournoi en Californie198, 199.

En mai 1994, à Munich, le programme Fritz 3, tournant sur un ordinateur avec un monoprocesseur Pentium à 90 MHz, gagna une partie de blitz dans un tournoi contre le champion du monde d’échecs Garry Kasparov et, en août 1994, lors du premier tour du grand Prix d’Intel à Londres, le champion du monde affronta Chess Genius 2.9 (tournant sur un Pentium à 100 MHz) en jeu semi-rapide (30 min la partie) et perdit 0.5-1.5 (une nulle et une défaite)200.

En 1997, la victoire du supercalculateur conçu par IBM, Deep Blue (surnommé Deeper Blue lors de ce match revanche), contre Garry Kasparov (3,5–2,5) a marqué un tournant : pour la première fois, le meilleur joueur humain du jeu d’échecs était battu en match (et non lors d’une partie unique) par une machine.

En juin 2005, le supercalculateur Hydra gagne face au grand maître Michael Adams par 5 victoires, une nulle, et aucune défaite201.

https://upload.wikimedia.org/wikipedia/commons/b/be/Deep_Blue.jpg?uselang=fr
Un supercalculateur IBM similaire à Deep Blue, qui a battu le champion du monde d’échecs en titre dans un match en 1997.

En novembre 2006, Deep Fritz gagne face au champion du monde Vladimir Kramnik par 2 victoires, 4 nulles et aucune défaite, plaçant notamment dans la deuxième partie un échec et mat élémentaire (mat en un coup) que Kramnik ne vit pas, fatigué par ses efforts durant le match202.

En 2010, l’ancien champion du monde Veselin Topalov confirme utiliser pour sa préparation au championnat du monde d’échecs 2010 le superordinateur Blue Gene/P, doté alors de 8 792 processeurs203.

En décembre 2017, une version généraliste d’AlphaGo Zero — successeur du programme AlphaGo de DeepMind, voir plus bas dans la section Go — nommée AlphaZero, a été développé, pour jouer à n’importe quel jeu en connaissant seulement les règles, et en apprenant seul à jouer contre lui- même. Ce programme a été ensuite entraîné pour le Go, le Shogi et les échecs. Après 9 heures d’entrainement, AlphaZero a battu le programme d’échecs Stockfish, avec 28 victoires, 72 nulles et aucune défaite. Il faut cependant noter que la puissance de calcul disponible pour AlphaZero (4

TPUv2 pour jouer, soit 720 Teraflops) est infiniment supérieure à la puissance disponible pour Stockfish, qui n’utilise que 64 cœurs Intel204. Il a également réussi à battre après apprentissage le programme de shōgi Elmo (en)205, 206.


Go

En 2015, l’IA réalise des progrès significatifs dans la pratique du go, plus complexe à appréhender que les échecs (entre autres à cause du plus grand nombre de positions : 10170 au go, contre 1050 pour les échecs, et de parties plausibles : 10600 au go, contre 10120 pour les échecs)207.

En octobre 2015, AlphaGo, un logiciel d’IA conçu par DeepMind, filiale de Google, bat pour la première fois Fan Hui, le triple champion européen de go208 et ainsi relève ce qu’on considérait comme l’un des plus grands défis pour l’intelligence artificielle. Cette tendance se confirme en mars 2016 quand AlphaGo bat par trois fois consécutives le champion du monde de la discipline, Lee Sedol, dans un duel en cinq parties209. Lee Sedol a déclaré au terme de la seconde partie qu’il n’avait trouvé « aucune faiblesse » chez l’ordinateur et que sa défaite était « sans équivoque ».

Jeopardy!

En 2011, l’IA Watson conçue par IBM, bat ses adversaires humains au jeu télévisé américain Jeopardy!207. Dans ce jeu de questions/réponses, la compréhension du langage est essentielle pour la machine ; pour ce faire, Watson a pu s’appuyer sur une importante base de données interne lui fournissant des éléments de culture générale, et avait la capacité d’apprendre par lui-même, notamment de ses erreurs. Il disposait néanmoins d’un avantage, la capacité d’appuyer instantanément (et donc avant ses adversaires humains) sur le buzzer pour donner une réponse207.

Poker

Le premier programme informatique à avoir gagné un tournoi de poker significatif face à des joueurs professionnels humains est Polaris, en 2007210, 211 et, depuis, les efforts pour améliorer ce résultat n’ont pas cessé.

En 2017, lors du tournoi de poker « Brains Vs. Artificial Intelligence : Upping the Ante » (« Cerveau contre Intelligence Artificielle : on monte la mise ») organisé dans un casino de Pennsylvanie, l’intelligence artificielle Libratus, développée par des chercheurs de l’université Carnegie-Mellon de Pittsburgh, est confrontée à des adversaires humains dans le cadre d’une partie marathon étalée sur 20 jours211. Les joueurs humains opposés à Libratus, tous professionnels de poker, affrontent successivement la machine dans une partie en face à face (heads up (en)) selon les règles du « No Limit Texas hold’em » (no limit = mises non plafonnées), la version actuellement la plus courante du poker. Les parties étaient retransmises en direct et durant huit heures par jour sur la plateforme Twitch212.

Au terme de plus de 120 000 mains jouées, Libratus accumule 1 766 250 dollars (virtuels). Le joueur humain ayant perdu le moins d’argent dans son duel face à la machine, Dong Kim, est tout de même en déficit de plus de 85 000 dollars. Dans leurs commentaires du jeu de leur adversaire, les joueurs humains ont admis qu’il était à la fois déconcertant et terriblement efficace. En effet, Libratus « étudiait » chaque nuit, grâce aux ressources d’un supercalculateur situé à Pittsburgh, ses mains jouées durant la journée écoulée, utilisant les 15 millions d’heures/processeur de calculs du supercalculateur212.

La victoire nette et sans bavure de la machine marque une nouvelle étape dans le développement de l’intelligence artificielle, et illustre les progrès accomplis dans le traitement par l’IA des « informations imparfaites », où la réflexion doit prendre en compte des données incomplètes ou dissimulées. Les estimations du nombre de possibilités d’une partie de poker No Limit en face à face est d’environ de 10160212.

Auparavant en 2015, le joueur professionnel Doug Polk (en) avait remporté la première édition de cet évènement contre l’IA baptisée Claudico (en)212.


Notes et références


Notes

  1. (en) « the building of computer programs which perform tasks which are, for the moment, performed in a more satisfactory way by humans because they require high level mental processes such as: perception learning, memory organization and critical reasoning ».
  2. On parle de sémantique.
  • Ils occupaient donc, en nombre de comparaisons par seconde, une moyenne géométrique entre une balance de Roberval (une opération logique par seconde) et le cerveau humain.
  • Arnold Denker était alors âgé de 74 ans et crédité d’un classement Elo de 2300, ce qui relativise un peu la performance du programme, un fort grand maitre étant à cette époque plus vers les 2 650–2 700 points Elo, voire davantage.


Références

  1. « Encyclopédie Larousse en ligne – intelligence artificielle » (https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/ 187257), sur Larousse.
  2. Andreas Kaplan et Michael Haenlein, Siri, Siri in my Hand, who’s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence (https://www.sciencedirect.com/science/article/pii/S0007681318301393), Business Horizons, vol. 62, no 1, 2018.
  3. « Comment permettre à l’Homme de garder la main ? » (https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_ main_web.pdf) [PDF], sur CNIL, décembre 2017 (consulté le 15 mai 2018), p. 80
  4. « Rapport de synthèse – France Intelligence Artificielle » (https://cache.media.enseignementsup-recherche.gouv.fr/file/Actus/86/ 1/Conclusions_Groupes_Travail_France_IA_738861.pdf) [PDF], sur Ministère de l’Enseignement supérieur et de la Recherche, 2017.
  5. « Rulers of the world, unite! The challenges and opportunities of artificial intelligence » (https://www.sciencedirect.com/science/a rticle/pii/S0007681319301260), Business Horizons, janvier, 2020
  6. « Votre chat est plus intelligent qu’une IA » (http://www.slate.fr/story/183020/tech-intelligence-artificielle-ia-chat-etre-humain-marc he-reconnaissance-objet-experience-sensible), sur Slate.fr, 18 octobre 2019 (consulté le 19 octobre 2019).
  7. « Encyclopédie Larousse en ligne – intelligence artificielle » (http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/1 87257), sur larousse.fr (consulté le 15 août 2020).
  8. (en) Russell, S. et Norvig, P., Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall, 2003, 932 p. (ISBN 0-13-790395-2) Section 1.1.
  9. Republié dans Collected Works of A. M. Turing, volume Mechanical Intelligence, éd. Darrel Ince, (ISBN 978-0-444-88058-1).
  10. Conférence Intelligent machinery, a heretical theory donnée à la Société 51 à Manchester (http://www.turingarchive.org/browse.p hp/B/4).
  11. « Can digital computers think? » (http://www.turingarchive.org/browse.php/B/5).
  12. « Can automatic calculating machines be said to think? » (http://www.turingarchive.org/browse.php/B/6).
  13. La première version de ce memorandum a été publiée à Carlsbad (Nouveau-Mexique) en juillet 1949. Il a été reproduit dans (en)

« Translation », dans W.N. Locke, D.A. Booth, Machine Translation of Languages, Cambridge (Massachusetts), MIT Press, 1955, 15–23 p. (ISBN 0-8371-8434-7, lire en ligne (http://www.mt-archive.info/Weaver-1949.pdf))

  1. (en) Russell, Stuart J. (Stuart Jonathan) et Canny, John., Artificial intelligence : a modern approach (ISBN 0-13-790395-2, 978-0-13-790395-5 et 0-13-080302-2, OCLC 51325314 (https://worldcat.org/oclc/51325314&lang=fr)), p. 19.
  2. (en) Crevier, Daniel, 1947-, AI : the tumultuous history of the search for artificial intelligence, Basic Books, 1993

(ISBN 0-465-02997-3, 978-0-465-02997-6 et 0-465-00104-1, OCLC 26858345 (https://worldcat.org/oclc/26858345&lang=fr)), p. 215-216.

  1. « L’espèce humaine, échec et mat », Le Monde, 11 septembre 2014 (lire en ligne (https://www.lemonde.fr/jeux-d-esprit/article/20 14/09/11/l-espece-humaine-echec-et-mat_4486139_1616889.html), consulté le 25 juin 2020).
  2. « 1956 : et l’intelligence artificielle devint une science » (https://www.lesechos.fr/2017/08/1956-et-lintelligence-artificielle-devint- une-science-181042), sur Les Échos, 21 août 2017 (consulté le 30 juin 2020)
  3. (en) Daniel Crevier, AI: The Tumultuous Search for Artificial Intelligence, New York, BasicBooks, 1993, (ISBN 978-0-465-02997-6), p. 17.
  4. Jean-Luc Goudet, « John McCarthy, pionnier de l’intelligence artificielle, disparaît » (https://www.futura-sciences.com/tech/actuali tes/informatique-john-mccarthy-pionnier-intelligence-artificielle-disparait-34264/), sur Futura (consulté le 27 juin 2020)
  5. « Marvin Minsky : encombrant prophète de l’intelligence artificielle » (https://www.nouvelobs.com/rue89/rue89-sciences/2016012 8.RUE2036/marvin-minsky-encombrant-prophete-de-l-intelligence-artificielle.html), sur L’Obs (consulté le 27 juin 2020)
  6. Crevier, Daniel, 1947-, AI : the tumultuous history of the search for artificial intelligence, Basic Books, 1993

(ISBN 0-465-02997-3, 978-0-465-02997-6 et 0-465-00104-1, OCLC 26858345 (https://worldcat.org/oclc/26858345&lang=fr)),

p. 94

21 février 2019, 333 p. (ISBN 978-2-11-152634-1, ISSN 2491-0058 (http://worldcat.org/issn/2491-0058&lang=fr), résumé (https:// cget.gouv.fr/ressources/publications/intelligence-artificielle-etat-de-l-art-et-perspectives-pour-la-france), lire en ligne (https://cget. gouv.fr/sites/cget.gouv.fr/files/atoms/files/2019-02-intelligence-artificielle-etat-de-l-art-et-perspectives_0.pdf) [PDF]), p. 18.

  • Forbes, « Le Point Sur L’investissement Dans Le Machine Learning Et l’IA En 2017 » (https://www.forbes.fr/technologie/le-point- sur-linvestissement-dans-le-machine-learning-et-lia-en-2017/amp/), sur Forbes France, 11 juillet 2017 (consulté le 27 juin 2020).

automates-boites-musique.com (consulté le 27 janvier 2019).

  • (en) David Link, « Scrambling T-R-U-T-H: Rotating Letters as a Material Form of Thought », dans Variantology: On Deep Time Relations of Arts, Sciences and Technologies in the Arabic–Islamic World, Cologne, 2010 (ISBN 3865607322, lire en ligne (htt p://www.alpha60.de/research/scrambling_truth/DavidLink_ScramblingTruth2010_100dpi.pdf)), p. 215-266
  • (en) Boole, George, 1815-1864., The laws of thought, 1854., Open Court Pub, 1952 (OCLC 615373478 (https://worldcat.org/oclc/615373478&lang=fr))
  • (en) Whitehead, Alfred North, 1861-1947., Principia mathematica, Merchant Books, 2009 (ISBN 978-1-60386-182-3, 1-60386-182-3 et 978-1-60386-183-0, OCLC 436445339 (https://worldcat.org/oclc/436445339&lang=fr))
  • (de) Kurt Gödel, « Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I », Monatshefte für Mathematik und Physik, vol. 38-38, no 1, décembre 1931, p. 173–198 (ISSN 0026-9255 (http://worldcat.org/issn/0026-9255&lang

=fr) et 1436-5081 (http://worldcat.org/issn/1436-5081&lang=fr),

DOI 10.1007/bf01700692 (https://dx.doi.org/10.1007%2Fbf01700692), lire en ligne (https://dx.doi.org/10.1007/bf01700692), consulté le 6 avril 2021).

Archive.is (https://archive.is/http://www.aeiveos.com/~bradbury/Authors/Computing/Good-IJ/) • Google (https://www.google.fr/search?q=cache:http://www.aeiveos.com/~ bradbury/Authors/Computing/Good-IJ/) • Que faire ?) (consulté le 15 juin 2017).

ache:http://www.singinst.org/) • Que faire ?) (consulté le 15 juin 2017) (2004), Singularity Institute for Artificial Intelligence, 3 Laws Unsafe sur http://www.asimovlaws.com/, consulté le 7 août 2007, sauvé sur web.archive.org (https://web.archive.org/web/200805250924 51/http://www.asimovlaws.com/).

AITopics/Ethics) • Archive.is (https://archive.is/http://www.aaai.org/AITopics/pmwiki/pmwiki.php/AITopics/Ethics) • Google (https://www.google.fr/search?q=cache:http://ww w.aaai.org/AITopics/pmwiki/pmwiki.php/AITopics/Ethics) • Que faire ?) (consulté le 15 juin 2017) – Association for the Advancement of Artificial

Intelligence (AAAI).

-up-du-big-data-et-de-l-intelligence-artificielle-304655.php))

cnil.fr (consulté le 4 avril 2018)

7 décembre 2017 (lire en ligne (https://www.actuia.com/actualite/lancement-dune-consultation-publique-lintelligence-artificielle-c edric-villani/))

  • Cédric Villani, Donner un sens à l’intelligence artificielle : Pour une stratégie nationale et européenne, aiforhumanity.fr,

mars 2018 (ISBN 978-2-11-145708-9, présentation en ligne (https://www.aiforhumanity.fr/), lire en ligne (https://www.aiforhumanit y.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf) [PDF]).

  • Vincent Fagot et Morgane Tual, « Intelligence artificielle : ce qu’il faut retenir du rapport de Cédric Villani » (https://www.lemonde. fr/pixels/article/2018/03/28/intelligence-artificielle-ce-qu-il-faut-retenir-du-rapport-de-cedric-villani_5277697_4408996.html), sur Le Monde.fr, 28 mars 2018.
  • « Intelligence artificielle : Macron annonce un plan à 1,5 milliard d’euros » (http://www.leparisien.fr/economie/intelligence-artificie lle-macron-annonce-un-plan-a-1-5-milliard-d-euros-29-03-2018-7636614.php), sur Le Parisien.fr, 29 mars 2018.
  • « Pour Emmanuel Macron, l’intelligence artificielle est aussi « une révolution politique » » (https://www.lemonde.fr/pixels/article/20 18/03/31/pour-emmanuel-macron-l-intelligence-artificielle-est-aussi-une-revolution-politique_5279161_4408996.html), sur Le Monde (consulté le 1er avril 2018)
  • (en) « Emmanuel Macron Talks to WIRED About France’s AI Strategy », Wired, 31 mars 2018 (lire en ligne (https://www.wired.co m/story/emmanuel-macron-talks-to-wired-about-frances-ai-strategy/)).
  • « Microsoft ouvre une école sur l’Intelligence Artificielle en France », ZD Net, 6 mars 2018 (lire en ligne (https://www.zdnet.fr/actu alites/microsoft-ouvre-une-ecole-sur-l-intelligence-artificielle-en-france-39865052.htm)).
  • Maryse Gros, « Microsoft France renforce son Ecole IA et étend son périmètre », Le Monde Informatique, 20 septembre 2018 (lire en ligne (https://www.lemondeinformatique.fr/actualites/lire-microsoft-france-renforce-son-ecole-ia-et-etend-son-perimetre-72 914.html)).
  • Julie le Bolzer, « Microsoft voit dans l’IA un vecteur d’inclusion », Les Échos, 3 décembre 2018 (lire en ligne (https://business.les echos.fr/directions-numeriques/digital/transformation-digitale/0600234263288-microsoft-voit-dans-l-ia-un-vecteur-d-inclusion-32 5392.php)).
  • Stephane Nachez, « ActuIA lance le premier magazine papier dédié à l’intelligence artificielle » (https://www.actuia.com/actualit e/actuia-lance-le-premier-magazine-papier-dedie-a-lintelligence-artificielle/), sur Actu IA, 24 octobre 2019 (consulté le

11 novembre 2019).

27 juin 2020).

Invesforesight, 18 novembre 2018 (consulté le 10 août 2020).

06. +Bastien L, « TensorFlow : tout savoir sur la bibliothèque Machine Learning open source » (https://www.lebigdata.fr/tensorflow-d efinition-tout-savoir), sur LeBigData.fr, 19 octobre 2018 (consulté le 7 juillet 2020)

[PDF]).

  1. « L’intelligence artificielle, as du diagnostic médical », Le Monde, 3 octobre 2018 (lire en ligne (https://www.lemonde.fr/sciences/ article/2018/10/03/l-intelligence-artificielle-as-du-diagnostic_5363627_1650684.html), consulté le 27 juin 2020)
  1. « Maladies de l’œil : l’intelligence artificielle meilleure que les médecins ? », Les Echos.fr, 14 août 2018 (lire en ligne (https://ww w.lesechos.fr/intelligence-artificielle/veille-technologique/0302115279120-maladies-de-loeil-lintelligence-artificielle-meilleure-qu e-les-medecins-2197970.php))
  2. « FAQ » (https://www.health-data-hub.fr/faq), sur Healthdatahub (consulté le 10 août 2020)
  3. Alexandre Boero, « La police britannique travaille sur une IA qui sera capable de devancer votre crime » (https://www.clubic.co m/technologies-d-avenir/intelligence-artificielle/actualite-848035-police-britannique-travaille-ia-devancer-crime.html),  sur   Clubic, 2 décembre 2018.
  4. (en) Stephen Buranyi, « The rise of the racist robots » (https://www.theguardian.com/inequality/2017/aug/08/rise-of-the-racist-rob ots-how-ai-is-learning-all-our-worst-impulses), The Guardian, 9 aout 2017.
  5. « Justice Prédictive : de l’idée à la réalité » (https://www.justice-predictive.com/index.php/2-non-categorise/24-justice-predictive- de-l-idee-a-la-realite), sur justice-predictive.com (consulté le 27 janvier 2019).
  6. Harold Grand, « En Estonie, une intelligence artificielle va rendre des décisions de justice » (https://www.lefigaro.fr/secteur/high-t ech/en-estonie-une-intelligence-artificielle-va-rendre-des-decisions-de-justice-20190401), sur Le Figaro, 1er avril 2019 (consulté le 29 juin 2020).
  7. « Les avocats face à la révolution numérique. S’adapter pour rebondir » (https://www.atlantico.fr/decryptage/2707979/les-avocat s-face-a-la-revolution-numerique-s-adapter-pour-rebondir-thierry-wickers-pierre-aidan), sur Atlantico.fr (consulté le

10 août 2020).

  • Vincent Bouquet, « Supply chain : l’intelligence artificielle, une promesse de levier d’amélioration » (https://business.lesechos.fr/ directions-financieres/comptabilite-et-gestion/logistique/0602147719753-supply-chain-l-intelligence-artificielle-une-promesse-de

-levier-d-amelioration-332796.php#Xtor=AD-6000), sur Les Echos Executives, 4 novembre 2019 (consulté le 29 juin 2020)

[PDF]).

-artificielle-changer-notre-vie-quotidienne/), sur Robots & Cie, 30 novembre 2016 (consulté le 27 janvier 2019).

-la-premiere-animatrice-tele-virtuelle-fait-ses-debuts-en-coree-du-sud), sur http://www.20minutes.fr (consulté le 23 novembre 2020)

  • Gibert, Martin,, Faire la morale aux robots : une introduction à l’éthique des algorithmes (ISBN 978-2-89759-516-6 et 2-89759-516-7, OCLC 1146545386 (https://worldcat.org/oclc/1146545386&lang=fr)).
  • (en) Irving John Good, « Speculations Concerning the First Ultraintelligent Machine », Advances in Computers, vol. 6, 1966, p. 31-88.
  • Eliezer Yudkowsky, Scruter la Singularité, mai 2004 [lire en ligne (http://editions- hache.com/essais/yudkowsky/yudkowsky1.html)] (trad. de (en) Staring into the Singularity , 1996).
  • Ray Kurzweill, Humanité 2.0 : La Bible du changement, 2007 (édition originale : (en) The Singularity is Near: When Humans Transcend Biology, 2007).
  • « Intelligence artificielle : pourquoi Musk, Hawking et Gates s’inquiètent ? » (https://www.lesechos.fr/30/01/2015/lesechos.fr/0204 122175688_intelligence-artificielle—pourquoi-musk–hawking-et-gates-s-inquietent–.htm), Les Échos, 30 janvier 2015.
  • « Selon Stephen Hawking, l’intelligence artificielle est un danger pour l’humanité » (http://www.webdeveloppementdurable.com/ selon-stephen-hawking-lintelligence-artificielle-danger-pour-lhumanite/), sur Web Développement Durable (consulté le

28 février 2016).

7 juin 2016 (ISSN 1950-6244 (http://worldcat.org/issn/1950-6244&lang=fr), lire en ligne (https://www.lemonde.fr/pixels/article/201 6/06/07/pourquoi-google-a-concu-un-bouton-rouge-pour-desactiver-des-intelligences-artificielles_4941225_4408996.html), consulté le 8 juin 2016).

  • « http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//FR » (htt p://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//FR).
  • Mélinée Le Priol, « Une nouvelle religion fondée sur l’intelligence artificielle suscite des inquiétudes » (https://www.la-croix.com/ Religion/nouvelle-religion-fondee-lintelligence-artificielle-suscite-inquietudes-2017-10-05-1200882222), La Croix, 5 octobre 2017.
  • Lewis Mumford, Le Mythe de la machine, deux volumes, 1967-1970; tard., Fayard, 1974.
  • Jacques Ellul, La Technique ou l’Enjeu du siècle, 1954; 3e édition : Economica 2008.
  • Günther Anders, L’obsolescence de l’homme, tome 1, 1956; tome 2, 1980; tard. fr .2002 et 2011.
  • Pièces et Main d’Œuvre Site officiel (http://www.piecesetmaindoeuvre.com).
  • Technologos Site officiel (http://technologos.fr).
  • François Jarrige, Techno-critiques. Du refus des machines à la contestation des technosciences, La Découverte, 2014.
  • Jacques Ellul, L’Illusion politique, 1965; 3e édition : La Table ronde, 2004.
  • Technologos, « Qui sommes-nous ? » (http://technologos.fr/textes/qui_sommes_nous.php), articles 31 à 33.
  • Jacques Ellul, Les Nouveaux Possédés, Mille et une nuits/Fayard, 2003, 2e éd. (1re éd. 1973), p. 316.
  • « Intelligence artificielle : les risques d’une utilisation malveillante » (https://www.futura-%20sciences.com/tech/actualites/intellig ence-artificielle-intelligence-artificielle-risques-utilisation-malveillante-70247/), sur futura-sciences.com, publié le 21/02/2018 (consulté le 21 février 2018).
  • Morgane Tual, « Intelligence artificielle : les géants du Web lancent un partenariat sur l’éthique », Le Monde.fr,

28 septembre 2016 (ISSN 1950-6244 (http://worldcat.org/issn/1950-6244&lang=fr), lire en ligne (https://www.lemonde.fr/pixels/art icle/2016/09/28/intelligence-artificielle-les-geants-du-web-lancent-un-partenariat-sur-l-ethique_5005123_4408996.html)).

  • « Intelligence artificielle : Google DeepMind se dote d’une unité de recherche sur l’éthique », Le Monde, 4 octobre 2017

(ISSN 1950-6244 (http://worldcat.org/issn/1950-6244&lang=fr), lire en ligne (https://www.lemonde.fr/pixels/article/2017/10/04/inte lligence-artificielle-google-deepmind-se-dote-d-une-unite-de-recherche-sur-l-ethique_5196189_4408996.html)).

futureoflife.org (consulté le 13 août 2018)

  • « Des milliers d’experts en intelligence artificielle s’engagent à ne pas participer à la création d’armes », Le Monde,

18 juillet 2018 (lire en ligne (https://abonnes.lemonde.fr/pixels/article/2018/07/18/des-milliers-d-experts-en-intelligence-artificielle

-s-engagent-a-ne-pas-participer-a-la-creation-d-armes_5333024_4408996.html))

  • (en) Carl Benedikt Frey et Michael A. Osborne, The Future of Employment: How Susceptible Are Jobs to Computerisation?, 17 septembre 2013 [lire en ligne (https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf)%5D [PDF].
  • (en) David H. Autor, « Why Are There Still So Many Jobs? The History and Future of Workplace Automation », Journal of Economic Perspectives, vol. 29, no 3, été 2015, p. 3-30 [lire en ligne (https://economics.mit.edu/files/11563)%5D [PDF].
  • Antonio A. Casilli, En attendant les robots: Enquête sur le travail du clic, Éditions du Seuil, 2019 (ISBN 978-2-0214-0188-2).
  • « Les travailleurs du clic et l’intelligence artificielle » (https://www.cyberjustice.ca/2019/06/21/les-travailleurs-du-clic-et-lintelligen ce-artificielle/), sur Laboratoire de cyberjustice (consulté le 7 juillet 2020)
  • « Les robots ne volent pas nos «jobs à la con», ils en créent d’autres » (https://www.20minutes.fr/arts-stars/culture/2446043-2019 0207-fermier-clic-robot-humain-ia-fait-disparaitre-emplois-precaires-loin), sur 20minutes.fr (consulté le 7 juillet 2020)
  • (en) Site officiel de Mighty IA (https://mighty.ai).
  • (en) John Joseph Horton et Lydia B. Chilton, « The labor economics of paid crowdsourcing », Proceedings of the 11th ACM conference on Electronic commerce – EC ’10, ACM Press, 2010, p. 209 (ISBN 9781605588223,

DOI 10.1145/1807342.1807376 (https://dx.doi.org/10.1145%2F1807342.1807376), présentation en ligne (http://portal.acm.org/cit ation.cfm?doid=1807342.1807376)).

19 avril 2019).

web.archive.org, 3 juillet 2008 (consulté le 7 juillet 2020)

  • (en) « Skynet » (https://terminator.fandom.com/wiki/Skynet), sur Terminator Wiki (consulté le 7 juillet 2020)
  • « Westworld » (http://www.allocine.fr/series/ficheserie_gen_cserie=16930.html), sur Allociné.fr (consulté le 22 décembre 2016)
  • Article de Dylan L. McClain, New York Times, 16 janvier 2017, et article « Hans J. Berliner (1929-2017), Grand Maître d’échecs et programmeur de génie », Denis Rozier, Le Courrier des Échecs no 639, mars 2017.
  • Thibault Neveu, « Intelligence artificielle : démonstration en direct des nouvelles performances de DeepMind » (https://www.actu ia.com/actualite/intelligence-artificielle-demonstration-en-direct-des-nouvelles-performances-de-deepmind/), sur actuia.com,

24 janvier 2019.

  • « Les jeux et l’intelligence artificielle » (https://www.u-picardie.fr/~furst/docs/jeux_ia.pdf), sur u-picardie.fr (consulté le 27 septembre 2016)
  • (en) David Levy et Monroe Newborn, « More Chess and Computers: The Microcomputer Revolution, The Challenge Match »,

Computer Science Press, Potomac (Maryland) et Batsford, Londres, 1980. (ISBN 0-914894-07-2)

ChessBase.com, 28 juin 2005.

ChessBase.com, 29 novembre 2006.

  • (en) « Topalov training with super computer Blue Gene P » (http://players.chessdom.com/veselin-topalov/topalov-blue-gene-p), sur ChessDom.com (consulté le 1er juillet 2016).
  • (en) [PDF] « Learning, Deep or not Deep, de MENACE à AlphaGo » (http://www.alliot.fr/COURS/JEUX/learning.pdf), sur alliot.fr.
  • (en) David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou et Matthew Lai « Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm (https://arxiv.org/abs/1712.01815) », 5 décembre 2017.
  • (en) Sarah Knapton et Leon Watson, « Entire human chess knowledge learned and surpassed by DeepMind’s AlphaZero in four hours » (https://www.telegraph.co.uk/science/2017/12/06/entire-human-chess-knowledge-learned-surpassed-deepminds-alphaz ero/), sur telegraph.co.uk, 6 décembre 2017.
  • « Jeu de go : comment savoir si les programmes d’intelligence artificielle sont vraiment… intelligents » (https://www.lemonde.fr/p ixels/article/2016/03/09/comment-savoir-si-les-programmes-d-intelligence-artificielle-sont-vraiment-intelligents_4879177_44089 96.html), Le Monde.fr, 9 mars 2016.
  • (en) David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Hui Fan, Laurent Sifre, George van den Driessche, Thore Graepel et Demis Hassabis, « Mastering the game of Go without human knowledge », Nature, vol. 550, no 7676,

19 octobre 2017, p. 354–359 (ISSN 0028-0836 (http://worldcat.org/issn/0028-0836&lang=fr),

DOI 10.1038/nature24270 (https://dx.doi.org/10.1038%2Fnature24270), lire en ligne (https://www.nature.com/nature/journal/v55 0/n7676/full/nature24270.html) , consulté le 10 décembre 2017).

  • « Jeu de go : Le champion du monde de nouveau battu par l’ordinateur de Google » (http://tempsreel.nouvelobs.com/culture/201 60310.AFP9477/jeu-de-go-le-champion-du-monde-de-nouveau-battu-par-l-ordinateur-de-google.html), L’Obs.com, 10 mars 2016.
  1. (en) J. Rehmeyer, N. Fox et R. Rico, « Ante up, human: The adventures of Polaris the poker-playing robot », Wired, vol. 16, no 12, décembre 2008, p. 86–191
  2. (en) Michael Bowling, Neil Burch, Michael Johanson et Oskari Tammelin, « Heads-Up Limit Hold’em Poker Is Solved »,

Comm.of the ACM, vol. 60, no 11, 2017, p. 81

  1. « Comment une-intelligence artificielle ridiculise les meilleurs joueurs de poker » (http://www.numerama.com/tech/227764-comm ent-une-intelligence-artificielle-ridiculise-les-meilleurs-joueurs-de-poker.html), sur Numerama.com, 27 janvier 2017


Annexes


Bibliographie

Aspects techniques

Stuart J. Russell et Peter Norvig, Intelligence artificielle (3e éd.) [« Artificial Intelligence: A Modern Approach (en) »], Pearson Education France, 2010, 1198 p. (ISBN 978-2-7440-7455-4, présentation en ligne (https://books.google.fr/books?id=DWTlFWSGxJMC)).

Alan Turing, Jean-Yves Girard, La Machine de Turing, Éditions du Seuil, 1995 [détail de l’édition], Les Ordinateurs et l’Intelligence, p. 133–174

Claire Rémy, L’Intelligence artificielle, Paris, Dunod, 1994, 158 p. (ISBN 2-10-002258-X)

Jean-Marc Alliot et Thomas Schiex, Intelligence artificielle et informatique théorique, Toulouse, CEPADUES, 2002, 543 p.

(ISBN 2-85428-578-6)

(en) Michael R. Genesereth et Nils J. Nilsson, Logical Foundations of Artificial Intelligence, Los Altos, Californie, États-Unis, Morgan Kaufmann, 1987, 405 p. [détail de l’édition] (ISBN 0-934613-31-1)

Jean-Louis Laurière, Intelligence Artificielle, Eyrolles, 1986

Jean-Paul Delahaye, Outils logiques pour l’intelligence artificielle, Eyrolles, 1985 [détail des éditions] (ISBN 978-2212084122)

Jean-Paul Haton, Marie-Christine Haton, L’Intelligence Artificielle, Paris, Que sais-je ?, 1990, 127 p. (ISBN 2-13-043164-X)

(en) Kate Crawford, Atlas of AI : Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021

Aspects prospectifs

Étude : CGET (2019) Intelligence artificielle – État de l’art et perspectives pour la France ; 21 février 2019. URL:https://cget.gouv.fr/ressources/publications/intelligence-artificielle-etat-de-l-art-et-perspectives-pour-la-france (ISBN 978-2-11-152634-1) (ISSN 2491-0058 (http://worldcat.org/issn/2491-0058&lang=fr))

Aspects philosophiques

Marie David et Cédric Sauviat, Intelligence artificielle, la nouvelle barbarie, Éditions du Rocher, 2019, 313 p.

Laurent Alexandre, La Guerre des intelligences. Intelligence artificielle versus intelligence humaine, Paris, JC Lattès, 2017, 250 p. (ISBN 978-2-7096-6084-6, lire en ligne (https://books.google.com/books?id=3qg0DwAAQBAJ))

Gilbert Boss, Les machines à penser : L’homme et l’ordinateur, Zurich, Éditions du Grand midi, 1987, 202 p. (ISBN 2-88093-105-3)

Jacques Bolo, Philosophie contre intelligence artificielle, Paris, Lingua Franca, 1996, 375 p. (ISBN 2-912059-00-3)

Alan Ross Anderson (trad. de l’anglais), Pensée et machine, Seyssel, Éditions Champ Vallon, 1983 (réimpr. 1993), 150 p.

(ISBN 2-903528-28-4, lire en ligne (https://books.google.com/books?id=Aab_kiv_DwMC&printsec=frontcover))

Jean Sallantin et Jean-Jacques Szczeciniarz, Le Concept de preuve à la lumière de l’intelligence artificielle, Paris, Presses universitaires de France, 1999, 370 p. (ISBN 2-13-050104-4)

Jean-Gabriel Ganascia, L’Âme-machine, les enjeux de l’intelligence artificielle, Paris, Éditions du Seuil, Collection Science Ouverte, 1990, 284 p. (ISBN 2-02-011470-4)

Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, 2014, 328 p. (ISBN 978-0-19-967811-2, lire en ligne (https://books.google.co m/books?id=7_H8AwAAQBAJ&printsec=frontcover))

Fondements cognitifs, psychologiques et biologiques

Hervé Chaudet et Liliane Pellegrin, Intelligence artificielle et psychologie cognitive, Paris, Dunod, 1998, 179 p.

(ISBN 2-10-002989-4)

Aspects linguistiques

Gérard Sabah, L’Intelligence artificielle et le langage, Représentations des connaissances, Processus de compréhension, vol. 1, Hermès, 1989 (ISBN 2-86601-134-1)

Gérard Sabah, L’Intelligence artificielle et le langage, Représentations des connaissances, Processus de compréhension, vol. 2, Paris, Hermès, 1990, 768 p. (ISBN 2-86601-187-2)

Gérard Sabah, Compréhension des langues et interaction (Traité IC2, Série Cognition et Traitement de l’Information), Paris, Hermès science: Lavoisier, 2006, 400 p. (ISBN 2-7462-1256-0)

(en) Krzysztof Wołk, Machine learning in translation corpora processing, Boca Raton, FL, Taylor & Francis, 2019, 264 p.

(ISBN 978-0-367-18673-9)

Histoire

Daniel Crevier et Nathalie Bukcek (trad. de l’anglais), À la recherche de l’intelligence artificielle, Paris, Flammarion, 1997, 438 p. (ISBN 2-08-081428-1), (traduction de (en) The Tumultuous history of the search for artiticial intelligence.)

Vulgarisation

Gérard Tisseau et Jacques Pitrat, Intelligence artificielle : problèmes et méthodes, Paris, Presses universitaires de France, 1996, 255 p. (ISBN 2-13-047429-2)

Jack Challoner (trad. de l’anglais), L’Intelligence artificielle : Un guide d’initiation au futur de l’informatique et de la robotique, Paris, Pearson Education, 2003, 72 p. (ISBN 2-7440-1600-4)

Hugues Bersini, De l’intelligence humaine à l’intelligence artificielle, Paris, Ellipse, 2006, 192 p. (ISBN 2-7298-2813-3) Jean-Gabriel Ganascia, L’Intelligence artificielle, Paris, Éditions du Cavalier bleu, coll. « Idees recues », 2007, 127 p. (ISBN 978-2-84670-165-5)

Howard Selina (illustrations) et Henry Brighton (texte) (trad. de l’anglais), L’Intelligence artificielle en images, Les Ulis, EDP Sciences, coll. « Aperçu », 2015, 176 p. (ISBN 978-2-7598-1772-6)

Marion Montaigne (dessin) et Jean-Noël Lafargue (scénario), L’Intelligence artificielle : fantasmes et réalités, Bruxelles, Le Lombard, coll. « La petite bédéthèque des savoirs », 2016, 72 p. (ISBN 978-2-8036-3638-9)

Politique, relations internationales

Daniel Ventre, Intelligence artificielle, cybersécurité et cyberdéfense, ISTE, Londres, 246 pages, Juin 2020 (ISBN papier : 9781784056797), (ISBN ebook : 9781784066796)


Articles connexes

Aspects juridiques

Digital Services Act, ou loi sur les services numériques de l’Union européenne

Notions générales

Agent intelligent Agent logiciel Agent virtuel Algorithme

Algorithme génétique

Applications de l’intelligence artificielle Automation

Bio-informatique Cerveau artificiel Cyborg

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle Effet IA

Éthique de l’intelligence artificielle Explosion d’intelligence

Histoire de l’intelligence artificielle Interactions homme-machine Philosophie de l’intelligence artificielle

Principaux projets et réalisations en intelligence artificielle Progrès

Progrès technique

Réseau de neurones artificiels Singularité technologique Singularitarisme

Système expert Téléchargement de l’esprit Test de Turing

Vie artificielle

Notions techniques

Agent conversationnel Apprentissage automatique Apprentissage par renforcement

Apprentissage profond (Deep learning)

Architecture cognitive Diagnostic

Exploration de données Forêt d’arbres décisionnels Inférence bayésienne Intelligence artificielle amicale

Intelligence artificielle distribuée Intelligence artificielle faible Logique floue

Machine à vecteurs de support Métaheuristiques

Planification

Problème de satisfaction de contraintes Programmation génétique Programmation par contraintes Raisonnement par cas

Réseaux de neurones Système multi-agents Théorème de Cox-Jaynes

Chercheurs en intelligence artificielle (espace anglophone)

Edward Feigenbaum Irving John Good Douglas Engelbart Douglas Hofstadter Douglas Lenat

John McCarthy Marvin Lee Minsky Allen Newell

Nils Nilsson Seymour Papert Rosalind Picard Roger Schank Herbert Simon Ray Solomonoff

Gerald Jay Sussman Alan Turing

Joseph Weizenbaum

Chercheurs en intelligence artificielle (espace francophone)

Hugues Bersini Alain Colmerauer Jean-Paul Delahaye Rose Dieng-Kuntz Yann Le Cun Jacques Pitrat Gérard Sabah

Laboratoires et projets renommés de recherche en intelligence artificielle

Le Stanford Artificial Intelligence Laboratory (SAIL) (en), fondé en 1963 par John McCarthy

L’Augmentation Research Center (ARC) (en) du Stanford Research Institute, fondé au début des années 1960 par Douglas Engelbart

Le projet MAC (en) de l’institut de technologie du Massachusetts, lancé le 1er juillet 1963 et dirigé par Robert Fano

Le laboratoire de recherche en intelligence artificielle (AILab) du Massachusetts Institute of Technology, fondé en 1970 –pour remédier au manque d’espace dont souffre le groupe IA du nouveau projet MAC– et fusionné en 2003 avec le laboratoire de recherche en informatique (LCS) ; à nouveau réunies, les deux entités prennent le nom de MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)

l’Institut des sciences de l’information (ISI) (en) de l’Université de Californie du Sud (USC), fondé en 1972 par Keith Uncapher (en)


Liens externes

Bibliothèque nationale de France (http://catalogue.bnf.fr/ark:/12148/cb11932084t)

(données (http://data.bnf.fr/ark:/12148/cb11932084t)) · Bibliothèque du Congrès (http://id.loc.gov/authorities/sh85008180) ·

Gemeinsame Normdatei (http://d-nb.info/gnd/4033447-8) ·

Bibliothèque nationale de la Diète (http://id.ndl.go.jp/auth/ndlna/00574798) ·

Bibliothèque nationale d’Espagne (http://catalogo.bne.es/uhtbin/authoritybrowse.cgi?action=display&authority_id=XX4659822)

Ressources relatives à la recherche : (en) Internet Encyclopedia of Philosophy (https://www.iep.utm.edu/art-inte/) ·

(en) Stanford Encyclopedia of Philosophy (https://plato.stanford.edu/entries/artificial-intelligence/)

(en) European Association for Artificial Intelligence (EurAI) (https://www.eurai.org) (Association européenne pour l’intelligence artificielle)

Association française pour l’intelligence artificielle (http://www.afia.asso.fr) (AfIA).

Association française pour la promotion et la sensibilisation à l’intelligence artificielle (https://www.afpsia.fr) (AFPSIA) (inaccessible).

GdrIA (https://www.gdria.fr), groupement de recherche du CNRS sur les aspects formels et algorithmiques de l’intelligence artificielle.

ActuIA (https://www.actuia.com), site présentant l’actualité de l’intelligence artificielle.

Dossier sur l’Intelligence artificielle (http://savoirs.ens.fr/focus_detail.php?id=52), savoirs.ens.fr (conférences de l’École normale supérieure).

Insideaiminds.com (https://medium.com/inside-ai-minds) est un blog spécialisé dans l’analyse des opinions des plus grands experts de l’intelligence artificielle

Réflexions

Sébastien Konieczny, « L’intelligence artificielle, menace ou avancée ? » (https://www.huffingtonpost.fr/sebastien-konieczny/int elligence-artificielle-google_b_9408180.html), Huffington Post, 9 mars 2016.

Juliette Demey, « À quoi sert l’intelligence artificielle ? » (http://www.lejdd.fr/Societe/Sciences/A-quoi-sert-l-intelligence-artificiel le-743004), JDD, 19 juillet 2015.

Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Intelligence_artificielle&oldid=183224540 ».

La dernière modification de cette page a été faite le 24 mai 2021 à 23:26.

Droit d’auteur : les textes sont disponibles sous licence Creative Commons attribution, partage dans les mêmes conditions ; d’autres conditions peuvent s’appliquer. Voyez les conditions d’utilisation pour plus de détails, ainsi que les crédits graphiques. En cas de réutilisation des textes de cette page, voyez comment citer les auteurs et mentionner la licence.

Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de bienfaisance régie par le paragraphe 501(c)(3) du code fiscal des États- Unis.

Intelligence artificielle

L’intelligence artificielle (IA) est l’intelligence démontrée par les machines, par opposition à l’intelligence naturelle affichée par les animaux, y compris les humains. Les principaux manuels d’IA définissent le domaine comme l’étude des « agents intelligents » : tout système qui perçoit son environnement et prend des mesures qui maximisent ses chances d’atteindre ses objectifs. Certains récits populaires utilisent le terme « intelligence artificielle » pour décrire des machines qui imitent les fonctions « cognitives » que les humains associent à l’esprit humain, telles que « l’apprentissage » et la « résolution de problèmes », cependant, cette définition est rejetée par les principaux chercheurs en IA.

Les applications d’IA incluent les moteurs de recherche Web avancés (par exemple, Google), les systèmes de recommandation (utilisés par YouTube, Amazon et Netflix), la compréhension de la parole humaine (comme Siri et Alexa), les voitures autonomes (par exemple, Tesla), la prise de décision automatisée et concourir au plus haut niveau dans les systèmes de jeux stratégiques (comme les échecs et le go). À mesure que les machines deviennent de plus en plus capables, les tâches considérées comme nécessitant une « intelligence » sont souvent supprimées de la définition de l’IA, un phénomène connu sous le nom d’effet de l’IA. Par exemple, la reconnaissance optique de caractères est fréquemment exclue des choses considérées comme de l’IA, étant devenue une technologie de routine.

L’intelligence artificielle a été fondée en tant que discipline universitaire en 1956 et, au cours des années qui ont suivi, a connu plusieurs vagues d’optimisme, suivies de déceptions et de pertes de financement (connues sous le nom d' »hiver de l’IA »), suivies de nouvelles approches, de succès et de financements renouvelés. . La recherche sur l’IA a essayé et rejeté de nombreuses approches différentes depuis sa fondation, notamment la simulation du cerveau, la modélisation de la résolution de problèmes humains, la logique formelle, de grandes bases de données de connaissances et l’imitation du comportement animal. Au cours des premières décennies du 21e siècle, l’apprentissage automatique statistique hautement mathématique a dominé le domaine, et cette technique s’est avérée très efficace, aidant à résoudre de nombreux problèmes difficiles dans l’industrie et le milieu universitaire.

Les différents sous-domaines de la recherche en IA sont centrés sur des objectifs particuliers et l’utilisation d’outils particuliers. Les objectifs traditionnels de la recherche en IA incluent le raisonnement, la représentation des connaissances, la planification, l’apprentissage, le traitement du langage naturel, la perception et la capacité de déplacer et de manipuler des objets. L’intelligence générale (la capacité à résoudre un problème arbitraire) fait partie des objectifs à long terme du domaine. Pour résoudre ces problèmes, les chercheurs en IA ont adapté et intégré un large éventail de techniques de résolution de problèmes, notamment la recherche et l’optimisation mathématique, la logique formelle, les réseaux de neurones artificiels et les méthodes basées sur les statistiques, les probabilités et l’économie. L’IA s’appuie également sur l’informatique, la psychologie, la linguistique, la philosophie et de nombreux autres domaines.

Le domaine a été fondé sur l’hypothèse que l’intelligence humaine « peut être décrite si précisément qu’une machine peut être conçue pour la simuler ». Cela soulève des arguments philosophiques sur l’esprit et l’éthique de la création d’êtres artificiels dotés d’une intelligence semblable à celle de l’homme. Ces questions ont été explorées par le mythe, la fiction et la philosophie depuis l’antiquité. La science-fiction et la futurologie ont également suggéré qu’avec son énorme potentiel et sa puissance, l’IA pourrait devenir un risque existentiel pour l’humanité.

Histoire.

Les êtres artificiels dotés d’intelligence sont apparus comme des dispositifs de narration dans l’Antiquité et ont été courants dans la fiction, comme dans Frankenstein de Mary Shelley ou R.U.R. de Karel Čapek. Ces personnages et leurs destins ont soulevé bon nombre des mêmes problèmes maintenant discutés dans l’éthique de l’intelligence artificielle.

L’étude du raisonnement mécanique ou « formel » a commencé avec les philosophes et les mathématiciens de l’Antiquité. L’étude de la logique mathématique a conduit directement à la théorie du calcul d’Alan Turing, qui suggérait qu’une machine, en mélangeant des symboles aussi simples que « 0 » et « 1 », pouvait simuler n’importe quel acte imaginable de déduction mathématique. Cette idée selon laquelle les ordinateurs numériques peuvent simuler n’importe quel processus de raisonnement formel est connue sous le nom de thèse Church-Turing.

La thèse de Church-Turing, ainsi que des découvertes simultanées en neurobiologie, en théorie de l’information et en cybernétique, ont conduit les chercheurs à envisager la possibilité de construire un cerveau électronique. Le premier travail qui est maintenant généralement reconnu comme IA était la conception formelle de McCullouch et Pitts en 1943 pour les « neurones artificiels » complets de Turing.

Lorsque l’accès aux ordinateurs numériques est devenu possible au milieu des années 1950, la recherche sur l’IA a commencé à explorer la possibilité que l’intelligence humaine puisse être réduite à une manipulation de symboles étape par étape, connue sous le nom d’IA symbolique ou GOFAI. Les approches basées sur la cybernétique ou les réseaux de neurones artificiels ont été abandonnées ou relégués au second plan.

Le domaine de la recherche en IA est né lors d’un atelier au Dartmouth College en 1956. Les participants sont devenus les fondateurs et les leaders de la recherche en IA. Eux et leurs étudiants ont produit des programmes que la presse a décrits comme « étonnants » : les ordinateurs apprenaient des stratégies de jeu de dames, résolvaient des problèmes de mots en algèbre, prouvaient des théorèmes logiques et parlaient anglais. Au milieu des années 1960, la recherche aux États-Unis était fortement financée par le ministère de la Défense et des laboratoires avaient été créés dans le monde entier.

Les chercheurs des années 1960 et 1970 étaient convaincus que les approches symboliques réussiraient à terme à créer une machine à intelligence artificielle générale et considéraient cela comme le but de leur domaine. Herbert Simon a prédit que « les machines seront capables, d’ici vingt ans, de faire n’importe quel travail qu’un homme peut faire ». Marvin Minsky a convenu, écrivant, « d’ici une génération … le problème de la création d’une « intelligence artificielle » sera substantiellement résolu ».

Ils n’ont pas reconnu la difficulté de certaines des tâches restantes. Les progrès ont ralenti et en 1974, en réponse aux critiques de Sir James Lighthill et à la pression continue du Congrès américain pour financer des projets plus productifs, les gouvernements américain et britannique ont interrompu les recherches exploratoires sur l’IA. Les années suivantes seront plus tard appelées « l’hiver de l’IA », une période où l’obtention de financements pour des projets d’IA était difficile.

Au début des années 1980, la recherche en IA a été relancée par le succès commercial des systèmes experts, une forme de programme d’IA qui simulait les connaissances et les compétences analytiques d’experts humains. En 1985, le marché de l’IA avait atteint plus d’un milliard de dollars. Dans le même temps, le projet informatique de cinquième génération du Japon a inspiré les gouvernements américain et britannique à rétablir le financement de la recherche universitaire. Cependant, à partir de l’effondrement du marché de la machine Lisp en 1987, l’IA est de nouveau tombée en disgrâce et un deuxième hiver plus long a commencé.

De nombreux chercheurs ont commencé à douter que l’approche symbolique serait capable d’imiter tous les processus de la cognition humaine, en particulier la perception, la robotique, l’apprentissage et la reconnaissance de formes. Un certain nombre de chercheurs ont commencé à se pencher sur des approches « sous-symboliques » de problèmes spécifiques d’IA. Les chercheurs en robotique, tels que Rodney Brooks, ont rejeté l’IA symbolique et se sont concentrés sur les problèmes d’ingénierie de base qui permettraient aux robots de se déplacer, de survivre et d’apprendre leur environnement. L’intérêt pour les réseaux de neurones et le « connexionnisme » a été ravivé par Geoffrey Hinton, David Rumelhart et d’autres au milieu des années 1980. Des outils informatiques doux ont été développés dans les années 80, tels que les réseaux de neurones, les systèmes flous, la théorie des systèmes de Gray, le calcul évolutif et de nombreux outils tirés de la statistique ou de l’optimisation mathématique.

L’IA a progressivement restauré sa réputation à la fin des années 1990 et au début du 21e siècle en trouvant des solutions spécifiques à des problèmes spécifiques. Cette focalisation étroite a permis aux chercheurs de produire des résultats vérifiables, d’exploiter davantage de méthodes mathématiques et de collaborer avec d’autres domaines (tels que les statistiques, l’économie et les mathématiques). En 2000, les solutions développées par les chercheurs en IA étaient largement utilisées, même si dans les années 1990, elles étaient rarement décrites comme « intelligence artificielle ».

Des ordinateurs plus rapides, des améliorations algorithmiques et l’accès à de grandes quantités de données ont permis des avancées dans l’apprentissage automatique et la perception ; les méthodes d’apprentissage en profondeur gourmandes en données ont commencé à dominer les références de précision vers 2012. Selon Jack Clark de Bloomberg, 2015 a été une année charnière pour l’intelligence artificielle, avec le nombre de projets logiciels qui utilisent l’IA au sein de Google est passé d’une « utilisation sporadique » en 2012 à plus de 2 700 projets. Il attribue cela à une augmentation des réseaux de neurones abordables, en raison d’une augmentation de l’infrastructure informatique en nuage et d’une augmentation des outils de recherche et des ensembles de données. Dans une enquête de 2017, une entreprise sur cinq a déclaré avoir « incorporé l’IA dans certaines offres ou processus ». Le volume de recherche sur l’IA (mesuré par le nombre total de publications) a augmenté de 50 % au cours des années 2015-2019. De nombreux chercheurs universitaires se sont inquiétés du fait que l’IA ne poursuivait plus l’objectif initial de créer des machines polyvalentes et entièrement intelligentes. Une grande partie de la recherche actuelle implique l’IA statistique, qui est massivement utilisée pour résoudre des problèmes spécifiques, même des techniques très efficaces telles que l’apprentissage en profondeur. Cette préoccupation a conduit au sous-domaine de l’intelligence artificielle générale (ou « AGI »), qui avait plusieurs institutions bien financées dans les années 2010.

Objectifs

Le problème général de la simulation (ou de la création) de l’intelligence a été décomposé en sous-problèmes. Il s’agit de traits ou de capacités particuliers que les chercheurs s’attendent à ce qu’un système intelligent affiche. Les traits décrits ci-dessous ont reçu le plus d’attention.

Raisonnement, résolution de problèmes

Les premiers chercheurs ont développé des algorithmes qui imitaient le raisonnement étape par étape que les humains utilisent lorsqu’ils résolvent des énigmes ou font des déductions logiques. À la fin des années 1980 et dans les années 1990, la recherche en IA avait développé des méthodes pour traiter les informations incertaines ou incomplètes, en utilisant des concepts de probabilité et d’économie.

Beaucoup de ces algorithmes se sont avérés insuffisants pour résoudre de grands problèmes de raisonnement parce qu’ils ont connu une « explosion combinatoire » : ils sont devenus exponentiellement plus lents à mesure que les problèmes prenaient de l’ampleur. Même les humains utilisent rarement la déduction étape par étape que les premières recherches sur l’IA pouvaient modéliser. Ils résolvent la plupart de leurs problèmes en utilisant des jugements rapides et intuitifs.

Représentation des connaissances

La représentation des connaissances et l’ingénierie des connaissances permettent aux programmes d’IA de répondre intelligemment aux questions et de faire des déductions sur des faits réels.

Une représentation de « ce qui existe » est une ontologie : l’ensemble d’objets, de relations, de concepts et de propriétés formellement décrits afin que les agents logiciels puissent les interpréter. Les ontologies les plus générales sont appelées ontologies supérieures, qui tentent de fournir une base pour toutes les autres connaissances et agissent comme médiateurs entre les ontologies de domaine qui couvrent des connaissances spécifiques sur un domaine de connaissances particulier (domaine d’intérêt ou domaine de préoccupation). Un programme vraiment intelligent aurait également besoin d’accéder à des connaissances de bon sens ; l’ensemble des faits qu’une personne moyenne connaît. La sémantique d’une ontologie est généralement représentée dans une logique de description, telle que le langage d’ontologie Web.

La recherche en IA a développé des outils pour représenter des domaines spécifiques, tels que : les objets, les propriétés, les catégories et les relations entre les objets ; situations, événements, états et temps; causes et effets; connaissance sur la connaissance (ce que nous savons sur ce que les autres savent);. raisonnement par défaut (les choses que les humains supposent sont vraies jusqu’à ce qu’elles soient dites différemment et resteront vraies même si d’autres faits changent) ; ainsi que d’autres domaines. Parmi les problèmes les plus difficiles de l’IA figurent : l’étendue des connaissances de bon sens (le nombre de faits atomiques que la personne moyenne connaît est énorme) ; et la forme sous-symbolique de la plupart des connaissances de bon sens (une grande partie de ce que les gens savent n’est pas représenté comme des « faits » ou des « déclarations » qu’ils pourraient exprimer verbalement).

Les représentations formelles des connaissances sont utilisées dans l’indexation et la récupération basées sur le contenu, l’interprétation de scènes, l’aide à la décision clinique, la découverte de connaissances (extraction d’inférences « intéressantes » et exploitables à partir de grandes bases de données) et d’autres domaines.

Planification

Un agent intelligent qui peut planifier fait une représentation de l’état du monde, fait des prédictions sur la façon dont leurs actions vont le changer et fait des choix qui maximisent l’utilité (ou la « valeur ») des choix disponibles. Dans les problèmes de planification classiques, l’agent peut supposer qu’il s’agit du seul système agissant dans le monde, permettant à l’agent d’être certain des conséquences de ses actions. Cependant, si l’agent n’est pas le seul acteur, il faut alors qu’il raisonne dans l’incertitude, réévalue en permanence son environnement et s’adapte. La planification multi-agents utilise la coopération et la concurrence de nombreux agents pour atteindre un objectif donné. Un comportement émergent comme celui-ci est utilisé par les algorithmes évolutionnaires et l’intelligence en essaim.

Apprentissage

L’apprentissage automatique (ML), un concept fondamental de la recherche en IA depuis le début du domaine, est l’étude d’algorithmes informatiques qui s’améliorent automatiquement grâce à l’expérience.

L’apprentissage non supervisé trouve des modèles dans un flux d’entrée. L’apprentissage supervisé nécessite un humain pour étiqueter les données d’entrée en premier, et se décline en deux variétés principales : la classification et la régression numérique. La classification est utilisée pour déterminer à quelle catégorie appartient quelque chose – le programme voit un certain nombre d’exemples de choses de plusieurs catégories et apprendra à classer de nouvelles entrées. La régression est la tentative de produire une fonction qui décrit la relation entre les entrées et les sorties et prédit comment les sorties devraient changer à mesure que les entrées changent. Les classificateurs et les apprenants par régression peuvent être considérés comme des « approximateurs de fonction » essayant d’apprendre une fonction inconnue (éventuellement implicite) ; par exemple, un classificateur de spam peut être considéré comme l’apprentissage d’une fonction qui mappe le texte d’un e-mail à l’une des deux catégories, « spam » ou « pas de spam ». Dans l’apprentissage par renforcement, l’agent est récompensé pour les bonnes réponses et puni pour les mauvaises. L’agent classe ses réponses pour former une stratégie pour opérer dans son espace problème. L’apprentissage par transfert se produit lorsque les connaissances acquises à partir d’un problème sont appliquées à un nouveau problème.

La théorie de l’apprentissage informatique peut évaluer les apprenants par complexité informatique, par complexité d’échantillon (quantité de données requise) ou par d’autres notions d’optimisation.

Traitement du langage naturel

Le traitement du langage naturel (TAL) permet aux machines de lire et de comprendre le langage humain. Un système de traitement du langage naturel suffisamment puissant permettrait des interfaces utilisateur en langage naturel et l’acquisition de connaissances directement à partir de sources écrites par l’homme, telles que des textes de fil de presse. Certaines applications simples de la PNL incluent la recherche d’informations, la réponse aux questions et la traduction automatique.

L’IA symbolique a utilisé la syntaxe formelle pour traduire la structure profonde des phrases en logique. Cela n’a pas réussi à produire des applications utiles, en raison de l’intransigeance de la logique et de l’étendue des connaissances de bon sens. Les techniques statistiques modernes incluent les fréquences de cooccurrence (la fréquence à laquelle un mot apparaît à proximité d’un autre), le « recherche de mots-clés » (recherche d’un mot particulier pour récupérer des informations), l’apprentissage en profondeur basé sur le transformateur (qui trouve des modèles dans le texte) et autres. Ils ont atteint une précision acceptable au niveau de la page ou du paragraphe et, d’ici 2019, pourraient générer un texte cohérent.

la perception

La perception de la machine est la capacité d’utiliser les entrées de capteurs (tels que des caméras, des microphones, des signaux sans fil et des capteurs lidar, sonar, radar et tactiles actifs) pour déduire des aspects du monde. Les applications incluent la reconnaissance vocale, la reconnaissance faciale et la reconnaissance d’objets.

La vision par ordinateur est la capacité d’analyser les entrées visuelles.

Mouvement et manipulation

L’IA est largement utilisée en robotique. La localisation est la façon dont un robot connaît son emplacement et cartographie son environnement. Dans un environnement petit, statique et visible, c’est facile ; cependant, les environnements dynamiques, tels que (en endoscopie) l’intérieur du corps respiratoire d’un patient, posent un plus grand défi.

La planification de mouvement est le processus de décomposition d’une tâche de mouvement en « primitives » telles que des mouvements articulaires individuels. Un tel mouvement implique souvent un mouvement conforme, un processus où le mouvement nécessite de maintenir un contact physique avec un objet. Les robots peuvent apprendre par expérience comment se déplacer efficacement malgré la présence de friction et de glissement des engrenages.

Intelligence sociale

L’informatique affective est un parapluie interdisciplinaire qui comprend des systèmes qui reconnaissent, interprètent, traitent ou simulent les sentiments, les émotions et l’humeur humains. Par exemple, certains assistants virtuels sont programmés pour parler de manière conversationnelle ou même pour plaisanter avec humour ; cela les fait paraître plus sensibles à la dynamique émotionnelle de l’interaction humaine, ou pour faciliter autrement l’interaction homme-ordinateur. Cependant, cela tend à donner aux utilisateurs naïfs une conception irréaliste de l’intelligence des agents informatiques existants.

Les succès modérés liés à l’informatique affective incluent l’analyse des sentiments textuels et, plus récemment, l’analyse des sentiments multimodale), dans laquelle l’IA classe les affects affichés par un sujet enregistré sur vidéo.

Intelligence générale

Une machine dotée d’une intelligence générale peut résoudre une grande variété de problèmes avec une ampleur et une polyvalence similaires à l’intelligence humaine. Il existe plusieurs idées concurrentes sur la façon de développer l’intelligence artificielle générale. Hans Moravec et Marvin Minsky soutiennent que le travail dans différents domaines individuels peut être incorporé dans un système multi-agent avancé ou une architecture cognitive avec une intelligence générale. Pedro Domingos espère qu’il existe un « algorithme maître » conceptuellement simple, mais mathématiquement difficile, qui pourrait conduire à l’AGI. D’autres pensent que des caractéristiques anthropomorphes comme un cerveau artificiel ou le développement d’un enfant simulé atteindront un jour un point critique où l’intelligence générale émergera.

Outils

Recherche et optimisation

De nombreux problèmes de l’IA peuvent être résolus théoriquement en recherchant intelligemment de nombreuses solutions possibles : le raisonnement peut être réduit à effectuer une recherche. Par exemple, la preuve logique peut être considérée comme la recherche d’un chemin qui mène des prémisses aux conclusions, où chaque étape est l’application d’une règle d’inférence. Les algorithmes de planification recherchent dans les arbres d’objectifs et de sous-objectifs, en essayant de trouver un chemin vers un objectif cible, un processus appelé analyse moyens-fins. Les algorithmes robotiques pour déplacer les membres et saisir des objets utilisent des recherches locales dans l’espace de configuration.

De simples recherches exhaustives sont rarement suffisantes pour la plupart des problèmes du monde réel : l’espace de recherche (le nombre d’endroits à rechercher) se développe rapidement pour atteindre des nombres astronomiques. Le résultat est une recherche trop lente ou jamais terminée. La solution, pour de nombreux problèmes, consiste à utiliser des « heuristiques » ou des « règles empiriques » qui priorisent les choix en faveur de ceux qui ont le plus de chances d’atteindre un objectif et de le faire en un nombre d’étapes plus court. Dans certaines méthodologies de recherche, les heuristiques peuvent également servir à éliminer certains choix peu susceptibles de conduire à un objectif (appelé « élagage de l’arbre de recherche »). L’heuristique fournit au programme une « meilleure estimation » du chemin sur lequel se trouve la solution. Les heuristiques limitent la recherche de solutions à un échantillon plus petit.

Un type de recherche très différent a pris de l’importance dans les années 1990, basé sur la théorie mathématique de l’optimisation. Pour de nombreux problèmes, il est possible de commencer la recherche avec une certaine forme d’estimation, puis d’affiner l’estimation progressivement jusqu’à ce qu’il ne soit plus possible d’affiner. Ces algorithmes peuvent être visualisés comme de l’escalade à l’aveugle : nous commençons la recherche à un point aléatoire du paysage, puis, par des sauts ou des marches, nous continuons à avancer notre estimation vers le haut, jusqu’à ce que nous atteignions le sommet. D’autres algorithmes d’optimisation sont le recuit simulé, la recherche de faisceau et l’optimisation aléatoire. Le calcul évolutif utilise une forme de recherche d’optimisation. Par exemple, ils peuvent commencer par une population d’organismes (les suppositions), puis leur permettre de muter et de se recombiner, en sélectionnant uniquement les plus aptes à survivre à chaque génération (affiner les suppositions). Les algorithmes évolutionnaires classiques incluent les algorithmes génétiques, la programmation de l’expression génique et la programmation génétique. Alternativement, les processus de recherche distribués peuvent se coordonner via des algorithmes d’intelligence en essaim. Deux algorithmes d’essaim populaires utilisés dans la recherche sont l’optimisation d’essaim de particules (inspirée du flocage des oiseaux) et l’optimisation des colonies de fourmis (inspirée des pistes de fourmis).

Logique

La logique est utilisée pour la représentation des connaissances et la résolution de problèmes, mais elle peut également être appliquée à d’autres problèmes. Par exemple, l’algorithme satplan utilise la logique pour la planification et la programmation logique inductive est une méthode d’apprentissage.

Plusieurs formes différentes de logique sont utilisées dans la recherche sur l’IA. La logique propositionnelle implique des fonctions de vérité telles que « ou » et « pas ». La logique du premier ordre ajoute des quantificateurs et des prédicats et peut exprimer des faits sur les objets, leurs propriétés et leurs relations les uns avec les autres. La logique floue attribue un « degré de vérité » (entre 0 et 1) à des affirmations vagues telles que « Alice est vieille » (ou riche, ou grande, ou affamée), qui sont trop imprécises sur le plan linguistique pour être complètement vraies ou fausses. Les logiques par défaut, les logiques non monotones et la circonscription sont des formes de logique conçues pour aider au raisonnement par défaut et au problème de qualification. Plusieurs extensions de la logique ont été conçues pour traiter des domaines de connaissances spécifiques, tels que : les logiques de description ; calcul de situation, calcul d’événement et calcul fluide (pour représenter les événements et le temps); calcul causal; calcul des croyances (révision des croyances); et logiques modales. Des logiques pour modéliser des énoncés contradictoires ou incohérents apparaissant dans des systèmes multi-agents ont également été conçues, telles que des logiques paracohérentes.

Méthodes probabilistes pour le raisonnement incertain

Le regroupement d’attente-maximisation des données d’éruption Old Faithful commence à partir d’une supposition aléatoire, mais converge ensuite avec succès vers un regroupement précis des deux modes d’éruption physiquement distincts.

De nombreux problèmes en IA (en raisonnement, planification, apprentissage, perception et robotique) obligent l’agent à opérer avec des informations incomplètes ou incertaines. Les chercheurs en IA ont conçu un certain nombre d’outils puissants pour résoudre ces problèmes en utilisant des méthodes issues de la théorie des probabilités et de l’économie. Les réseaux bayésiens sont un outil très général qui peut être utilisé pour divers problèmes : le raisonnement (en utilisant l’algorithme d’inférence bayésienne), l’apprentissage (en utilisant l’algorithme d’attente-maximisation), la planification (en utilisant les réseaux de décision) et la perception (en utilisant les réseaux bayésiens dynamiques). Les algorithmes probabilistes peuvent également être utilisés pour filtrer, prédire, lisser et trouver des explications pour les flux de données, aidant les systèmes de perception à analyser les processus qui se produisent au fil du temps (par exemple, les modèles de Markov cachés ou les filtres de Kalman).

Un concept clé de la science économique est « l’utilité » : une mesure de la valeur de quelque chose pour un agent intelligent. Des outils mathématiques précis ont été développés pour analyser comment un agent peut faire des choix et planifier, en utilisant la théorie de la décision, l’analyse de la décision et la théorie de la valeur de l’information. Ces outils incluent des modèles tels que les processus décisionnels de Markov, les réseaux de décision dynamiques, la théorie des jeux et la conception de mécanismes.

Classificateurs et méthodes d’apprentissage statistique

Les applications d’IA les plus simples peuvent être divisées en deux types : les classificateurs (« si brillant alors diamant ») et les contrôleurs (« si diamant puis ramasser »). Cependant, les contrôleurs classent également les conditions avant de déduire des actions, et la classification constitue donc un élément central de nombreux systèmes d’IA. Les classificateurs sont des fonctions qui utilisent la correspondance de modèle pour déterminer une correspondance la plus proche. Ils peuvent être réglés en fonction d’exemples, ce qui les rend très attrayants pour une utilisation en IA. Ces exemples sont connus sous le nom d’observations ou de modèles. Dans l’apprentissage supervisé, chaque modèle appartient à une certaine classe prédéfinie. Une classe est une décision qui doit être prise. Toutes les observations combinées avec leurs étiquettes de classe sont appelées un ensemble de données. Lorsqu’une nouvelle observation est reçue, cette observation est classée en fonction de l’expérience précédente.

Un classificateur peut être formé de diverses manières ; il existe de nombreuses approches statistiques et d’apprentissage automatique. L’arbre de décision est l’algorithme d’apprentissage automatique symbolique le plus simple et le plus utilisé. L’algorithme du K-plus proche voisin était l’IA analogique la plus largement utilisée jusqu’au milieu des années 1990. Les méthodes du noyau telles que la machine à vecteurs de support (SVM) ont déplacé le k plus proche voisin dans les années 1990. Le classificateur naïf de Bayes serait « l’apprenant le plus utilisé » chez Google, en partie en raison de son évolutivité. Les réseaux de neurones sont également utilisés pour la classification.

Les performances du classificateur dépendent grandement des caractéristiques des données à classer, telles que la taille de l’ensemble de données, la répartition des échantillons entre les classes, la dimensionnalité et le niveau de bruit. Les classificateurs basés sur un modèle fonctionnent bien si le modèle supposé correspond parfaitement aux données réelles. Sinon, si aucun modèle de correspondance n’est disponible et si la précision (plutôt que la vitesse ou l’évolutivité) est la seule préoccupation, la sagesse conventionnelle est que les classificateurs discriminants (en particulier SVM) ont tendance à être plus précis que les classificateurs basés sur des modèles tels que  » Bayes naïf  » sur la plupart des ensembles de données pratiques.

Réseaux de neurones artificiels

Un réseau de neurones est un groupe de nœuds interconnectés, semblable au vaste réseau de neurones du cerveau humain.

Les réseaux de neurones ont été inspirés par l’architecture des neurones du cerveau humain. Un simple « neurone » N accepte les entrées d’autres neurones, dont chacun, lorsqu’il est activé (ou « tiré »), émet un « vote » pondéré pour ou contre si le neurone N doit lui-même s’activer. L’apprentissage nécessite un algorithme pour ajuster ces poids en fonction des données d’apprentissage ; un algorithme simple (appelé « fire together, wire together ») consiste à augmenter le poids entre deux neurones connectés lorsque l’activation de l’un déclenche l’activation réussie d’un autre. Les neurones ont un spectre d’activation continu ; De plus, les neurones peuvent traiter les entrées de manière non linéaire plutôt que de peser directement les votes.

Les réseaux de neurones modernes modélisent des relations complexes entre les entrées et les sorties ou trouvent des modèles dans les données. Ils peuvent apprendre des fonctions continues et même des opérations logiques numériques. Les réseaux de neurones peuvent être considérés comme un type d’optimisation mathématique : ils effectuent une descente de gradient sur une topologie multidimensionnelle créée en entraînant le réseau. La technique d’entraînement la plus courante est l’algorithme de rétropropagation. D’autres techniques d’apprentissage pour les réseaux de neurones sont l’apprentissage Hebbian (« fire together, wire together »), GMDH ou apprentissage compétitif.

Les principales catégories de réseaux sont les réseaux de neurones acycliques ou prédictifs (où le signal passe dans une seule direction) et les réseaux de neurones récurrents (qui permettent une rétroaction et des mémoires à court terme des événements d’entrée précédents). Parmi les réseaux à action directe les plus populaires figurent les perceptrons, les perceptrons multicouches et les réseaux à base radiale.

L’apprentissage en profondeur

L’apprentissage en profondeur utilise plusieurs couches de neurones entre les entrées et les sorties du réseau. Les couches multiples peuvent progressivement extraire des caractéristiques de niveau supérieur à partir de l’entrée brute. Par exemple, dans le traitement d’images, les couches inférieures peuvent identifier les contours, tandis que les couches supérieures peuvent identifier les concepts pertinents pour un humain, tels que les chiffres, les lettres ou les visages. L’apprentissage en profondeur a considérablement amélioré les performances des programmes dans de nombreux sous-domaines importants de l’intelligence artificielle, notamment la vision par ordinateur, la reconnaissance vocale, la classification d’images et autres.

L’apprentissage en profondeur utilise souvent des réseaux de neurones convolutifs pour plusieurs ou toutes ses couches. Dans une couche convolutive, chaque neurone ne reçoit des informations que d’une zone restreinte de la couche précédente appelée champ récepteur du neurone. Cela peut réduire considérablement le nombre de connexions pondérées entre les neurones et crée une hiérarchie similaire à l’organisation du cortex visuel animal.

Dans un réseau neuronal récurrent, le signal se propagera à travers une couche plus d’une fois ; ainsi, un RNN est un exemple d’apprentissage en profondeur. Les RNN peuvent être entraînés par descente de gradient, mais les gradients à long terme qui sont rétropropagés peuvent « disparaître » (c’est-à-dire qu’ils peuvent tendre vers zéro) ou « exploser » (c’est-à-dire qu’ils peuvent tendre vers l’infini), connus sous le nom de problème de gradient évanouissant. La technique de mémoire à long court terme (LSTM) peut empêcher cela dans la plupart des cas.

Langages et matériel spécialisés

Des langages spécialisés pour l’intelligence artificielle ont été développés, tels que Lisp, Prolog, TensorFlow et bien d’autres. Le matériel développé pour l’IA comprend des accélérateurs d’IA et l’informatique neuromorphique.

Applications

L’IA est pertinente pour toute tâche intellectuelle. Les techniques modernes d’intelligence artificielle sont omniprésentes et sont trop nombreuses pour être énumérées ici. Souvent, lorsqu’une technique atteint l’usage courant, elle n’est plus considérée comme de l’intelligence artificielle ; ce phénomène est décrit comme l’effet AI.

Dans les années 2010, les applications d’IA étaient au cœur des domaines informatiques les plus prospères sur le plan commercial et sont devenues une caractéristique omniprésente de la vie quotidienne. L’IA est utilisée dans les moteurs de recherche (comme la recherche Google), ciblant les publicités en ligne, les systèmes de recommandation (proposés par Netflix, YouTube ou Amazon), la génération de trafic Internet, la publicité ciblée (AdSense, Facebook), les assistants virtuels (comme Siri ou Alexa) , véhicules autonomes (dont drones et voitures autonomes), traduction automatique (Microsoft Translator, Google Translate), reconnaissance faciale (Apple’s Face ID ou Microsoft’s DeepFace), étiquetage d’images (utilisé par Facebook, Apple’s iPhoto et TikTok) et filtrage anti-spam .

Il existe également des milliers d’applications d’IA réussies utilisées pour résoudre des problèmes pour des industries ou des institutions spécifiques. Quelques exemples : stockage d’énergie, deepfakes, diagnostic médical, logistique militaire ou gestion de la chaîne d’approvisionnement.

Le jeu est un test de la force de l’IA depuis les années 1950. Deep Blue est devenu le premier système informatique de jeu d’échecs à battre un champion du monde en titre, Garry Kasparov, le 11 mai 1997. En 2011, dans un Jeopardy ! quiz show match d’exhibition, le système de réponse aux questions d’IBM, Watson, a vaincu les deux plus grands Jeopardy! champions, Brad Rutter et Ken Jennings, par une marge significative. En mars 2016, AlphaGo a remporté 4 des 5 parties de Go dans un match contre le champion de Go Lee Sedol, devenant ainsi le premier système de jeu de Go sur ordinateur à battre un joueur de Go professionnel sans handicap. D’autres programmes gèrent les jeux à informations imparfaites ; comme pour le poker à un niveau surhumain, Pluribus et Cepheus. DeepMind dans les années 2010 a développé une « intelligence artificielle généralisée » qui pourrait apprendre par elle-même de nombreux jeux Atari divers.

En 2020, les systèmes de traitement du langage naturel tels que l’énorme GPT-3 (alors de loin le plus grand réseau de neurones artificiels) correspondaient aux performances humaines sur des références préexistantes, bien que le système n’atteigne pas une compréhension de bon sens du contenu des références. AlphaFold 2 (2020) de DeepMind a démontré la capacité de se rapprocher, en heures plutôt qu’en mois, de la structure 3D d’une protéine. D’autres applications prédisent le résultat de décisions judiciaires, créent de l’art (comme la poésie ou la peinture) et prouvent des théorèmes mathématiques.

Philosophie

Définir l’intelligence artificielle

Penser contre agir : le test de Turing

Alan Turing a écrit en 1950 « Je propose de considérer la question « les machines peuvent-elles penser » ? » Il a conseillé de changer la question de savoir si une machine « pense » à « s’il est ou non possible pour les machines de montrer un comportement intelligent ». La seule chose visible est le comportement de la machine, donc peu importe si la machine est consciente, ou a un esprit, ou si l’intelligence est simplement une « simulation » et non « la vraie chose ». Il a noté que nous ne savons pas non plus ces choses sur les autres, mais que nous étendons une « convention polie » qu’ils « pensent » en fait. Cette idée est à la base du test de Turing.

Agir humainement vs. agir intelligemment : les agents intelligents

Le fondateur de l’IA, John McCarthy, a déclaré : « L’intelligence artificielle n’est pas, par définition, une simulation de l’intelligence humaine ». Russell et Norvig sont d’accord et critiquent le test de Turing. Ils ont écrit : « Les textes d’ingénierie aéronautique ne définissent pas l’objectif de leur domaine comme « fabriquer des machines qui volent si exactement comme des pigeons qu’elles peuvent tromper d’autres pigeons ». D’autres chercheurs et analystes sont en désaccord et ont soutenu que l’IA devrait simuler l’intelligence naturelle en étudiant la psychologie ou la neurobiologie.

Le paradigme de l’agent intelligent définit le comportement intelligent en général, sans référence aux êtres humains. Un agent intelligent est un système qui perçoit son environnement et prend des mesures qui maximisent ses chances de succès. Tout système qui a un comportement orienté vers un but peut être analysé comme un agent intelligent : quelque chose d’aussi simple qu’un thermostat, aussi complexe qu’un être humain, ainsi que de grands systèmes tels que des entreprises, des biomes ou des nations. Le paradigme de l’agent intelligent est devenu largement accepté au cours des années 1990 et sert actuellement de définition du domaine.

Le paradigme a d’autres avantages pour l’IA. Il fournit un moyen fiable et scientifique de tester des programmes ; les chercheurs peuvent comparer directement ou même combiner différentes approches de problèmes isolés, en se demandant quel agent est le mieux à même de maximiser une « fonction de but » donnée. Cela leur donne également un langage commun pour communiquer avec d’autres domaines – tels que l’optimisation mathématique (qui est définie en termes de « buts ») ou l’économie (qui utilise la même définition d’un « agent rationnel »).

Évaluer les approches de l’IA

Aucune théorie ou paradigme unificateur établi n’a guidé la recherche sur l’IA pendant la majeure partie de son histoire. Le succès sans précédent du machine learning statistique dans les années 2010 a éclipsé toutes les autres approches (à tel point que certaines sources, notamment dans le monde des affaires, utilisent le terme « intelligence artificielle » pour signifier « apprentissage automatique avec des réseaux de neurones »). Cette approche est principalement sous-symbolique, nette, douce et étroite (voir ci-dessous). Les critiques soutiennent que ces questions devront peut-être être réexaminées par les futures générations de chercheurs en IA.

L’IA symbolique et ses limites

L’IA symbolique (ou « GOFAI ») a simulé le raisonnement conscient de haut niveau que les gens utilisent lorsqu’ils résolvent des énigmes, expriment un raisonnement juridique et font des mathématiques. Ils réussissaient très bien dans les tâches « intelligentes » telles que l’algèbre ou les tests de QI. Dans les années 1960, Newell et Simon ont proposé l’hypothèse des systèmes de symboles physiques : « Un système de symboles physiques a les moyens nécessaires et suffisants d’une action intelligente générale.

Cependant, l’approche symbolique a lamentablement échoué sur de nombreuses tâches que les humains résolvent facilement, telles que l’apprentissage, la reconnaissance d’un objet ou le raisonnement de bon sens. Le paradoxe de Moravec est la découverte que les tâches « intelligentes » de haut niveau étaient faciles pour l’IA, mais que les tâches « instinctives » de bas niveau étaient extrêmement difficiles. Le philosophe Hubert Dreyfus avait soutenu depuis les années 1960 que l’expertise humaine dépendait d’un instinct inconscient plutôt que d’une manipulation consciente des symboles, et d’un « ressenti » de la situation plutôt que d’une connaissance symbolique explicite. Bien que ses arguments aient été ridiculisés et ignorés lors de leur première présentation, la recherche sur l’IA a fini par s’accorder.

Le problème n’est pas résolu : le raisonnement sous-symbolique peut commettre bon nombre des mêmes erreurs impénétrables que l’intuition humaine, comme le biais algorithmique. Des critiques tels que Noam Chomsky soutiennent que la poursuite des recherches sur l’IA symbolique sera toujours nécessaire pour atteindre l’intelligence générale, en partie parce que l’IA sous-symbolique s’éloigne de l’IA explicable : il peut être difficile, voire impossible de comprendre pourquoi un programme d’IA statistique moderne a fait un décision particulière.

Soigné contre débraillé

« Neats » espère que le comportement intelligent sera décrit à l’aide de principes simples et élégants (tels que la logique, l’optimisation ou les réseaux de neurones). Les « Scruffies » s’attendent à ce que cela nécessite nécessairement de résoudre un grand nombre de problèmes sans rapport. Cette question a été activement discutée dans les années 70 et 80, mais dans les années 90, les méthodes mathématiques et les normes scientifiques solides sont devenues la norme, une transition que Russell et Norvig ont qualifiée de « victoire des nets ».

Informatique douce contre informatique dure

Trouver une solution dont il est prouvé qu’ils sont corrects ou optimaux est insoluble pour de nombreux problèmes importants. L’informatique douce est un ensemble de techniques, y compris les algorithmes génétiques, la logique floue et les réseaux de neurones, qui tolèrent l’imprécision, l’incertitude, la vérité partielle et l’approximation. L’informatique douce a été introduite à la fin des années 80 et les programmes d’IA les plus réussis du 21e siècle sont des exemples d’informatique douce avec des réseaux de neurones.

IA étroite ou générale

Les chercheurs en IA sont divisés sur l’opportunité de poursuivre directement les objectifs de l’intelligence artificielle générale et de la superintelligence (IA générale) ou de résoudre autant de problèmes spécifiques que possible (IA étroite) dans l’espoir que ces solutions mèneront indirectement aux objectifs à long terme du domaine. . L’intelligence générale est difficile à définir et à mesurer, et l’IA moderne a connu des succès plus vérifiables en se concentrant sur des problèmes spécifiques avec des solutions spécifiques. Le sous-domaine expérimental de l’intelligence artificielle générale étudie ce domaine exclusivement.

Conscience, sensibilité et esprit de la machine

La philosophie de l’esprit ne sait pas si une machine peut avoir un esprit, une conscience et des états mentaux, au même titre que les êtres humains. Ce problème prend en compte les expériences internes de la machine, plutôt que son comportement externe. La recherche grand public sur l’IA considère que cette question n’est pas pertinente, car elle n’affecte pas les objectifs du domaine. Stuart Russell et Peter Norvig observent que la plupart des chercheurs en IA « ne se soucient pas de la [philosophie de l’IA] – tant que le programme fonctionne, ils ne se soucient pas de savoir si vous l’appelez une simulation de l’intelligence ou de l’intelligence réelle ». Cependant, la question est devenue centrale dans la philosophie de l’esprit. C’est aussi typiquement la question centrale en jeu dans l’intelligence artificielle dans la fiction.

Conscience

David Chalmers a identifié deux problèmes dans la compréhension de l’esprit, qu’il a nommés les problèmes « difficiles » et « faciles » de la conscience. Le problème facile est de comprendre comment le cerveau traite les signaux, élabore des plans et contrôle le comportement. Le problème difficile est d’expliquer comment cela se sent ou pourquoi cela devrait ressembler à n’importe quoi. Le traitement de l’information humaine est facile à expliquer, mais l’expérience subjective humaine est difficile à expliquer. Par exemple, il est facile d’imaginer une personne daltonienne qui a appris à identifier quels objets dans son champ de vision sont rouges, mais il n’est pas clair ce qui serait nécessaire pour que la personne sache à quoi ressemble le rouge.

Informatique et fonctionnalisme

L’informatique est la position de la philosophie de l’esprit selon laquelle l’esprit humain est un système de traitement de l’information et que la pensée est une forme d’informatique. L’informatique soutient que la relation entre l’esprit et le corps est similaire ou identique à la relation entre le logiciel et le matériel et peut donc être une solution au problème esprit-corps. Cette position philosophique a été inspirée par les travaux des chercheurs en IA et des scientifiques cognitifs dans les années 1960 et a été initialement proposée par les philosophes Jerry Fodor et Hilary Putnam.

Le philosophe John Searle a qualifié cette position de « IA forte » : « L’ordinateur correctement programmé avec les bonnes entrées et sorties aurait ainsi un esprit exactement dans le même sens que les êtres humains ont un esprit. » Searle contredit cette affirmation avec son argument de la chambre chinoise, qui tente de montrer que, même si une machine simule parfaitement le comportement humain, il n’y a toujours aucune raison de supposer qu’elle a aussi un esprit.

Droits des robots

Si une machine a un esprit et une expérience subjective, alors elle peut aussi avoir une sensibilité (la capacité de ressentir), et si c’est le cas, alors elle pourrait aussi souffrir, et ainsi elle aurait droit à certains droits. Tout droit hypothétique de robot se situerait sur un spectre avec les droits des animaux et les droits de l’homme. Cette question a été considérée dans la fiction pendant des siècles et est maintenant considérée par, par exemple, l’Institute for the Future de Californie, mais les critiques soutiennent que la discussion est prématurée.

Futur

Superintelligence

Une superintelligence, une hyperintelligence ou une intelligence surhumaine est un agent hypothétique qui posséderait une intelligence dépassant de loin celle de l’esprit humain le plus brillant et le plus doué. La superintelligence peut également faire référence à la forme ou au degré d’intelligence possédée par un tel agent.

Si la recherche sur l’intelligence artificielle générale produisait des logiciels suffisamment intelligents, ils pourraient peut-être se reprogrammer et s’améliorer. Le logiciel amélioré serait encore meilleur pour s’améliorer, conduisant à une auto-amélioration récursive. Son intelligence augmenterait de façon exponentielle dans une explosion d’intelligence et pourrait considérablement dépasser les humains. L’écrivain de science-fiction Vernor Vinge a nommé ce scénario la « singularité ». Parce qu’il est difficile voire impossible de connaître les limites de l’intelligence ou les capacités des machines superintelligentes, la singularité technologique est un événement au-delà duquel les événements sont imprévisibles voire insondables.

Le concepteur de robots Hans Moravec, le cybernéticien Kevin Warwick et l’inventeur Ray Kurzweil ont prédit que les humains et les machines fusionneront à l’avenir en cyborgs plus capables et plus puissants que les deux. Cette idée, appelée transhumanisme, trouve ses racines chez Aldous Huxley et Robert Ettinger.

Edward Fredkin soutient que « l’intelligence artificielle est la prochaine étape de l’évolution », une idée proposée pour la première fois par « Darwin parmi les machines » de Samuel Butler dès 1863, et développée par George Dyson dans son livre du même nom en 1998.

Des risques

Chômage technologique

Dans le passé, la technologie a eu tendance à augmenter plutôt qu’à réduire l’emploi total, mais les économistes reconnaissent que « nous sommes en territoire inconnu » avec l’IA. Une enquête d’économistes a montré un désaccord quant à savoir si l’utilisation croissante des robots et de l’IA entraînera une augmentation substantielle du chômage de longue durée, mais ils conviennent généralement que cela pourrait être un avantage net, si les gains de productivité sont redistribués. Les estimations subjectives du risque varient considérablement; par exemple, Michael Osborne et Carl Benedikt Frey estiment que 47 % des emplois américains sont à « haut risque » d’automatisation potentielle, tandis qu’un rapport de l’OCDE classe seulement 9 % des emplois américains comme « à haut risque ».

Contrairement aux précédentes vagues d’automatisation, de nombreux emplois de la classe moyenne peuvent être éliminés par l’intelligence artificielle ; The Economist déclare que « l’inquiétude que l’IA pourrait faire aux cols blancs ce que la vapeur a fait aux cols bleus pendant la révolution industrielle » vaut « la peine d’être prise au sérieux ». Les emplois à risque extrême vont des parajuristes aux cuisiniers de restauration rapide, tandis que la demande d’emplois est susceptible d’augmenter pour les professions liées aux soins allant des soins de santé personnels au clergé.

Mauvais acteurs et IA armée

L’IA fournit un certain nombre d’outils particulièrement utiles aux gouvernements autoritaires : les logiciels espions intelligents, la reconnaissance faciale et la reconnaissance vocale permettent une surveillance généralisée ; une telle surveillance permet à l’apprentissage automatique de classer les ennemis potentiels de l’État et peut les empêcher de se cacher ; les systèmes de recommandation peuvent cibler précisément la propagande et la désinformation pour un effet maximal ; les deepfakes aident à produire de la désinformation ; L’IA avancée peut rendre la prise de décision centralisée plus compétitive avec les systèmes libéraux et décentralisés tels que les marchés.

Les terroristes, les criminels et les États voyous peuvent utiliser d’autres formes d’IA militarisées telles que la guerre numérique avancée et les armes autonomes létales. En 2015, plus de cinquante pays faisaient des recherches sur les robots de champ de bataille.

Biais algorithmique

Les programmes d’IA peuvent devenir biaisés après avoir appris à partir de données du monde réel. Il n’est généralement pas introduit par les concepteurs du système, mais est appris par le programme, et donc les programmeurs ignorent souvent que le biais existe. Un biais peut être introduit par inadvertance par la manière dont les données d’apprentissage sont sélectionnées. Elle peut également émerger de corrélations : l’IA est utilisée pour classer les individus en groupes, puis faire des prédictions en supposant que l’individu ressemblera aux autres membres du groupe. Dans certains cas, cette hypothèse peut être injuste. Un exemple de ceci est COMPAS, un programme commercial largement utilisé par les tribunaux américains pour évaluer la probabilité qu’un accusé devienne un récidiviste. ProPublica affirme que le niveau de risque de récidive attribué par COMPAS aux accusés noirs est beaucoup plus susceptible d’être surestimé que celui des accusés blancs, malgré le fait que le programme n’a pas été informé des races des accusés. D’autres exemples où le biais algorithmique peut conduire à des résultats injustes sont lorsque l’IA est utilisée pour la notation de crédit ou l’embauche.

Risque existentiel

L’IA superintelligente pourrait être capable de s’améliorer au point que les humains ne pourraient plus la contrôler. Cela pourrait, comme le dit le physicien Stephen Hawking, « signifier la fin de la race humaine ». Le philosophe Nick Bostrom soutient qu’une IA suffisamment intelligente, si elle choisit des actions basées sur la réalisation d’un objectif, présentera un comportement convergent tel que l’acquisition de ressources ou la protection contre la fermeture. Si les objectifs de cette IA ne reflètent pas pleinement ceux de l’humanité, elle devra peut-être nuire à l’humanité pour acquérir plus de ressources ou s’empêcher d’être arrêtée, en fin de compte pour mieux atteindre son objectif. Il conclut que l’IA représente un risque pour l’humanité, aussi humbles ou « amicaux » que puissent être ses objectifs déclarés. Le politologue Charles T. Rubin soutient que « toute bienveillance suffisamment avancée peut être indiscernable de la malveillance ». Les humains ne devraient pas supposer que des machines ou des robots nous traiteraient favorablement parce qu’il n’y a aucune raison a priori de croire qu’ils partageraient notre système de moralité.

L’opinion des experts et des initiés de l’industrie est mitigée, avec des fractions importantes à la fois concernées et non concernées par le risque d’une éventuelle IA aux capacités surhumaines. Stephen Hawking, le fondateur de Microsoft Bill Gates, le professeur d’histoire Yuval Noah Harari et le fondateur de SpaceX Elon Musk ont ​​tous exprimé de sérieuses inquiétudes quant à l’avenir de l’IA. D’éminents titans de la technologie, dont Peter Thiel (Amazon Web Services) et Musk, ont engagé plus d’un milliard de dollars dans des entreprises à but non lucratif qui défendent le développement responsable de l’IA, telles que OpenAI et le Future of Life Institute. Mark Zuckerberg (PDG, Facebook) a déclaré que l’intelligence artificielle est utile dans sa forme actuelle et continuera à aider les humains. D’autres experts affirment que les risques sont suffisamment éloignés dans le futur pour ne pas valoir la peine d’être étudiés, ou que les humains seront précieux du point de vue d’une machine super intelligente. Rodney Brooks, en particulier, a déclaré que l’IA « malveillante » est encore à des siècles de distance.

Machines éthiques

Les IA conviviales sont des machines qui ont été conçues dès le départ pour minimiser les risques et faire des choix qui profitent aux humains. Eliezer Yudkowsky, qui a inventé le terme, soutient que le développement d’une IA conviviale devrait être une priorité de recherche plus élevée : cela peut nécessiter un investissement important et doit être achevé avant que l’IA ne devienne un risque existentiel.

Les machines intelligentes ont le potentiel d’utiliser leur intelligence pour prendre des décisions éthiques. Le domaine de l’éthique des machines fournit aux machines des principes et des procédures éthiques pour résoudre les dilemmes éthiques. L’éthique de la machine est également appelée moralité de la machine, éthique computationnelle ou moralité computationnelle, et a été fondée lors d’un symposium AAAI en 2005.

D’autres approches incluent les «agents moraux artificiels» de Wendell Wallach et les trois principes de Stuart J. Russell pour développer des machines dont les avantages sont prouvés.

Régulation

La réglementation de l’intelligence artificielle est l’élaboration de politiques et de lois du secteur public pour promouvoir et réglementer l’intelligence artificielle (IA); elle est donc liée à la régulation plus large des algorithmes. Le paysage réglementaire et politique de l’IA est un problème émergent dans les juridictions du monde entier. Entre 2016 et 2020, plus de 30 pays ont adopté des stratégies dédiées à l’IA. La plupart des États membres de l’UE ont publié des stratégies nationales d’IA, tout comme le Canada, la Chine, l’Inde, le Japon, Maurice, la Fédération de Russie, l’Arabie saoudite, les Émirats arabes unis, les États-Unis et le Viet Nam. D’autres étaient en train d’élaborer leur propre stratégie d’IA, notamment le Bangladesh, la Malaisie et la Tunisie. Le Partenariat mondial sur l’intelligence artificielle a été lancé en juin 2020, indiquant la nécessité de développer l’IA conformément aux droits de l’homme et aux valeurs démocratiques, afin de garantir la confiance du public dans la technologie. Henry Kissinger, Eric Schmidt et Daniel Huttenlocher ont publié une déclaration commune en novembre 2021 appelant à une commission gouvernementale pour réglementer l’IA.

Dans la fiction

Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration depuis l’Antiquité et ont été un thème persistant dans la science-fiction.

Un trope commun dans ces œuvres a commencé avec Frankenstein de Mary Shelley, où une création humaine devient une menace pour ses maîtres. Cela inclut des œuvres telles que 2001 : L’Odyssée de l’espace d’Arthur C. Clarke et de Stanley Kubrick (tous deux de 1968), avec HAL 9000, l’ordinateur meurtrier responsable du vaisseau spatial Discovery One, ainsi que The Terminator (1984) et The Matrix (1999 ). En revanche, les rares robots fidèles tels que Gort de The Day the Earth Stood Still (1951) et Bishop de Aliens (1986) sont moins présents dans la culture populaire.

Isaac Asimov a introduit les trois lois de la robotique dans de nombreux livres et histoires, notamment la série « Multivac » sur un ordinateur super intelligent du même nom. Les lois d’Asimov sont souvent évoquées lors de discussions profanes sur l’éthique des machines; alors que presque tous les chercheurs en intelligence artificielle connaissent les lois d’Asimov à travers la culture populaire, ils considèrent généralement les lois comme inutiles pour de nombreuses raisons, dont l’une est leur ambiguïté.

Le transhumanisme (la fusion des humains et des machines) est exploré dans le manga Ghost in the Shell et la série de science-fiction Dune.

Plusieurs œuvres utilisent l’IA pour nous obliger à nous confronter à la question fondamentale de ce qui fait de nous des humains, nous montrant des êtres artificiels qui ont la capacité de ressentir, et donc de souffrir. Cela apparaît dans R.U.R. de Karel Čapek, les films A.I. Intelligence artificielle et Ex Machina, ainsi que le roman Les androïdes rêvent-ils de moutons électriques ?, de Philip K. Dick. Dick considère l’idée que notre compréhension de la subjectivité humaine est altérée par la technologie créée avec l’intelligence artificielle.

Représentation des connaissances et raisonnement.

La représentation et le raisonnement des connaissances (KRR, KR&R, KR²) est le domaine de l’intelligence artificielle (IA) dédié à la représentation d’informations sur le monde sous une forme qu’un système informatique peut utiliser pour résoudre des tâches complexes telles que diagnostiquer une condition médicale ou avoir un dialogue. dans une langue naturelle. La représentation des connaissances intègre les découvertes de la psychologie sur la façon dont les humains résolvent les problèmes et représentent les connaissances afin de concevoir des formalismes qui faciliteront la conception et la construction de systèmes complexes. La représentation et le raisonnement des connaissances intègrent également les résultats de la logique pour automatiser divers types de raisonnement, tels que l’application de règles ou les relations d’ensembles et de sous-ensembles.

Des exemples de formalismes de représentation des connaissances comprennent les réseaux sémantiques, l’architecture des systèmes, les cadres, les règles et les ontologies. Des exemples de moteurs de raisonnement automatisés incluent les moteurs d’inférence, les démonstrateurs de théorèmes et les classificateurs.

Histoire.

Les premiers travaux sur la représentation informatisée des connaissances se sont concentrés sur les résolveurs de problèmes généraux tels que le système General Problem Solver (GPS) développé par Allen Newell et Herbert A. Simon en 1959. Ces systèmes comportaient des structures de données pour la planification et la décomposition. Le système commencerait par un objectif. Il décomposerait ensuite cet objectif en sous-objectifs, puis entreprendrait de construire des stratégies qui pourraient accomplir chaque sous-objectif.

À ces débuts de l’IA, des algorithmes de recherche généraux tels que A* ont également été développés. Cependant, les définitions de problèmes amorphes pour des systèmes tels que le GPS signifiaient qu’ils ne fonctionnaient que pour des domaines de jouets très limités (par exemple, le « monde des blocs »). Afin de s’attaquer aux problèmes non liés aux jouets, des chercheurs en IA tels que Ed Feigenbaum et Frederick Hayes-Roth ont réalisé qu’il était nécessaire de concentrer les systèmes sur des problèmes plus contraints.

Ces efforts ont conduit à la révolution cognitive en psychologie et à la phase de l’IA axée sur la représentation des connaissances qui a abouti dans les années 1970 et 1980 aux systèmes experts, aux systèmes de production, aux langages de cadres, etc.
Plutôt que de résoudre des problèmes généraux, l’IA a changé son orientation vers des systèmes experts qui pourraient correspondre à la compétence humaine sur une tâche spécifique, comme le diagnostic médical.

Les systèmes experts nous ont donné la terminologie encore utilisée aujourd’hui où les systèmes d’IA sont divisés en une base de connaissances, avec des faits sur le monde et des règles, et un moteur d’inférence, qui applique les règles à la base de connaissances afin de répondre aux questions et de résoudre les problèmes. Dans ces premiers systèmes, la base de connaissances avait tendance à être une structure assez plate, essentiellement des affirmations sur les valeurs des variables utilisées par les règles.

En plus des systèmes experts, d’autres chercheurs ont développé le concept de langages basés sur des cadres au milieu des années 1980. Un cadre est similaire à une classe d’objets : c’est une description abstraite d’une catégorie décrivant des choses dans le monde, des problèmes et des solutions potentielles. Les cadres étaient à l’origine utilisés sur des systèmes axés sur l’interaction humaine, par ex. comprendre le langage naturel et les contextes sociaux dans lesquels diverses attentes par défaut telles que commander de la nourriture dans un restaurant réduisent l’espace de recherche et permettent au système de choisir des réponses appropriées à des situations dynamiques.

Il n’a pas fallu longtemps avant que les communautés cadres et les chercheurs basés sur les règles ne réalisent qu’il y avait une synergie entre leurs approches. Les cadres étaient bons pour représenter le monde réel, décrit comme des classes, des sous-classes, des emplacements (valeurs de données) avec diverses contraintes sur les valeurs possibles. Les règles étaient bonnes pour représenter et utiliser une logique complexe telle que le processus pour faire un diagnostic médical. Des systèmes intégrés ont été développés qui combinaient des cadres et des règles. L’un des plus puissants et des plus connus était l’environnement d’ingénierie des connaissances (KEE) de 1983 d’Intellicorp. KEE avait un moteur de règles complet avec chaînage avant et arrière. Il disposait également d’une base de connaissances complète basée sur des cadres avec des déclencheurs, des emplacements (valeurs de données), l’héritage et la transmission de messages. Bien que la transmission de messages provienne de la communauté orientée objet plutôt que de l’IA, elle a été rapidement adoptée par les chercheurs en IA ainsi que dans des environnements tels que KEE et dans les systèmes d’exploitation des machines Lisp de Symbolics, Xerox et Texas Instruments.

L’intégration des cadres, des règles et de la programmation orientée objet a été largement stimulée par des entreprises commerciales telles que KEE et Symbolics issues de divers projets de recherche. En même temps que cela se produisait, il y avait une autre souche de recherche qui était moins axée sur le commerce et était guidée par la logique mathématique et la démonstration automatisée de théorèmes. L’une des langues les plus influentes dans cette recherche était la langue KL-ONE du milieu des années 80. KL-ONE était un langage de cadre qui avait une sémantique rigoureuse, des définitions formelles pour des concepts tels qu’une relation Is-A.

KL-ONE et les langages qui en ont été influencés, tels que Loom, disposaient d’un moteur de raisonnement automatisé basé sur une logique formelle plutôt que sur des règles IF-THEN. Ce raisonneur s’appelle le classifieur. Un classificateur peut analyser un ensemble de déclarations et déduire de nouvelles assertions, par exemple, redéfinir une classe pour qu’elle soit une sous-classe ou une superclasse d’une autre classe qui n’a pas été formellement spécifiée. De cette façon, le classificateur peut fonctionner comme un moteur d’inférence, déduisant de nouveaux faits à partir d’une base de connaissances existante. Le classificateur peut également fournir une vérification de cohérence sur une base de connaissances (qui, dans le cas des langages KL-ONE, est également appelée ontologie).

Un autre domaine de recherche sur la représentation des connaissances était le problème du raisonnement de bon sens. L’une des premières réalisations apprises en essayant de créer des logiciels capables de fonctionner avec le langage naturel humain était que les humains s’appuient régulièrement sur une vaste base de connaissances sur le monde réel que nous prenons simplement pour acquise mais qui n’est pas du tout évidente pour un agent artificiel. . Principes de base de la physique du sens commun, de la causalité, des intentions, etc. Un exemple est le problème du cadre, selon lequel dans une logique événementielle, il doit y avoir des axiomes qui énoncent que les choses maintiennent leur position d’un instant à l’autre à moins qu’elles ne soient déplacées par une force externe. . Afin de créer un véritable agent d’intelligence artificielle capable de converser avec les humains en utilisant le langage naturel et de traiter des déclarations et des questions de base sur le monde, il est essentiel de représenter ce type de connaissances. L’un des programmes les plus ambitieux pour résoudre ce problème était le projet Cyc de Doug Lenat. Cyc a établi son propre langage Frame et a demandé à un grand nombre d’analystes de documenter divers domaines de raisonnement de bon sens dans ce langage. Les connaissances enregistrées dans Cyc comprenaient des modèles de bon sens de temps, de causalité, de physique, d’intentions et bien d’autres.

Le point de départ de la représentation des connaissances est l’hypothèse de représentation des connaissances formalisée pour la première fois par Brian C. Smith en 1985 :

Tout processus intelligent incarné mécaniquement sera composé d’ingrédients structurels que a) nous, en tant qu’observateurs externes, prenons naturellement pour représenter un compte rendu propositionnel de la connaissance que le processus global présente, et b) indépendamment d’une telle attribution sémantique externe, jouent un rôle formel mais causal et rôle essentiel dans la génération du comportement qui manifeste cette connaissance.

Actuellement, l’un des domaines les plus actifs de la recherche sur la représentation des connaissances concerne les projets associés au Web sémantique. Le Web sémantique cherche à ajouter une couche de sémantique (sens) au-dessus de l’Internet actuel. Plutôt que d’indexer des sites Web et des pages via des mots-clés, le Web sémantique crée de grandes ontologies de concepts. La recherche d’un concept sera plus efficace que les recherches textuelles traditionnelles. Les langages de cadres et la classification automatique jouent un grand rôle dans la vision du futur Web sémantique. La classification automatique donne aux développeurs la technologie pour fournir de l’ordre sur un réseau de connaissances en constante évolution. Définir des ontologies statiques et incapables d’évoluer à la volée serait très limitatif pour les systèmes basés sur Internet. La technologie de classification permet de gérer l’environnement dynamique d’Internet.

Des projets récents financés principalement par la Defense Advanced Research Projects Agency (DARPA) ont intégré des langages de cadre et des classificateurs avec des langages de balisage basés sur XML. Le Resource Description Framework (RDF) fournit la capacité de base pour définir des classes, des sous-classes et des propriétés d’objets. Le langage d’ontologie Web (OWL) fournit des niveaux supplémentaires de sémantique et permet l’intégration avec des moteurs de classification.

Aperçu.

La représentation des connaissances est un domaine de l’intelligence artificielle qui se concentre sur la conception de représentations informatiques qui capturent des informations sur le monde pouvant être utilisées pour résoudre des problèmes complexes.

La justification de la représentation des connaissances est que le code procédural conventionnel n’est pas le meilleur formalisme à utiliser pour résoudre des problèmes complexes. La représentation des connaissances rend les logiciels complexes plus faciles à définir et à maintenir que le code procédural et peut être utilisé dans des systèmes experts.

Par exemple, parler à des experts en termes de règles métier plutôt que de code réduit le fossé sémantique entre les utilisateurs et les développeurs et rend le développement de systèmes complexes plus pratique.

La représentation des connaissances va de pair avec le raisonnement automatisé car l’un des principaux objectifs de la représentation explicite des connaissances est de pouvoir raisonner sur ces connaissances, faire des inférences, affirmer de nouvelles connaissances, etc. Pratiquement tous les langages de représentation des connaissances ont un moteur de raisonnement ou d’inférence dans le cadre du système.

Un compromis clé dans la conception d’un formalisme de représentation des connaissances est celui entre l’expressivité et l’aspect pratique. Le formalisme ultime de représentation des connaissances en termes de puissance expressive et de compacité est la logique du premier ordre (FOL). Il n’y a pas de formalisme plus puissant que celui utilisé par les mathématiciens pour définir des propositions générales sur le monde. Cependant, FOL a deux inconvénients en tant que formalisme de représentation des connaissances : la facilité d’utilisation et la praticité de mise en œuvre. La logique de premier ordre peut être intimidante même pour de nombreux développeurs de logiciels. Les langages qui n’ont pas la puissance formelle complète de la FOL peuvent toujours fournir à peu près la même puissance expressive avec une interface utilisateur plus pratique à comprendre pour le développeur moyen. La question de l’aspect pratique de la mise en œuvre est que FOL est à certains égards trop expressif. Avec FOL, il est possible de créer des déclarations (par exemple une quantification sur des ensembles infinis) qui empêcheraient un système de se terminer s’il tentait de les vérifier.

Ainsi, un sous-ensemble de FOL peut être à la fois plus facile à utiliser et plus pratique à mettre en œuvre. C’était une motivation motrice derrière les systèmes experts basés sur des règles. Les règles IF-THEN fournissent un sous-ensemble de FOL mais un sous-ensemble très utile qui est également très intuitif. L’histoire de la plupart des premiers formalismes de représentation des connaissances de l’IA ; des bases de données aux réseaux sémantiques en passant par les démonstrateurs de théorèmes et les systèmes de production peuvent être considérés comme diverses décisions de conception sur l’opportunité de mettre l’accent sur la puissance expressive ou la calculabilité et l’efficacité.

Dans un article clé de 1993 sur le sujet, Randall Davis du MIT a décrit cinq rôles distincts pour analyser un cadre de représentation des connaissances :

« Une représentation de la connaissance (KR) est plus fondamentalement un substitut, un substitut de la chose elle-même, utilisé pour permettre à une entité de déterminer les conséquences en pensant plutôt qu’en agissant », c’est-à-dire « en raisonnant sur le monde plutôt qu’en y agissant. « 

« C’est un ensemble d’engagements ontologiques », c’est-à-dire « une réponse à la question : En quels termes dois-je penser le monde ? »

« C’est une théorie fragmentaire du raisonnement intelligent, exprimée en termes de trois composantes : (i) la conception fondamentale de la représentation du raisonnement intelligent ; (ii) l’ensemble des inférences que la représentation sanctionne ; et (iii) l’ensemble des inférences qu’elle recommande. « 

« C’est un moyen de calcul pragmatiquement efficace », c’est-à-dire « l’environnement informatique dans lequel la pensée est accomplie. Une contribution à cette efficacité pragmatique est fournie par les conseils qu’une représentation fournit pour organiser l’information » de manière à « faciliter la réalisation des inférences recommandées ». . »

« C’est un moyen d’expression humaine », c’est-à-dire « une langue dans laquelle nous disons des choses sur le monde ».

La représentation des connaissances et le raisonnement sont une technologie habilitante clé pour le Web sémantique. Les langages basés sur le modèle Frame avec classification automatique fournissent une couche de sémantique au-dessus de l’Internet existant. Plutôt que de rechercher via des chaînes de texte comme c’est généralement le cas aujourd’hui, il sera possible de définir des requêtes logiques et de trouver des pages correspondant à ces requêtes. Le composant de raisonnement automatisé dans ces systèmes est un moteur connu sous le nom de classifieur. Les classificateurs se concentrent sur les relations de subsomption dans une base de connaissances plutôt que sur les règles. Un classificateur peut déduire de nouvelles classes et modifier dynamiquement l’ontologie à mesure que de nouvelles informations deviennent disponibles. Cette capacité est idéale pour l’espace d’information en constante évolution d’Internet.

Le Web sémantique intègre des concepts de représentation et de raisonnement des connaissances avec des langages de balisage basés sur XML. Le cadre de description des ressources (RDF) fournit les capacités de base pour définir des objets basés sur la connaissance sur Internet avec des fonctionnalités de base telles que les relations Is-A et les propriétés d’objet. Le langage d’ontologie Web (OWL) ajoute une sémantique supplémentaire et s’intègre aux raisonneurs de classification automatique.

Caractéristiques.

En 1985, Ron Brachman a classé les problèmes fondamentaux de la représentation des connaissances comme suit :

Primitifs. Quel est le cadre sous-jacent utilisé pour représenter les connaissances ? Les réseaux sémantiques ont été l’une des premières primitives de représentation des connaissances. En outre, des structures de données et des algorithmes pour une recherche rapide générale. Dans ce domaine, il existe un fort chevauchement avec la recherche sur les structures de données et les algorithmes en informatique. Dans les premiers systèmes, le langage de programmation Lisp, qui était calqué sur le calcul lambda, était souvent utilisé comme forme de représentation fonctionnelle des connaissances. Les cadres et les règles étaient le prochain type de primitive. Les langages de trame avaient divers mécanismes pour exprimer et appliquer des contraintes sur les données de trame. Toutes les données des trames sont stockées dans des slots. Les slots sont analogues aux relations dans la modélisation entité-relation et aux propriétés d’objet dans la modélisation orientée objet. Une autre technique pour les primitives consiste à définir des langages modélisés d’après la logique du premier ordre (FOL). L’exemple le plus connu est Prolog, mais il existe également de nombreux environnements de démonstration de théorèmes spéciaux. Ces environnements peuvent valider des modèles logiques et déduire de nouvelles théories à partir de modèles existants. Essentiellement, ils automatisent le processus qu’un logicien suivrait pour analyser un modèle. La technologie de preuve de théorème avait des applications pratiques spécifiques dans les domaines du génie logiciel. Par exemple, il est possible de prouver qu’un programme logiciel adhère rigidement à une spécification logique formelle.

Méta-représentation. C’est ce qu’on appelle aussi la question de la réflexion en informatique. Elle fait référence à la capacité d’un formalisme à avoir accès à des informations sur son propre état. Un exemple serait le protocole méta-objet dans Smalltalk et CLOS qui donne aux développeurs un accès en temps réel aux objets de classe et leur permet de redéfinir dynamiquement la structure de la base de connaissances même au moment de l’exécution. La méta-représentation signifie que le langage de représentation des connaissances est lui-même exprimé dans ce langage. Par exemple, dans la plupart des environnements basés sur des cadres, tous les cadres seraient des instances d’une classe de cadres. Cet objet de classe peut être inspecté au moment de l’exécution, afin que l’objet puisse comprendre et même modifier sa structure interne ou la structure d’autres parties du modèle. Dans les environnements basés sur des règles, les règles étaient également généralement des instances de classes de règles. Une partie du méta-protocole pour les règles était les méta-règles qui donnaient la priorité au déclenchement des règles.

Incomplétude. La logique traditionnelle nécessite des axiomes et des contraintes supplémentaires pour faire face au monde réel par opposition au monde des mathématiques. Aussi, il est souvent utile d’associer des degrés de confiance à une affirmation. C’est-à-dire, ne dites pas simplement « Socrate est humain » mais plutôt « Socrate est humain avec confiance à 50 % ». Ce fut l’une des premières innovations de la recherche sur les systèmes experts qui a migré vers certains outils commerciaux, la capacité d’associer des facteurs de certitude à des règles et des conclusions. Les recherches ultérieures dans ce domaine sont connues sous le nom de logique floue.

Définitions et universaux contre faits et défauts. Les universaux sont des déclarations générales sur le monde telles que « Tous les humains sont mortels ». Les faits sont des exemples spécifiques d’universaux tels que « Socrate est un humain et donc mortel ». En termes logiques, les définitions et les universaux concernent la quantification universelle tandis que les faits et les défauts concernent les quantifications existentielles. Toutes les formes de représentation des connaissances doivent traiter de cet aspect et la plupart le font avec une variante de la théorie des ensembles, modélisant les universaux comme des ensembles et des sous-ensembles et les définitions comme des éléments de ces ensembles.

Raisonnement non monotone. Le raisonnement non monotone permet différents types de raisonnement hypothétique. Le système associe les faits affirmés aux règles et aux faits utilisés pour les justifier et, à mesure que ces faits changent, met également à jour les connaissances dépendantes. Dans les systèmes basés sur des règles, cette capacité est connue sous le nom de système de maintien de la vérité.

Adéquation expressive. La norme que Brachman et la plupart des chercheurs en IA utilisent pour mesurer l’adéquation expressive est généralement la logique du premier ordre (FOL). Les limites théoriques signifient qu’une mise en œuvre complète de FOL n’est pas pratique. Les chercheurs doivent être clairs sur le degré d’expressivité (la quantité de puissance expressive totale de la FOL) qu’ils entendent donner à leur représentation.

Efficacité du raisonnement. Cela fait référence à l’efficacité du temps d’exécution du système. La capacité de la base de connaissances à être mise à jour et le raisonneur à développer de nouvelles inférences dans un délai raisonnable. À certains égards, c’est l’envers de l’adéquation expressive. En général, plus une représentation est puissante, plus elle a d’adéquation expressive, moins son moteur de raisonnement automatisé sera efficace. L’efficacité était souvent un problème, en particulier pour les premières applications de la technologie de représentation des connaissances. Ils étaient généralement implémentés dans des environnements interprétés tels que Lisp, qui étaient lents par rapport aux plates-formes plus traditionnelles de l’époque.

Ingénierie ontologique.

Dans les premières années des systèmes basés sur la connaissance, les bases de connaissances étaient assez petites. Les bases de connaissances qui étaient censées résoudre de vrais problèmes plutôt que de faire des démonstrations de validation de concept devaient se concentrer sur des problèmes bien définis. Ainsi, par exemple, pas seulement le diagnostic médical dans son ensemble, mais le diagnostic médical de certains types de maladies.

Au fur et à mesure que la technologie basée sur la connaissance se développait, le besoin de bases de connaissances plus larges et de bases de connaissances modulaires capables de communiquer et de s’intégrer les unes aux autres est devenu évident. Cela a donné naissance à la discipline de l’ingénierie ontologique, concevant et construisant de grandes bases de connaissances pouvant être utilisées par plusieurs projets. L’un des principaux projets de recherche dans ce domaine a été le projet Cyc. Cyc était une tentative de construire une énorme base de connaissances encyclopédique qui contiendrait non seulement des connaissances d’experts mais aussi des connaissances de bon sens. Lors de la conception d’un agent d’intelligence artificielle, on s’est vite rendu compte que la représentation des connaissances de bon sens, des connaissances que les humains tiennent simplement pour acquises, était essentielle pour créer une IA capable d’interagir avec les humains en utilisant le langage naturel. Cyc était censé résoudre ce problème. Le langage qu’ils ont défini était connu sous le nom de CyclL.

Après CyclL, un certain nombre de langages d’ontologie ont été développés. La plupart sont des langages déclaratifs, et sont soit des langages de trame, soit sont basés sur la logique du premier ordre. La modularité – la capacité de définir des frontières autour de domaines spécifiques et d’espaces de problèmes – est essentielle pour ces langages car, comme l’a déclaré Tom Gruber, « Chaque ontologie est un traité – un accord social entre des personnes ayant un motif commun de partage ». Il y a toujours de nombreux points de vue concurrents et différents qui rendent impossible toute ontologie à usage général. Une ontologie à usage général devrait être applicable dans n’importe quel domaine et différents domaines de connaissances doivent être unifiés.

Il existe une longue histoire de travaux visant à construire des ontologies pour une variété de domaines de tâches, par exemple, une ontologie pour les liquides, le modèle d’éléments localisés largement utilisé dans la représentation des circuits électroniques (par exemple), ainsi que des ontologies pour le temps, la croyance et même la programmation elle-même. Chacun d’eux offre un moyen de voir une partie du monde.

Le modèle d’éléments localisés, par exemple, suggère que nous pensons aux circuits en termes de composants avec des connexions entre eux, avec des signaux circulant instantanément le long des connexions. C’est une vue utile, mais pas la seule possible. Une ontologie différente apparaît si nous devons nous occuper de l’électrodynamique dans l’appareil : ici, les signaux se propagent à une vitesse finie et un objet (comme une résistance) qui était auparavant considéré comme un composant unique avec un comportement d’E/S peut maintenant devoir être pensé comme un milieu étendu à travers lequel une onde électromagnétique circule.

Les ontologies peuvent bien sûr être écrites dans une grande variété de langages et de notations (par exemple, logique, LISP, etc.) ; l’information essentielle n’est pas la forme de ce langage mais son contenu, c’est-à-dire l’ensemble des concepts proposés comme manière de penser le monde. En termes simples, la partie importante concerne les notions telles que les connexions et les composants, et non le choix entre les écrire sous forme de prédicats ou de constructions LISP.

L’engagement pris de sélectionner l’une ou l’autre ontologie peut produire une vision radicalement différente de la tâche à accomplir. Considérez la différence qui se produit dans la sélection de la vue d’élément localisé d’un circuit plutôt que la vue électrodynamique du même dispositif. Comme deuxième exemple, le diagnostic médical vu en termes de règles (par exemple, MYCIN) semble sensiblement différent de la même tâche vue en termes de cadres (par exemple, INTERNIST). Là où MYCIN voit le monde médical comme constitué d’associations empiriques reliant le symptôme à la maladie, INTERNIST voit un ensemble de prototypes, en particulier de maladies prototypiques, à confronter au cas présent.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s