L’Intelligence artificielle est une science qui fait appel à une terminologie propre ou empruntée à d’autres sciences ou disciplines. Voici la définition des termes et expressions principales utilisées dans l’IA.
- Agent. Unité (ou entité) autonome capable de représentation, d’action et de communication. Dans le domaine de l’intelligence artificielle, l’agent est un robot ou un programme informatique doté de la capacité de percevoir son environnement, généralement via des capteurs, et d’agir en retour en fonction de cette perception et de règles. Il existe plusieurs types d’agents agissants dans des environnements définis. Un agent conversationnel repose sur des algorithmes de traitement du langage, c’est son domaine. Les systèmes multi-agents sont constitués de plusieurs agents agissant de concert dans un domaine donné (voir Intelligence Artificielle distribuée).
- Agent conversationnel ou chatbot. Interface homme-machine qui gère l’interaction entre des humains et un agent via un dialogue. Les chatbotsreposent sur des échanges en langage naturel. Le système interprète les formulations de l’utilisateur et y apporte des réponses, elles aussi en langage naturel. La technologie des agents conversationnels repose sur la branche du traitement du langage.
- Algorithme adaptatif. Algorithme capable de modifier ses réponses ou les données traitées en fonction de l’évolution de son environnement. Par opposition à un algorithme déterministe, un algorithme adaptatif est dit non-déterministe ou probabiliste. Deux exécutions du même algorithme adaptatif peuvent donner des choix différents.
- Analyse prédictive. Ensemble des technologies d’analyse de données et de statistique, destinées à produire des prédictions, ou hypothèses prédictives, et/ou des modèles statistiques sur des événements susceptibles de se produire. L’Analyse prédictive est de plus en plus utilisée dans les entreprises, par exemple en marketing pour prédire le comportement des consommateurs.
- Apprentissage automatique (ou machine learning). Branche de l’intelligence artificielle axée sur des processus d’apprentissage permettant à une machine d’évoluer, sans que ses algorithmes ne soient modifiés. Il existe plusieurs types de machine learning : statistique, supervisé (c’est-à-dire dont les règles d’apprentissage sont définies à partir d’une base d’exemples), non-supervisé.
- Apprentissage profond (deep learning). Méthode de machine learning faisant partie du champ de recherche “Apprentissage Automatique” de l’intelligence artificielle. Le deep learning permet un apprentissage non supervisé. Il s’appuie sur l’analyse d’un modèle de données. Il est notamment adapté à la reconnaissance d’image ou au traitement du langage naturel.
- Arbre de décision. Représentation graphique, sous forme d’arbre ou d’arborescence, des règles entrant dans le processus de prise de décision. L’arbre de décision est composé de nœuds de décision et de branches. Utilisé dans le machine learning, il permet de calculer différents résultats en fonction de décision prise, et de faire des prédictions en se basant sur des calculs de probabilités.
- Base de connaissance. Ensemble des informations relatives à un sujet donné. Une base de connaissance comporte l’ensemble du savoir que l’expert d’un domaine doit maîtriser pour pouvoir exercer son expertise. Ce type de brique est notamment utilisé dans les systèmes experts.
- Bayésien. Se dit d’un calcul de probabilité qui repose sur le théorème du mathématicien britannique Thomas Bayes. En intelligence artificielle, l’inférence bayésienne est un raisonnement permettant de déduire la probabilité de survenance ou non d’un événement.
- Heuristique. Fait référence aux méthodes de résolution de problème s’appuyant sur de précédents résultats. L’heuristique n’e s’appuie pas sur une modélisation formelle et ne garantit pas nécessairement des réponses efficaces. D’après les informaticiens Newell, Shaw et Simon, il s’agit d'”un processus qui peut résoudre un problème donné, mais n’offre aucune garantie d’y parvenir”. En clair, le système doit choisir entre plusieurs possibilités sans aucune certitude que son choix soit le bon.
- Inférence ou raisonnement. Opération de déduction à partir d’informations implicites. Comme la logique, elle est à la base de tout raisonnement. L’inférence permet de créer des liens entre les informations afin d’en tirer une assertion, une conclusion ou une hypothèse. Elle fait appel à un ensemble de règles se basant sur un système de références.
- Intelligence Artificielle. Plusieurs définitions peuvent être applicables à l’IA. Elle est définie par l’un de ses créateurs, Marvin Lee Minsky, comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique”. Par extension, l’IA est une discipline scientifique recouvrant les méthodes et l’ingénierie de fabrication de machines et programmes dits intelligents. L’objectif de l’IA est de produire des machines autonomes capables d’accomplir des tâches complexes en utilisant des processus réflectifs semblables à ceux des humains.
- Intelligence Artificielle Distribuée (IAD). Branche de l’intelligence artificielle dont le but est de créer des systèmes décentralisés, généralement multi-agents, capables de coopérer et de se coordonner. L’intelligence artificielle distribuée étudie les techniques permettant à des agents autonomes d’interagir, et les moyens de répartir un problème entre ces agents. Ces techniques sont inspirées des structures complexes de certaines sociétés d’insectes comme les fourmis. Un des domaines d’application de l’IAD est la coordination d’agents autonomes mobiles (comme les avions ou les voitures) – qui doivent apprendre à s’éviter tout en ayant des contraintes de trajet et de temps.
- Intelligence artificielle faible. Fait référence au fonctionnement d’un système qui simule un comportement intelligent dans un domaine restreint.
- Intelligence artificielle forte. C’est l’aptitude d’une machine capable non seulement de reproduire les capacités de réflexion et d’interaction intelligentes (analyse, raisonnement, action rationnelle), mais aussi d’avoir une “conscience”, des “sentiments” et la compréhension de ses propres raisonnements. Sujet de polémique, l’IA forte suppose, selon ses détracteurs, que la machine “pense” savoir ce qu’elle “ressent” et connaisse ce qu’elle ressent. En somme qu’elle soit douée de conscience, ce qui est, disent-ils, inaccessible à un système, quelle que soit sa complexité. Certains définissent l’IA forte par la capacité de résoudre des problèmes complexes dans n’importe quel environnement avec un niveau égal ou supérieur à l’intelligence humaine.
- Langage naturel. Langage utilisé par les humains par opposition au langage formel ou langage machine. Le langage naturel est le support de la communication verbale ou écrite chez les humains.
- Logique. C’est la science du raisonnement et de l’application ou de l’expression du raisonnement. Avec la représentation et le raisonnement, ou inférence, la logique constitue le troisième facteur du triptyque de la capacité de déduction d’un système. Il existe plusieurs types de logiques, la logique propositionnelle, la logique de premier ordre, etc.
- Logique floue. Raisonnement incluant toutes les possibilités intermédiaires entre les valeurs vrai ou faux. La logique conventionnelle des systèmes informatiques déterministes, c’est-à-dire qui ne relèvent pas du domaine de l’IA, repose sur les valeurs vrai ou faux, équivalentes au oui ou non des humains. Capables de prendre en charge la logique floue, les humains, et l’IA, intègrent, en plus, un certain nombre de nuances entre ces valeurs, comme par exemple les valeurs souvent ou rarement qui peuvent s’intercaler entre les valeurs toujours et jamais.
- Modélisation. Consiste à élaborer des modèles à partir d’informations afin de simuler des systèmes complexes. Ceux-ci peuvent renvoyer à des situations ou des objets. Le but de la modélisation en IA est d’informer le système qui l’utilise sur la situation et le fonctionnement de l’objet modélisé.
- Ordonnancement et planification. Ensemble des capacités d’un système à contrôler un autre système et à réagir en temps réel. L’ordonnancement et la planification reposent sur les capacités du système de contrôle à évaluer une situation ou un événement, à prendre des décisions et à planifier des tâches. Un système d’ordonnancement et de planification a par exemple pu contrôler, sans intervention humaine, une navette spatiale pendant 24 heures.
- Perception. Capacité d’un système à recevoir des stimuli liés à un objet ou un événement présent dans son environnement. Ces stimuli, ou informations, sont perçus par un appareillage constitué de capteurs. L’analyse des données issues de ces stimuli permet au système de caractériser l’objet ou l’environnement en question. Cette notion est utilisée dans la reconnaissance faciale par exemple.
- Probabilités. Branche des mathématiques qui étudie les phénomènes soumis au hasard et à l’incertitude. Dans le domaine de l’intelligence artificiel, son but est de créer des systèmes de raisonnement probabiliste, par opposition aux systèmes déterministes.
- Règles. Format de représentation des connaissances exploitable par un ordinateur dans une base de connaissances. Utilisées dans les systèmes experts, les règles sont représentées sous la forme du couple si (prémisses) alors (conclusion).
- Représentation des connaissances. Branche de l’intelligence artificielle qui traite des modèles de représentation de l’information, ou des connaissances, dans le but de former des hypothèses et de produire des inférences. Les connaissances sont classées par typologies : toujours vraies (un carré est un polygone qui possède quatre côtés), incertaines/certaines, évolutives…
- Réseaux Bayésiens. Représentation, ou langage, graphique probabiliste exprimant la certitude ou l’incertitude d’une inférence. Les réseaux Bayésiens reposent sur la formule du mathématicien britannique Thomas Bayes reliant les probabilités via des nœuds. Les nœuds contiennent le nom d’une variable et une table de probabilités ou de propositions associées à cette variable en fonction de valeurs parentes.
- Réseaux neuronaux. Les réseaux neuronaux renvoient à un programme composé d’algorithmes reliés à la manière du cerveau humain. Les réseaux neuronaux imitent ainsi le fonctionnement du cerveau humain : chaque fonction du programme est reliée aux autres, l’information est répartie sur l’ensemble du réseau.
- Robotique. Branche de l’IA portant sur la conception et la fabrication de robots. Ces machines peuvent être des humanoïdes, ou des automates comme dans l’industrie par exemple. La robotique s’appuie sur les autres disciplines de l’IA et sur l’ingénierie mécanique, électrique, hydraulique, entre autres, pour construire des robots.
- Science Cognitive. Domaine pluridisciplinaire de recherche sur les mécanismes et le fonctionnement des processus mentaux. La science cognitive cherche à décrire les mécanismes de la pensée, de la conscience et de l’intelligence humaine, en vue notamment de les reproduire dans des systèmes informatiques. Cette science regroupe plusieurs disciplines telles que la psychologie, la linguistique, les neurosciences ou encore l’informatique.
- Système expert. Système permettant de résoudre des problèmes en s’appuyant sur un ensemble de règles préalablement enregistrées dans une base de connaissances et relatives à un domaine restreint. Il se situe dans l’IAF (ou Intelligence artificielle faible). À la manière d’un expert du domaine traité, le système applique des règles, il est dit déterministe. Lorsque le système ne dispose pas de règles concernant le cas à traiter, il est inopérant. Les systèmes experts ont fait leurs preuves dans des domaines très ciblés où les bases de connaissance suffisent à traiter tous les cas possibles. Un système expert est généralement composé d’une base de connaissance, d’un moteur d’inférence et d’une base de règles.
- Test de Turing. Inventé par le mathématicien britannique Alan Turin en 1950, il est destiné à évaluer l’intelligence d’une machine ou d’un système. Concrètement, il cherche à éprouver sa capacité à travers une conversation en langage naturel, à se faire passer pour un humain. Le test se déroule entre un opérateur humain, un autre humain et une machine, par l’intermédiaire de terminaux et de manière anonyme. L’opérateur doit, à travers des échanges textuels, deviner lequel de ces interlocuteurs est la machine.