Soyez sûr de bien comprendre 

L’intelligence artificielle, c’est un peu comme donner des superpouvoirs à nos ordinateurs. Imaginez un robot qui apprend à jouer au jeu de Go juste en regardant des parties de maîtres. Eh bien, c’est l’intelligence artificielle !   

 Il y en a deux types :  

  • Les systèmes experts, ce sont les « Monsieurs Je-sais-tout » des ordinateurs. Ils utilisent des règles strictes pour prendre des décisions. Comme un chef cuisinier qui suit une recette à la lettre.  
  • Les algorithmes d’apprentissage automatique, ce sont les élèves studieux. Ils apprennent en observant. Par exemple, AlphaGo a appris à jouer au Go en regardant des parties, comme si un robot apprenait à cuisiner en regardant un chef étoilé préparer ses meilleurs plats !   

 En bref, l’intelligence artificielle c’est notre façon de rendre les machines intelligentes. Elles ne sont peut-être pas encore capables de préparer le meilleur des gâteaux au chocolat, mais elles progressent !   

Nous pouvons remercier ChatGPT pour son explication riche en métaphores de l’intelligence artificielle ! En lisant ces quelques lignes, trouviez-vous que quelque chose clochait ? Le texte est enfantin certes, mais aviez-vous deviné sa provenance ? Il en est de même concernant l'image présentée, aviez-vous reconnu le style de Dall-E (prononcé Dall-i) ? Ces deux intelligences artificielles génératives développées par OpenAI font fureur depuis leur mise à disposition depuis début 2021 concernant le générateur d’images et fin 2022 pour l’agent conversationnel. Mais afin de bien comprendre ce qu’est l’intelligence artificielle, je vous propose de remonter le temps jusqu'aux prémices de cette technologie qui n’a pas fini de faire parler d’elle.  

En 1956, un séminaire organisé en Angleterre sera considéré comme l’événement fondateur de l’intelligence artificielle. À l’issu de ce qui ressemble plus à un atelier de travail qu’à des conférences, John McCarthy devient l’heureux père de l’appellation de cette nouvelle discipline. Cependant, au-delà du terme, il est tout de même assez difficile de dire quand l’intelligence artificielle a éyé utilisée pour la première fois. Dès la formulation d’un calcul dans un objet qui n’est pas le cerveau biologique ? Le début de l’histoire pourrait donc se situer au fondement matériel de l’intelligence artificielle, c’est-à-dire avec l’apparition des premiers calculateurs vers 1940. 

Au fil des années, les systèmes d’intelligences artificielles évoluent progressivement. Cela va des machines résolvant de simples calculs, vers des algorithmes et des programmes effectuant des calculs complexes, trouvant des solutions plus rapidement que l’être humain. Plusieurs sous-domaines d’intelligences artificielles se sont développés, plus ou moins performants. Celui qui marque les esprits aujourd’hui encore est l’apprentissage automatique, connu également sous la traduction anglaise de Machine Learning. En 1959, le terme est employé pour la toute première fois par Arthur Samuel, avec son programme créé en 1952 capable d’apprendre à jouer aux dames. 

L’apprentissage automatique n’est plus seulement un algorithme résolvant un problème à la suite d’une programmation faite en amont, mais un système qui apprend et s'améliore grâce à l'expérience. Pour fonctionner, il a besoin de données structurées, déjà catégorisées. Le système est ensuite optimisé en fonction des retours de l’informaticien pour améliorer ses classifications. Ainsi, un algorithme servant à différencier des images de chiens et de chats a besoin d’en « voir » un certain nombre et fera des erreurs au départ. Mais à force d’entrainement et d’intégration de données il ne se trompera plus. L’apprentissage automatique donne à la machine l’une des fonctions que nous imaginions exclusive aux êtres vivants : l’apprentissage. 

Cependant, passé ces premiers succès et faute de nouveautés, la fin du XXe siècle résonne tristement comme « l’hiver de l’intelligence artificielle ». Il faudra attendre les années 2000 pour qu’elle sorte du placard avec l’entrée fracassante de l’apprentissage profond, plus connu sous son appellation anglaise Deep Learning. Cette célèbre branche de l’apprentissage automatique va encore plus loin en créant des modèles basés sur les processus de pensée de notre cerveau.  
 

Lorsque des données sont introduites dans un algorithme d’apprentissage profond, le système les analyse sans règle ou caractéristique spécifique donnée par le programmateur. Il utilise ces données brutes pour faire des prévisions, en déduire de nouvelles données et au fur et à mesure, il construit ses propres règles. Le terme « profond », « deep » fait référence aux nombreuses couches que le réseau neural accumule au fil du temps à mesure qu’il progresse dans son apprentissage et améliore ses performances. Chaque niveau du réseau traite des données brutes d’une manière spécifique et informe ensuite la couche suivante : la sortie d’une couche devient l’entrée de la couche qui suit. Les « mauvaises » réponses sont éliminées et renvoyées vers les niveaux précédents pour que l’algorithme ajuste le poids des connexions entre les neurones et adapte le réseau aux besoins. Ainsi, pour comprendre un texte, le système apprend dans un premier temps à reconnaitre les lettres, puis dans la couche suivante les mots, ensuite les phrases etc. À chaque couche du réseau correspond un aspect particulier des données à analyser, s’appuyant sur les connaissances acquises dans les couches précédentes. 

Deux facteurs majeurs expliquent l’essor de l’apprentissage profond : l’accès à un volume massif de données grâce à internet et la puissance de calcul des ordinateurs. La formation des réseaux de neurones prend du temps et nécessite l’ingestion de grandes quantités d’informations, bien plus qu’en apprentissage automatique traditionnel. Cependant, puisque les données n’ont pas besoin d’être étiquetées, l’intervention humaine est réduite. Pour apprendre à reconnaitre un chat, le système doit s’appuyer sur des milliers d’images, accessibles grâce à une simple recherche internet. L’efficacité des ordinateurs aidant, les nombreux portraits sont ensuite traités et reconnus très rapidement sans qu’il ne faille configurer le système à reconnaître des caractéristiques telles que la forme des oreilles, des yeux ou des pattes.  

Séréna Villata, chercheuse d'Université Côte d'Azur, explique que de nombreux progrès récents en matière d’intelligence artificielle ont été rendus possibles par l’apprentissage profond. Parfois controversées, les nouvelles technologies qui en découlent inondent déjà nos environnements et impactent nos quotidients : assistants vocaux, conduite autonome, analyse d’images médicales, etc. « L’objectif n’est plus de savoir si c’est bien ou mal, mais comment faire pour en tirer la meilleure utilisation » conclut la chercheuse.  


Article réalisé dans le cadre du premier numéro d'INTERVALLE, le magazine du service Science et Société, grâce à la participation de :

  • Séréna Villata, directrice de recherche CNRS au laboratoire Informatique, Signaux et Systèmes de Sophia Antipolis - I3S - d’Université Côte d’Azur et du CNRS, et membre de l'équipe Wimmics d’I3S et d’Inria. Elle est également directrice adjointe de l'Institut Interdisciplinaire d'Intelligence Artificielle Côte d'Azur - 3IA Côte d'Azur et titulaire de la chaire « Argumentation artificielle pour les humains » du 3IA Côte d'Azur.