3D rendering of a female robot looking sad and crying, image 1. Dark background.

Dans le secret des algorithmes

À quoi servent vraiment les algorithmes ? Voyage dans l’univers intrigant de l’intelligence artificielle… Par Frederic Bechet, Professeur d'Informatique à l'Université d'Aix Marseille et Directeur du Laboratoire d'Informatique et Systèmes (CNRS)

Commencer

Le terme algorithme possède une longue histoire, né au Xe siècle au terme d’une latinisation du nom du mathématicien arabe Al-Khwârizmî, qui recensa et étudia de nombreuses méthodes de calcul pour en comparer les propriétés, faisant de lui, avant l’heure, l’un des pères de l’informatique. Un algorithme peut se définir comme une séquence de calculs élémentaires permettant d’obtenir un résultat. Tout collégien qui s’est frotté au calcul du plus grand commun diviseur de deux nombres (PGCD) par la méthode d’Euclide a manipulé l’un des plus anciens algorithmes du monde, peut-être sans le savoir ! Mais jusqu’au début du XVIIe siècle, faute de machines, les fameux algorithmes demeuraient de fastidieuses suites d’opérations réalisées manuellement. Tout va basculer au cours du même siècle avec la création des premières machines à calculer mécaniques — dont la « Pascaline » inventé par Blaise Pascal — puis, plus tard, avec l’essor des machines dites « programmables » permettant de changer à l’infini la séquence de calcul exécutée, sur le modèle des premiers métiers à tisser dotés de cartes perforées. Dans ce bouillon créatif, c’est Ada Lovelace, comtesse londonienne, qui deviendra en quelque sorte la première geek de l’histoire en écrivant au XIXe siècle les programmes de la « machine analytique » conçue par Charles Babbage.

Le bond théorique d’Alan Turing

Malgré ces travaux prometteurs et le foisonnement de machines permettant d’effectuer des calculs automatiquement, il manquait encore une théorie mathématique qui permette de définir exactement quelles étaient les opérations élémentaires qu’une machine pourrait exécuter et quels étaient les types de problèmes qui pourraient être résolus grâce à des algorithmes enchaînant ces opérations élémentaires. C’est Alan Turing, mathématicien anglais né en 1912 qui a comblé ce vide en 1936 en posant les bases de l’algorithmique moderne à travers la définition de ce qui allait être appelé « la machine de Turing ». Si le film Imitation Game se concentre principalement sur sa contribution au décryptage du code Allemand « Enigma » durant la Seconde Guerre mondiale, c’est bien grâce à ses travaux théoriques qu’il est désormais considéré comme le « père » de l’informatique théorique. Pourtant, il faudra attendre encore pour mettre pleinement à contribution les algorithmes grâce à un objet devenu si familier pour nous… En 1945 les travaux de Von Neuman aux États-Unis permettront de définir formellement l’architecture des machines électroniques basées sur une représentation binaire de l’information qui vont implémenter les théories algorithmiques de Turing et ses collègues, donnant ainsi naissance à l’un des tout premiers ordinateurs de l’histoire !

Et si la créature échappait à son créateur ?

Wall-E, robot du film éponyme de Walt Disney © Dominik Scythe / Unsplash

Les progrès fulgurants de l’informatique depuis cette période ne vont pas sans inspirer quelques craintes. Et si la créature échappait à son créateur ? Appréhension illustrée par la figure de Frankenstein ou, plus récemment, par la terrifiante IA « Skynet » de la série de films Terminator ! Si cette peur recèle une part évidente de fantasme, certains développements récents de l’informatique, et notamment ceux que l’on regroupe sous le terme d’« intelligence artificielle » peuvent donner substance à cette angoisse. Mais pour en juger il nous faut revenir sur quelques notions de base. Tout comme une voiture, un avion, un réfrigérateur ou une perceuse électrique qui remplissent des fonctions bien précises définies par leurs concepteurs et exécutent des actions choisies par leurs utilisateurs, l’ordinateur est un outil dont les séquences d’actions sont les fameux algorithmes. Il ne dispose d’aucune « autonomie ». Considérons maintenant une famille particulière de machines : les machines conçues pour prendre des décisions en fonction d’un contexte extérieur à elle-même. C’est par exemple le cas du thermostat qui déclenche le chauffage. Dans ce cas, la machine utilise deux informations pour prendre une décision : la valeur donnée par l’utilisateur pour actionner le chauffage si la température descend au-dessous d’une certaine valeur et un capteur de température. La machine dispose donc d’une autonomie limitée consistant à prendre la décision d’allumer ou d’éteindre le chauffage, mais le processus qui sous-tend cette décision est parfaitement connu : une simple comparaison entre deux valeurs. Les choses deviennent plus complexes si l’on veut développer un thermostat « intelligent », c’est-à-dire un thermostat qui simulerait les décisions que prendrait un utilisateur en fonction de son ressenti de la sensation de « froid » ou de « chaud ». Chacun peut avoir sa propre perception de la température en fonction de son activité, de son âge, de son éducation, etc. Et une simple règle se basant sur la température courante ne permet pas de prendre en compte tous ces facteurs. Pour réaliser un tel thermostat on pourrait essayer d’écrire un algorithme prenant en compte de nombreux paramètres sur les conditions météorologiques et les données biométriques des utilisateurs, mais décrire par des règles logiques une décision aussi subjective que le « chaud » et le « froid » n’est pas simple. Une autre solution proposée par la branche de l’informatique s’intéressant à l’apprentissage statistique consiste d’une part à collecter des données en grand nombre du phénomène que l’on veut modéliser et d’autre part à construire un modèle « apprenant » à partir de ces données. Dans le cas de notre thermostat intelligent, on pourrait faire l’expérience suivante (attention il s’agit d’un exemple pour illustrer notre propos, absolument pas d’une solution réaliste à mettre en œuvre !) : pendant une année, le thermostat est déclenché manuellement par les habitants d’un logement, et l’on collecte à chaque instant tous les paramètres liés à la fois à la météo (avec des capteurs météorologiques), à l’heure et à la date du jour, et enfin à l’identité et aux activités des personnes présentes à un moment donné dans chaque pièce (avec par exemple des montres connectées). Chaque fois qu’un thermostat est actionné manuellement par un utilisateur pour déclencher ou arrêter le chauffage, cette information est stockée comme étant une « décision » prise étant donné les valeurs de tous les paramètres mentionnés. Au bout d’un an, un modèle d’apprentissage statistique va pouvoir être entraîné à prédire les décisions déclenchement/arrêt du chauffage grâce aux données collectées et à la « supervision » consistant à connaître précisément les décisions des utilisateurs à chaque instant. Une fois l’entraînement réalisé, le modèle pourra ensuite prédire automatiquement s’il doit allumer ou non le chauffage, et pourra ainsi anticiper les sensations de « froid » ou « chaud » des habitants du logement de manière bien plus fine qu’un thermostat « classique ».

Les machines « apprenantes »

La question demeure : ce thermostat « intelligent » a-t-il appris son comportement de manière autonome ? D’un côté l’algorithme qui permet d’apprendre le modèle à partir des données et de prendre une décision en fonction du modèle appris est parfaitement décrit, et la machine l’exécute sans une once d’autonomie. D’un autre côté, la décision prise par la machine de déclencher ou d’éteindre le chauffage n’est pas basée sur une règle explicite écrite par le concepteur du système mais plutôt sur un modèle statistique (en ce moment, ce sont les réseaux de neurones dits « profonds » qui ont le vent en poupe) dont il est presque impossible de déchiffrer le raisonnement. On peut donc parler ici d’une certaine « autonomie », mais fortement limitée par le fait que le but du processus d’apprentissage est de reproduire la supervision humaine, c’est-à-dire les décisions que prendraient des humains dans la même situation. Si la machine se trompe et prend une mauvaise décision (comme pousser le chauffage en plein été !) ce n’est pas parce qu’elle « échappe » à son créateur, mais plutôt à cause d’un dysfonctionnement dû par exemple à une situation imprévue. Ces machines « apprenantes » sont à la base de la nouvelle « révolution de l’IA ». Le modèle dominant consistant à collecter des données auxquelles s’ajoute une supervision humaine pour apprendre un modèle capable de prendre des décisions simulant le comportement humain. Les logiciels de reconnaissance faciale, de traduction automatique ou encore les assistants personnels avec lesquels on peut piloter son téléphone ou sa télévision intègrent des composants basés sur ce principe.

Bienvenue dans le règne de « l’auto-supervision »

Voir tous les articles en totalité

Article Précédent

« L’importance des élus de proximité » Dominique Dhumeaux

Article Suivant

Élections régionales 2021, petite campagne, gros enjeux