L’intelligence artificielle devient de plus en plus intelligente… et de plus en plus faillible

Rédigé le 11 septembre 2017 par | Nouvelles technologies Imprimer

IA intelligence artificielle Quotidienne croissanceNous avons régulièrement l’occasion de consacrer des Quotidiennes aux avancées de l’ intelligence artificielle (IA). Il faut dire que les progrès dans le domaine sont constants et spectaculaires.

Les capacités de l’IA sont entrées dans une phase de croissance exponentielle, et les limites que nous tenions pour acquises volent en éclat les unes après les autres.

Généralement, ses applications sont inoffensives et ont pour fonction première de nous faciliter la vie. Qu’il s’agisse de gagner aux échecs, au jeu de go, de proposer des publicités correspondant à nos envies ou d’anticiper les ralentissements routiers, l’IA offre globalement une aide sympathique à nos activités quotidiennes.

Nous nous intéressons aujourd’hui au revers de la médaille : ses dangers.

Comme tous les outils, l’IA peut être utilisée à mauvais escient. Elle est même, nous allons le voir, intrinsèquement faillible. Jusqu’à présent, les possibilités limitées des algorithmes mettaient un frein naturel à leur capacité de nuisance; avec les récents progrès viennent de nouvelles inquiétudes.

Où se situent les derniers progrès de l’IA ?

C’est dans le domaine du classement que l’intelligence artificielle a le plus évolué ces dernières années.

Lors de la naissance de l’informatique, la caractérisation de jeux de données (sons, images, variations récurrentes dans des mesures) semblait réservée pour toujours au cerveau humain.

Beaucoup voyaient même dans cette tâche une des caractéristiques primordiales notre intelligence et la suprématie incontestable de l’homme sur la machine.

Les algorithmes sont devenus très performants pour effectuer des classifications. Les voitures autonomes en sont l’exemple parfait : elles sont désormais capables de scanner avec une efficacité supérieure à l’être humain les différents éléments d’une rue. Les systèmes embarqués font parfaitement la différence entre un panneau de signalisation, un passant qui flâne et un enfant qui court. La vitesse de traitement est bien entendu sans commune mesure avec notre cerveau biologique.

Nous avons accepté depuis longtemps que les machines calculent plus vite que nous. Nous avons accepté leur force et leur endurance supérieures.

Lorsque vous prenez l’avion, vous confiez votre vie à une machine bien plus qu’au pilote. A part lors des phases de décollage et d’atterrissage, le pilote ne touche quasiment plus les commandes. Les logiciels embarqués sont chargés de calculer la trajectoire, adapter la puissance des moteurs, et maintenir l’avion dans sa position idéale.

Ils travaillent avec des règles précises que les ingénieurs ont fixées lors de la conception de l’avion.

De même, ce n’est plus la force du pilote qui déplace les volets présents sur les ailes mais des systèmes électromécaniques. Leur comportement est parfaitement prévisible.

Les algorithmes de classification par IA ont un fonctionnement différent. En étant capable d’effectuer des tris sur des critères internes, leur comportement s’apparente à de la prise de décision autonome.

La différence peut sembler subtile ; elle est en fait fondamentale. Les machines sont désormais capables de se tromper.

Pourquoi l’intelligence artificielle n’est-elle pas infaillible ?

L’absence de prédictibilité est au coeur de toutes les inquiétudes. Si l’aéronautique a pu s’appuyer autant sur des logiciels et des systèmes mécaniques, c’est parce que les lois de la physique sont connues et constantes dans le temps. Les logiciels et systèmes mécaniques embarqués dans les avions sont faits pour avoir les mêmes comportements face à des situations similaires : on dit qu’ils sont prédictibles.

Un logiciel, s’il est exempt de bugs, aura toujours le même comportement. Vous n’allumez pas votre ordinateur un matin pour trouver sans raison votre navigateur internet transformé en traitement de texte. Le moteur installé dans votre voiture tourne toujours dans le même sens.

Pourtant, lorsqu’une IA effectue une classification, l’opérateur humain ne sait pas nécessairement quel sera le résultat. Même son concepteur, s’il était présent, ne saurait pas à coup sûr prédire la décision prise par le logiciel.

La question peut sembler triviale dans des cas les plus communs. Lorsqu’une IA doit déterminer si une photo représente un chat ou un chien, n’importe quel opérateur sait immédiatement quelle est la bonne réponse. Il est tentant d’imaginer qu’il suffit d’ajouter une supervision humaine aux IA pour s’assurer de leur bon fonctionnement.

Les problèmes arrivent lorsqu’une intelligence artificielle est utilisée à des fins de classification complexe. Dans ce cas, ajouter une étape de contrôle humain est inutile.

Tout est question d’apprentissage

Le principe-fondateur de l’intelligence artificielle est de laisser le logiciel établir ses propres critères de classification.

Dans un premier temps, le logiciel est dans une phase d’apprentissage. Ses concepteurs lui présentent des jeux de données en lui indiquant la classification attendue.

Reprenons l’exemple du tri entre photos de chiens et chat. Pour élaborer une telle IA, il faut de nombreuses photos, prises sous différents angles, de félins et de canidés de races variées.

Les concepteurs injectent dans le logiciel les photos les unes après les autres en indiquant à quelle catégorie elles appartiennent.

Le logiciel « se débrouille » pour déterminer des critères lui permettant d’arriver aux mêmes classifications que celles indiquées par les informaticiens… Et ces critères n’ont aucune raison d’être les mêmes que les nôtres !

Une fois cette phase terminée, le logiciel est testé sur d’autres données pour s’assurer que les classifications sont toujours correctes. Il s’agit de la phase de validation.

Lorsque les performances du logiciel sont acceptables, il est peut alors être utilisé. Comme pour l’éducation d’un enfant, les critères de décision d’un logiciel à apprentissage dépendent donc des valeurs qui lui ont été inculquées (les données initiales). Comme un être humain, ces critères restent internes donc non vérifiables par les tiers.

Parfois, les IA ont des fulgurances et découvrent des critères que les chercheurs eux-mêmes n’avaient pas identifiés.

Parfois, un biais dans le jeu de données est surinterprété par l’IA.

Imaginez par exemple que, par hasard, toutes les photos de chien présentées à notre IA comportent un coin de ciel bleu alors que les photos de chat en sont dépourvues. Le logiciel pourrait, à tort, considérer que la présence de ciel bleu indique que la photo contient un chien.

Si les données de validations ont le même biais (du ciel bleu sur les photos de chien), les opérateurs trouveront cette IA décidément très performante… Alors qu’il est évident que son critère de choix est aberrant et que les futures classifications seront fantaisistes.

Dans la réalité, les erreurs aussi grossières sont détectées lors de la phase de validation et les IA sont fiables à 99 %. Le reste du temps, elles se trompent sans raison évidente. Rendez-vous demain pour découvrir les conséquences de cette faillibilité. Elles sont, aux dires des spécialistes, potentiellement bien plus graves que nous n’en avons conscience.

Etienne Henri
Etienne Henri
Il sélectionne les dossiers d’investissement en financement participatif du service Profits Réels.

Etienne Henri est titulaire d’un diplôme d’Ingénieur des Mines. Il débute sa carrière dans la recherche et développement pour l’industrie pétrolière, puis l’électronique grand public. Aujourd’hui dirigeant d’entreprise dans le secteur high-tech, il analyse de l’intérieur les opportunités d’investissement offertes par les entreprises innovantes et les grandes tendances du marché des nouvelles technologies.

Laissez un commentaire