Comment fonctionne l'intelligence artificielle ?

23 juin 2020

5 min

Serge Abiteboul interview predictice
Entretien avec Serge Abiteboul, auteur de l’ouvrage Le temps des algorithmes : « Le problème de l'intelligence artificielle n'est pas un problème technique, c'est un problème moral ».

Pouvez-vous nous dire quelques mots sur votre parcours ?

J’ai fait des études d’informatique. J’ai commencé en France, avec un diplôme d’ingénieur à Télécom Paris. Puis, j’ai fait un master en Israël, au Technion et une thèse à Los Angeles, à USC. Après ça, je suis rentré en France faire de la recherche à l’Inria. Depuis, j’ai été professeur à Stanford pendant quelques temps, puis j’ai créé une start-up qui s’appelle Xyleme mais qui est maintenant une boîte américaine. J’ai quitté l’Inria récemment pour être membre du collège de l’ARCEP.

 

Voyez-vous une différence dans la façon dont évolue le domaine de l’informatique en France et la façon dont il évolue aux Etats-Unis et en Israël ?

Ce sont des pays très dynamiques, industriellement mais aussi scientifiquement. A chaque fois, c’est une excellence scientifique qui détermine des succès économiques. Enfin, c’est le cas en Californie. Je ne dirais pas aux Etats-Unis en général, mais en Californie et en Israël, oui. En France, on a un très bon niveau scientifique et donc de très belles startup. On a peut-être moins de grands succès économiques dans ce domaine mais on a quand même de belles entreprises.

 

LIRE AUSSI >> IA : quelle proposition de réglementation européenne ?, entretien avec Aurore Hyde, maître de conférences à l'Université de Rouen

 

Je crois me souvenir que vous avez dit sur France Culture que le problème de la France subissait un brain drain, une perte de ses ingénieurs au profit d’endroits tels que ceux-là.

Il y a un peu de cela mais je dirais qu’il y a, si l’on compare au modèle californien, plus qu’une perte de nos ingénieurs, une incapacité à attirer les meilleurs mondiaux. Quand vous êtes en Californie dans les laboratoires de recherche de Stanford ou Berkeley ou dans les grandes entreprises comme Google, il y a énormément de gens qui viennent de l’étranger, et qui sont les meilleurs de l’étranger. Je dirais qu’on s’acharne peut-être sur cette idée qu’il faut garder nos bons éléments. C’est vrai et pour ça il faut leur donner de bons environnements de travail, mais à mon avis le vrai problème c’est de faire venir, notamment en thèse, les meilleurs du monde entier, ce que les américains arrivent à faire de façon brillante.

 

Quel est votre domaine de spécialisation ?

Je suis informaticien. J’ai travaillé dans beaucoup de domaines de l’informatique, aussi bien dans des aspects techniques proches de la logique que dans des aspects très « systèmes ». Le point commun de beaucoup de mes recherches est que ces programmes fonctionnent avec des données. J’ai beaucoup travaillé sur la question de la gestion de la donnée.

 

La donnée peut être structurée sous forme de tableaux à deux dimensions comme dans les bases de données relationnelles, ou sous forme de système d’informations comme le web. Ce peut aussi être, sujet plus récent, des connaissances, plus structurées, extraites par exemple à partir de textes. Les algorithmes ne travaillent pas dans l’abstrait, ils travaillent sur des données, des informations, des connaissances. C’est là-dessus que se sont focalisées mes recherches.

 

Pourriez-vous s’il vous plaît nous expliquer le principe du machine learning ?

Je vais commencer par faire de la publicité pour un livre que j’ai écrit récemment avec Gilles Dowek, qui s’intitule Le temps des algorithmes, et dans lequel nous essayons d’expliquer tout ça. Nous le faisons parce que nous pensons qu’il y a un déficit global de compréhension de cette science et de ces techniques. C’est également pour cette raison que Gilles et moi militons pour l’enseignement de l’informatique à l’école, au collège et au lycée. Maintenant que la publicité est faite, on peut passer à autre chose !

 

Reprenons du début. Il faut regarder l’ensemble des algorithmes, plutôt que de plonger directement dans ce que sont les algorithmes d’apprentissage.

 

Un algorithme est essentiellement un procédé pour résoudre un problème. La façon dont on sait faire depuis le début des temps et particulièrement depuis le début de l’informatique, c’est d’expliquer toutes les étapes que l’on doit suivre pour résoudre un problème particulier. On est capable de décrire de façon précise des procédés très complexes. C’est ce qu’on fait couramment aujourd’hui, c’est ainsi que l’on résout la majorité des problèmes.

 

Quelques problèmes résistent cependant. Parfois, ça peut être des problèmes qui, en tant qu’humains, nous paraissent relativement simples.

 

Le fait de distinguer un chat d’un chien en est un bon exemple. C’est un problème très simple. N’importe quel enfant apprend à faire ça assez rapidement. Mais si je vous demande de décrire le procédé pour distinguer un chat d’un chien, vous n’allez pas y arriver. Vous n’allez pas me dire « je commence à regarder les oreilles, puis la queue, puis les yeux, et si les yeux sont légèrement en amande (…) », ça n’est pas possible. On ne sait pas différencier un chat d’un chien de cette façon.

 

Alors, qu’est-ce qu’on fait ? Un enfant, on lui montre un chat, puis un chien, puis il pointera du doigt un animal et demandera si c’est un chien ou un chat. Après un certain nombre d’exemples, l’enfant saura reconnaître un chat d’un chien. Au bout d’un moment, l’enfant dispose d’une mémoire d’un certain nombre d’images. Il a inconsciemment développé un modèle mental de ce qu’est un chien et de ce qu’est un chat et il comparera chaque animal qu’il verra à ces modèles. Parfois, il ne saura pas et posera la question.

 

Les algorithmes d’apprentissage (le machine learning en anglais) fonctionnement exactement de la même manière. Quand on ne sait pas décrire un procédé pour résoudre un problème, on prend de nombreux exemples de résolution de ce problème réalisés par des humains (ou des algorithmes d’ailleurs).

 

On fait la même chose pour reconnaître des tumeurs cancéreuses des tumeurs non-cancéreuses. On prend des photos de tumeurs étiquetées par des médecins et un algorithme apprend à discerner la ressemblance d’une tumeur à modèle ou à un autre.

  

Il y a plein de choses dans notre société qui sont faites par des algorithmes classiques (pas d’apprentissage). Un téléphone, par exemple, fait des choses extraordinaires. Il y a cependant aussi beaucoup de choses, comme la traduction automatique qu’on faisait très mal et qu’on a améliorée avec l’utilisation des algorithmes d’apprentissage automatique. On ne savait pas non plus battre les champions d’échecs ou de go et on a développé des techniques grâce auxquelles aujourd’hui on y arrive.

 

De nombreux cabinets d’avocats proposent aujourd’hui des formations au numérique, c’est un vrai choc des cultures ! Pensez-vous que tout le monde devrait apprendre à coder aujourd’hui ?

Absolument. On est dans un monde numérique, et l’apprentissage du code est devenu indispensable, peut-être parce que vous allez l’utiliser dans votre métier mais aussi parce que c’est comme cela que vous allez comprendre le monde dans lequel vous évoluez. Cela sert aussi bien pour une technique dure que pour des sciences humaines telles que le droit. Je pense que les avocats et les juges vont être de plus en plus souvent confrontés à l’utilisation de ces outils. Il faut donc qu’ils les comprennent.

 

Je n’arrête pas de dire à des étudiants, par exemple en droit, de prendre le temps d’apprendre l’informatique, de comprendre le monde numérique. 

 

On parle beaucoup d’apprendre à coder. Il ne faut pas rêver, apprendre à coder c’est rapide, ça prend quelques jours, mais cela ne suffit pas. Le code, ça s’apprend très rapidement. De plus, on peut coder à différents niveaux. Néanmoins, ce n’est pas cela qui importe le plus.

 

Il faut comprendre le monde informatique, le monde dans lequel on vit. Certains problèmes vont se poser dans notre société : le vote électronique, la protection des données personnelles… Pour comprendre tous ces problèmes, il faut avoir une connaissance de l’informatique qui va au-delà du simple apprentissage du code. Il ne s’agit pas de devenir informaticien, mais d’avoir une connaissance de l’informatique suffisante pour comprendre les enjeux et les techniques, pour ne pas passer à côté des opportunités, pour ne pas être bloqué dans ses tâches quotidiennes.

 

LIRE AUSSI >> L’intelligence artificielle, une occasion formidable pour les avocats, entretien avec Didier Martin, senior partner chez Bredin Prat

 

Ces outils vont-ils remplacer les professionnels ou les aider ?

La réalité est qu’aujourd’hui, ces outils ne sont capables que d’aider les professionnels.

 

Il y a énormément de fantasmes sur ce qu’ils peuvent faire. Le moment où ils seront capables de remplacer un juge, de faire un plaidoyer à peu près décent, de comprendre bien quelle stratégie utiliser, c’est dans un futur lointain.

 

Pour l’instant, c’est de la science-fiction. Je ne dis pas que ça n’arrivera pas. Cela arrivera probablement, mais pas de sitôt.

 

En revanche, ces outils peuvent permettre aux professionnels de gagner un temps considérable dans leur travail. Ils peuvent leur permettre de faire mieux leur travail, de se concentrer sur des tâches plus nobles que la simple lecture chronophage de jurisprudence pendant des heures et des heures.

 

C’est formateur de lire de la jurisprudence, bien sûr, mais ces outils permettront de mieux guider cette lecture, de l’encadrer, d’être là en soutien. D’une certaine façon, les professionnels n’ont pas le choix, puisque ceux qui ne s’adaptent pas vont rester en retrait, ils seront moins efficaces, moins performants. Ils vont, excusez l’expression, « dégager »…

 

Cela s’est vu dans d’autres domaines. C’est un choix personnel, mais qui n’est pas tenable sur le long terme.

 

Que conseilleriez-vous aux avocats, aux institutions telles que l’EFB, l’ENM, d’intégrer dans leur formation ?

Je milite pour que tout cela soit appris au lycée. On devrait sortir du lycée en sachant tout ce dont on a besoin, d’être capable d’écrire du code mais aussi de comprendre des notions de base d’informatique, d’avoir une certaine pensée algorithmique. On doit penser différemment, structurer différemment, s’organiser différemment.

 

Idéalement, cela devrait être appris au lycée, mais comme ce n’est pas encore suffisamment fait au lycée, il reste à le faire plus tard.

 

Certains auront besoin d’aller loin dans leur compréhension de l’informatique, s’ils veulent faire de la recherche, produire des outils comme le vôtre mais, comme dans le passé, un honnête travailleur qui fait son métier a juste besoin des bases.

 

Au XIXème siècle et au début du XXème, le monde n’était pas numérique. Dans ce monde-là, on estimait que pour être un honnête travailleur, il fallait connaître un minimum de sciences, un peu de mathématiques, de la physique, de la chimie, de la biologie, ce qu’on vous apprenait à l’école. C’était un peu homéopathique, c’est-à-dire qu’on pouvait à peu près s’en tirer sans trop en connaître. Il y en avait qui se glorifiaient de ne rien comprendre en maths, ce qui n’a aucun sens quand on est bon dans son boulot. Ils arrivaient quand même à faire leur boulot sans.

 

Le monde a changé. La révolution numérique, contrairement à d’autres révolutions industrielles ou autres, est essentiellement une révolution technique, c’est-à-dire que ce sont les outils informatiques qui ont transformé le monde. On ne peut pas du coup se passer de cette technologie, de la comprendre un minimum. On pouvait sans doute être un excellent avocat au XXème siècle en étant mauvais en maths. Je pense que ce sera de plus en plus difficile d’être un très bon avocat dans les temps qui viennent sans comprendre un minimum la technologie sous-jacente.

 

Vous avez déjà parlé de l’idée selon laquelle chacun pense que son métier sera la dernier à être remplacé. Est-ce que vous imaginez un monde dans lequel les algorithmes se programment les uns les autres ?

Je n’imagine pas de limites aux algorithmes par rapport à ce que peut faire un être humain. Je n’en connais pas et à chaque fois que les gens ont dit « on ne pourra pas faire ça avec un algorithme », ils se sont trompés. Mais cette absence de limite est souvent mal comprise : on confond toujours le court et le long terme. On est très loin aujourd’hui de faire ce genre de choses. Cependant, on est capable de remplacer des pans entiers de travaux dans des tas de disciplines. Pour le droit par exemple, c’est de fouiller dans la jurisprudence. Dans mon domaine, qui est celui de l’informatique, on a par exemple des outils qui nous aident à choisir une bonne organisation des données, d’optimiser certains calculs. Ils ne remplacent pas l’informaticien mais ils l’aident dans des tâches un peu simples, répétitives.

 

Dans le moyen terme, la question n’est pas tellement la disparition totale du travail humain mais plutôt la complémentarité de plus en plus forte et intégrée entre le travail des machines et le travail des humains. Il n’y a pas deux mondes qui évoluent en parallèle. Le monde numérique c’est aussi notre monde, c’est la même chose. On travaille dans le même monde.

 

Il y a des métiers qui sont amenés à disparaître au relativement court terme, on sait pratiquement faire des voitures autonomes, on a des caisses automatiques dans les supermarchés. A court ou moyen terme, il va y avoir moins de travail humain et on peut s’attendre à ce que ça vienne plus ou moins vite.

 

Ainsi, deux questions vont survenir :

  1. La complémentarité entre les humains et les machines. Ceux qui devraient le mieux s’en tirer/s’en tireront le mieux sont ceux qui savent tirer profit de la complémentarité avec les machines.
      
  2. La redistribution des richesses. Un problème social va apparaître dès lors que les machines font 90% du travail dans l’économie. Il faut que le résultat de ces machines ne soit pas accaparé par quelques-uns, qu’il soit redistribué à tout le monde.

A plus long terme, la question n’est pas de savoir ce qu’un algorithme pourra faire mais plutôt de définir ce que l’on accepte qu’un algorithme fasse. La question est plus ce que l’on accepte qu’un algorithme fasse. C’est alors un problème d’éthique, de morale.

 

Prenons un exemple :

 

Aujourd’hui, les humains s’occupent des personnes âgées ; on considère que la prise en charge des personnes fragiles fait partie de notre humanité.

 

Si, dans cinq ou cinquante ans, on a développé des robots suffisamment sophistiqués pour le faire, va-t-on s’arrêter de s’occuper des vieux, va-t-on les mettre dans des endroits où des robots s’occuperont d’eux ? Est-ce que c’est le genre de société dont on veut ?

 

Ce n’est pas un problème technique, c’est essentiellement un problème moral.

 

Pour en revenir à la justice, veut-on être jugé par des machines ou veut-on, comme me le disait récemment un avocat, que le justiciable puisse regarder dans les yeux la personne qui le juge ? Parce que le juge est un humain, le justiciable sait que la personne en face de lui peut le comprendre, qu’elle pourrait être à sa place. Là aussi, il s’agit vraiment de savoir ce que veut la société.

 

Et je répète car on entend à peu près n’importe quelle bêtise en ce moment : on est très loin de faire des choses très compliquées. Nos algorithmes sont quand même relativement simplistes. Je parlais tout à l’heure de reconnaissance d’images. Un enfant est capable de reconnaître les chiens au bout de quelques exemples. Il faut des milliers d’exemples à une machine pour faire de même. Il faut laisser le temps à l’informatique : on est une science très récente et il faut que la recherche avance. La recherche en informatique n’a pas cent ans. En cent ans on est passé de « on ne pourra jamais battre un joueur d’échecs » à « on peut battre un joueur d’échecs », « on ne pourra jamais battre un joueur de go » à « on peut battre un joueur de go ». On pensait que jamais on ne pourrait traduire un texte. On commence à le faire de manière raisonnable.

 

LIRE AUSSI >> "Le changement majeur viendra de l’intelligence artificielle", entretien avec Hervé Pisani, managing partner chez Freshfields
Picture of Louis Larret-Chahine
Louis Larret-Chahine

Co-fondateur de Predictice, avocat de formation, Louis enseigne dans plusieurs universités.

Accueil  ›   Dossiers  ›  Comment fonctionne l'intelligence artificielle ?

Chaque mois, retrouvez l’essentiel de l’actualité juridique analysée par les meilleurs experts !