Nous avons eu l’occasion de le souligner à plusieurs reprises, les questions d’éthique et plus généralement de politique sont aussi au cœur des réflexions sur l’Intelligence artificielle. Cédric Villani, dans son rapport « Donner un sens à l’Intelligence artificielle », s’interroge d’ailleurs sur l’impact qu’elle peut avoir sur l’emploi.

Cette réflexion va bien au-delà d’une compétition homme/machine sur le terrain du travail, débat qui existe depuis que les sociétés modernes se sont industrialisées. Les 19e et 20e siècles ont eu leur « lot de joies et de peines » sur ce thème et bien que les relais de poste aient disparu, nos sociétés se sont globalement enrichies pour le bien d’une grande majorité grâce aux apports des progrès technologiques.

Ces phénomènes de rupture ont souvent été créé par l’introduction d’une nouvelle technologie: lorsque les machines numériques, les tours, les presses et autres robots d’assemblage sont arrivés au début des années 1980, les ouvriers mécaniciens ont vu leur travail considérablement évoluer pour ne pas dire disparaître.

Dans le cas de l’IA, il y a deux spécificités: d’une part, le continuum de ladite « Intelligence artificielle » et d’autre part, la question de « qui décide »: l’homme de la machine.

Le premier cas est assez simple: il existe à l’évidence une continuité entre des machines « un peu intelligentes » comme, par exemple, les robots d’assemblage de l’industrie automobile programmés pour exécuter les mêmes tâches tout en étant capables de détecter une anomalie par analyse et apprentissage d’images. A l’autre bout du spectre, des robots capables d’analyser une question et de préparer une réponse intelligente à un problème complexe. Tous les acteurs de l’IA ont des réalisations de cette nature. Dans ce cas, la compétition homme/machine va bien au-delà de l’exécution de tâches répétitives.

Le deuxième cas est plus complexe, la question du décideur se posant certes pour les robots mais plus généralement pour tout dispositif pouvant porter atteinte à l’intégrité humaine.

Prenons par exemple celui des voitures autonomes. Que décidera-t-elle lorsqu’un enfant traversera la rue sans regarder ? Soit, elle se projettera comme un mur pour éviter l’enfant mais au risque de tuer ses occupants ou inversement décidera-t-elle de « sacrifier » l’enfant pour préserver les personnes à son bord qui lui ont fait confiance. Sans prendre en compte le fait que la compagnie d’assurance pourrait avoir un avis sur la question.

Un autre exemple est celui du robot chirurgien qui ne manquera pas d’apparaître dans les années qui viennent: là aussi, les dilemmes seront nombreux notamment lorsqu’une opération se passera mal et où la raison (et sans doute quelques considérations financières) commandera de renoncer alors qu’un être humain ira jusqu’au bout.

Et enfin, cette situation dont certains ont déjà fait l’expérience lorsqu’un automate vous confirme en quelques secondes une autorisation de crédit. Si cette confirmation se transforme en infirmation, pour des raisons parfaitement objectives, nous regrettons le temps du chargé de compte qui connaissait son client. Celui-ci lui donnait cette autorisation parce qu’il avait confiance. Là aussi, le problème posé est « qui décide » et cette dernière situation n’est absolument pas futuriste !

Voilà quelques beaux sujets de réflexion avant les vacances pour animer des soirées d’été. L’occasion aussi de souhaiter à nos lecteurs une agréable coupure estivale.