Relire « Intelligence Artificielle, mythes et limites » d’Hubert Dreyfus, professeur à l’Université de Berkeley, a plusieurs mérites. Premièrement, il nous rappelle que l’Intelligence Artificielle est née avec l’informatique elle-même dans les années 1950. Deuxièmement, qu’avant d’être un débat technique, elle fut un débat philosophique pour de ne pas dire une querelle partisane. Troisièmement, comme cela est souvent le cas, tout le monde avait raison et avait… tort !
C’est en 1955, l’année où le mot ordinateur est inventé, que le Professeur Herbert A. Simon – Professeur à l’Université Carnegie-Mellon, Prix Nobel d’économie en 1978 – prédisait que dans les dix ans à venir 1) un ordinateur battrait le meilleur joueur d’échec au monde 2) les traités de psychologie pourraient se résumer à des algorithmes 3) un ordinateur découvrirait un nouveau théorème mathématique.
Il a fallu attendre quelques décennies de plus pour le postulat #1 se vérifie et on ne peut pas dire que DeepBlue ait gagné dans les conditions que H. Simon avait imaginées. Je laisse le lecteur apprécier la véracité des deux derniers, n’étant pas moi-même convaincu. Ce qui est néanmoins intéressant est la dimension anthropomorphique de cette démarche bien que les précurseurs de l’IA s’en défendent. L’objectif plus ou moins avoué était de démontrer qu’un « calculateur » pouvait être aussi, voire plus, intelligent que l’homme. Ce qui conduit au deuxième débat, plus philosophique voire politique.
Philosophique, car comme le rappelle H. Dreyfus, l’idée n’est pas nouvelle : depuis Platon, de nombreux philosophes estiment que « le raisonnement n’est que calcul » et que l’intelligence humaine est « calculable ». Philosophie à laquelle s’opposent ceux qui pensent l’inverse soit par pragmatisme et humilité (la vie est pleine d’exemples qui démontrent le contraire) soit par conviction religieuse comme Jacques Arsac qui signe une note « L’informatique et le sens » à la fin de l’ouvrage.
Cette donnée historique va profondément marquer les esprits notamment ceux de la communauté scientifique qui, par essence, sont rationalistes.
A la fin des années 1980, beaucoup de travaux ont été abandonné par manque de moyens et surtout parce que les promesses faites étaient loin d’être tenus. C’était la crainte exprimée par Jacques Pitrat, qui est un des « pères » de l’IA en France, dans sa discussion à la fin du livre « Quelques remarques sur… ».
Ce qui n’a pas empêché de nombreuses équipes de poursuivre leurs travaux « sans fanfare ni trompette » mais avec des résultats tangibles. Ce qui nous conduit au troisième point : tout le monde avait raison et tort. Pour une raison simple : l’objectif de l’IA n’est pas de construire « un ordinateur plus intelligent que l’homme » mais plus modestement de reproduire des raisonnements faits par des êtres humains et dont tout le monde admet qu’ils requièrent des connaissances et une certaine forme d’intelligence. C’est ce que nous observons actuellement avec les Chatbots, les logiciels utilisant des technologies de Machine Learning, les programmes type WAZE capables d’optimiser un trajet en tenant compte de l’évolution des conditions de circulation, etc.
Est-ce que la somme de ces intelligences parcellaires donnera une intelligence supérieure à celle des êtres humains (qui d’ailleurs n’ont pas tous le même niveau d’intelligence) ? Bonne question que nous laissons aux philosophes !
Chez QWAM, nous travaillons à faire en sorte que les technologies d’Intelligence Artificielle s’adaptent à l’analyse de données textuelles. Et c’est déjà une belle ambition.