Les nouveaux oracles (BERTHET – Eurasia Prospective) 1/2

Vincent Berthet, vous venez de co-signer avec Léo Amsellem un ouvrage sur les algorithmes et la prédiction en matière de crime. Pourquoi avoir choisi ce thème maintenant ?

Nous avons choisi de traiter ce thème qui s’impose aujourd’hui comme un sujet de première importance. Or nous avons constaté qu’en France, le débat public sur ce sujet n’est pas toujours satisfaisant dans la mesure où l’idéologie prend souvent le pas sur une approche scientifique et pragmatique. Il y a une mystique autour de l’IA et des algorithmes qui est au détriment d’une analyse rationnelle de ces outils. Dans le livre, nous proposons une telle analyse en examinant de façon aussi objective que possible leurs capacités, leurs résultats, et leurs risques. Face aux défis sécuritaires et judiciaires auxquels elle fait face, la France ne peut faire l’économie d’une réflexion sur ces outils, leurs risques, la proportionnalité dans leur mise en œuvre et la nécessaire régulation ou encadrement qui doivent accompagner cette utilisation.

Vous mentionnez à plusieurs reprises de votre ouvrage le film Minority Report (2002) de Steven Spielberg. Certaines technologies apparaissent moins révolutionnaires aujourd’hui qu’à l’époque. Faut-il encore le regarder aujourd’hui pour comprendre vers quelle direction on tend ?

Lors de sa publication en 1956, le livre de Philip K. Dick – dont est issu le film – apparaissait comme une véritable dystopie. Il est intéressant de constater qu’aujourd’hui, le caractère fictionnel de Minority Report s’est quelque peu estompé, notamment lorsque l’on voit le système de notation sociale déployé par la Chine et comment l’IA y contribue. Ceci étant dit, la réalité n’a (heureusement) pas rattrapé la fiction et on ne peut affirmer que les unités de police Précrime et les scanners oculaires constituent l’horizon vers lequel nous tendons en matière de sécurité. Mais reparlons-en dans 30 ans !

โหลดหนังใหม่: Minority Report (2002) หน่วยสกัดอาชญากรรม ...

Entre l’homme et la machine, la précision est de plus en plus l’apanage de la seconde. Comment comprendre les nombreuses critiques adressées à l’IA ?

Les recherches en sciences cognitives sur la comparaison entre humain et machine, qui datent des années 1960, montrent effectivement que d’une façon générale, la machine (règle, formule, algorithme) tend à être plus performante que l’humain. On pourrait penser que l’IA et le Big Data amplifient cet avantage. Mais ce n’est pas toujours le cas, pour deux raisons en particulier. La première est que les solutions d’IA n’échappent pas à la règle de Pareto (80 % des effets sont obtenus avec 20 % des efforts) : le gain de performance qu’elles permettent par rapport aux outils statistiques classiques (comme la régression linéaire) est souvent anecdotique. La seconde, bien documentée aujourd’hui, est que les algorithmes peuvent présenter des biais, auquel cas l’IA les fait passer à l’échelle et deviennent alors des « armes de destruction massive » pour reprendre les termes de Cathy O’Neil dans son ouvrage Weapons of Math Destruction (2016).