Les craintes stériles d’une Intelligence Artificielle malveillante

Les recherches en Intelligence Artificielle inquiètent de plus en plus de monde : Stephen Hawking, Bill Gates ou encore Elon Musk ont manifesté leur crainte d’un avenir à la Terminator dans lequel une IA menacerait d’extinction l’humanité. En janvier, une pétition du Future of Life Institute appelant à la prudence a réuni plusieurs centaines de signatures. Pourtant, le consensus chez les experts en IA est tout autre.

Andrew Ng est le fondateur du projet d’apprentissage automatique Google Brain en 2011 et le directeur scientifique pour le moteur de recherche chinois Baidu. Il voit dans les débats sur les risques d’IA malveillante une perte de temps :

« Je ne travaille pas à empêcher qu’une IA devienne maléfique pour la même raison que je ne travaille pas à combattre la surpopulation sur la planète Mars. »
« Peut-être que dans plusieurs siècles, peut-être que dans plusieurs millénaires – je ne sais pas – peut-être qu’il y aura une IA qui deviendra maléfique. Mais c’est tellement lointain que je ne sais pas comment travailler de manière productive sur ça »

Au lieu de se focaliser sur l’éventualité d’un risque à long terme, il semble plus important actuellement de porter notre attention sur la capacité de l’Intelligence Artificielle à bouleverser à court terme nos sociétés, comme avec la révolution annoncée des véhicules autonomes. L’écrivain Sam Harris imagine un risque d’apocalypse plus crédible et préoccupant que les robots tueurs : quelles tensions géopolitiques apparaîtraient quand les recherches en IA d’une des grandes puissances (Chine, Russie, USA) seraient sur le point d’aboutir ? N’y aurait-il pas un conflit « préventif » avant qu’une telle super-arme ne soit développée ?

Source : fusion.net
Crédit photo : Campaign to Stop Killer Robots / Flickr (CC BY 2.0)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *