22 août 2017

Tout s'explique

Alerte sur les robots tueurs

Pourquoi des chefs d’entreprise s’inquiètent-ils ?

126 chefs d’entreprises de 26 pays ont publié dimanche une lettre ouverte alertant contre les risques des armes autonomes. Parmi eux figurent Elon Musk, patron du constructeur de voitures électriques Tesla et de l’entreprise spatiale SpaceX, et Mustafa Suleyman, cofondateur de la société britannique DeepMind, détenue par Google et spécialisée dans l’intelligence artificielle. Selon les signataires, une fois développées, ces armes (robots, chars, drones, etc.) capables de tuer sans intervention humaine grâce à des technologies d’intelligence artificielle « permettront aux conflits armés d’avoir lieu à un degré jamais atteint ». Le texte réclame leur interdiction, au même titre que les mines antipersonnel ou les armes chimiques.

Où en sont les modèles d’armes autonomes ?

Selon le chercheur australien Toby Walsh, beaucoup existent déjà à l’état de prototype et leur adoption n’est qu’une question d’années. En juillet, le fabricant russe Kalachnikov a annoncé qu’il développait un robot armé capable d’identifier des cibles et de prendre la décision de tirer ou non. La définition des systèmes d’armes létales autonomes fait partie des thèmes débattus par les groupes d’experts de l’ONU qui se penchent sur le sujet depuis 2013. Selon Toby Walsh, les discussions ne progressent pas assez vite. « Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer », écrivent les signataires de la lettre qui mettent en garde contre le piratage informatique et le risque de voir des organisations terroristes s’en emparer. Aucune réaction de l’ONU ou des principaux pays concernés n’a pour l’instant été relevée.

Quelle est l’action d’Elon Musk au sujet de l’intelligence artificielle ?

Au côté de personnalités telles que le physicien britannique Stephen Hawking ou le cofondateur de Microsoft Bill Gates, Elon Musk alerte depuis plusieurs années sur les conséquences d’un développement sans entrave de l’intelligence artificielle. Alors même qu’il développe des voitures autonomes, le milliardaire américain estimait en juillet qu’elle « constitue un risque majeur pour la civilisation » et appelait à sa régulation. En 2015, Elon Musk a cofondé l’organisation OpenAI visant à mettre en œuvre une intelligence artificielle « sécurisée ». Plusieurs scientifiques se sont élevés contre ses déclarations alarmistes. Le chercheur en informatique Subbarao Kambhampati estime ainsi que ses inquiétudes portent sur des « scénarios exagérés de domination par une super intelligence ».