© Terminator

Cette unif coréenne va travailler sur les "robots tueurs" et des experts du monde entier s'y opposent

5 avril 2018

Une cinquantaine d'universitaires a signé une lettre dans laquelle ils font part de la très "grande inquiétude" que leur inspire la collaboration de l'université sud-coréenne KAIST avec une entreprise qui produit des armes autonomes.

Le monde universitaire a peur qu'un scénario à la Terminator se produise réellement dans notre monde. Les experts craignent que des robots deviennent totalement indépendants, ne répondent plus aux injonctions de leurs propriétaires humains et finissent par adopter un comportement destructeur. Cela pourrait finir de façon apocalyptique: le futur pourrait ressembler à Metalhead, cet épisode de Black Mirror où la terre est ravagée par les chiens de Boston Dynamics.

De nombreux illustres scientifiques, Stephen Hawking en tête, avaient déjà mis en garde il y a quelques temps contre le danger que représente la création d'armes autonomes. Cette fois, c'est une cinquantaine d'experts en intelligence artificielle venus du monde entier qui ont signé une lettre commune appelant au boycott de l'université sud-coréenne KAIST. KAIST veut travailler avec Hanwha Systems, une entreprise qui développe, entre autre, des armes autonomes.

Boycott de la terreur

"En tant que chercheurs et ingénieurs travaillant sur l'intelligence artificielle et la robotique, nous sommes très préoccupés par l'ouverture d'un "Centre de Recherche pour la Convergence de la Défense Nationale et de l'Intelligence Artificielle" au KAIST en collaboration avec Hanwha Systems", écrivent les scientifiques dans leur lettre.

Hanwha Systems est l'un des plus grands fabricants d'armes de Corée du Sud. L'entreprise fabrique des armes et des munitions qui sont interdites dans 120 pays par un traité international. Mais la Corée du Sud, de même que les États-Unis, la Russie et la Chine, n'ont pas signé cette convention.

"Il a été rapporté que les objectifs de ce Centre sont de "développer des technologies d'intelligence artificielle (IA) à appliquer aux armes militaires, en rejoignant la compétition mondiale pour développer des armes autonomes", poursuivent les universitaires. "Si elles sont développées, les armes autonomes seront la troisième révolution dans la guerre. Elles permettront de combattre la guerre plus rapidement et à une échelle plus grande que jamais. Elles ont le potentiel d'être des armes de terreur."

Recherche sur les AI

Plusieurs pays, dont la Grande-Bretagne et les États-Unis, ont créé des fonds pour réfléchir à l'impact que pourrait avoir l'introduction d'armes affublées d'une intelligence artificielle dans notre monde. Des lettres appelant à une réflexion sur les armes intelligentes, il y en a eu beaucoup. Dont une signée par une centaine d'universitaires belges. À chaque fois, la conclusion est la même: cela pourrait devenir catastrophique.

"Les despotes et les terroristes pourraient utiliser [ces armes] contre des populations innocentes, en supprimant toute contrainte éthique", ajoutent les signataires de la lettre. "Cette boîte de Pandore sera difficile à fermer si elle est ouverte. Comme avec d'autres technologies interdites dans le passé comme les lasers aveuglants, nous pouvons simplement décider de ne pas les développer. Nous exhortons le KAIST à suivre cette voie, et travaillons plutôt sur les utilisations de l'IA pour améliorer et ne pas nuire à la vie humaine."

Déjà lu?

Déjà lu?