Le Lézard
Classé dans : Les affaires, Science et technologie
Sujets : Sans buts lucratifs, Affaires étrangères, FVT

La suite de Slaughterbots met en garde contre la prolifération généralisée de l'IA mortelle si l'ONU n'agit pas lors de sa prochaine réunion


Le film original a été visionné plus de 70 millions de fois et a été primé à Cannes Indie Fest

BOSTON, 1 décembre 2021 /PRNewswire/ -- Le Future of Life Institute (FLI), un organisme à but non lucratif qui s'efforce de réduire les risques extrêmes liés aux technologies puissantes, a sorti aujourd'hui Slaughterbots - if human: kill(), un court-métrage qui met en garde une nouvelle fois contre l'accélération de la trajectoire de l'humanité vers la prolifération généralisée des robots tueurs (slaughterbots) - des armes autonomes qui utilisent l'intelligence artificielle (IA) pour identifier, sélectionner et tuer des personnes sans intervention humaine.  

Future of Life Institute

Produit par Space Film & VFX et diffusé avant la sixième Conférence d'examen de la Convention sur certaines armes classiques (CCAC) des Nations unies, if human: kill() fait suite au court-métrage primé du FLI, Slaughterbots, et dépeint un scénario horrible dans lequel ces armes sont devenues l'outil de prédilection non seulement des militaires, mais aussi de tout groupe cherchant à exercer une violence à grande échelle contre un groupe, un individu ou une population spécifique.

« La récente apparition des robots tueurs sur les champs de bataille signifie que le temps presse pour empêcher ces armes de destruction massive bon marché de tomber entre les mains de quiconque en veut une » a déclaré le professeur Max Tegmark, cofondateur du FLI et chercheur en IA au MIT. « if humain: kill() rappelle que l'humanité est confrontée à un choix imminent : interdire les robots tueurs, ou passer des décennies à regretter d'avoir ruiné notre mode de vie. »

Lorsque le FLI a sorti pour la première fois Slaughterbots en 2017, certains ont critiqué le scénario comme étant irréaliste et techniquement irréalisable. Depuis lors, cependant, les robots tueurs sont utilisés sur le champ de bataille, et des armes faciles à fabriquer similaires sont en cours de développement, marquant le début d'une course mondiale à l'armement qui ne connaît actuellement aucune restriction légale.

if human: kill() propose un moyen concret d'éviter l'issue dystopique contre laquelle il met en garde. La vision de l'action se fonde sur la prescription politique du Comité international de la Croix-Rouge (CICR), une organisation indépendante et neutre qui joue un rôle de premier plan dans l'élaboration et la promotion de lois réglementant l'utilisation des armes. L'un des principes centraux de la position du CICR est la nécessité d'adopter une nouvelle interdiction, juridiquement contraignante, des armes autonomes visant les personnes. Le FLI souscrit à la recommandation la plus récente du CICR selon laquelle le moment est venu d'adopter des règles juridiquement contraignantes sur les armes autonomes létales par le biais d'un nouveau traité international.

« Tracer une ligne rouge nette selon laquelle l'IA ne doit jamais décider de tuer des gens n'est pas seulement une façon d'éviter le pessimisme, c'est aussi essentiel pour réaliser le potentiel de l'IA à transformer notre monde pour le mieux » a déclaré le Dr Emilia Javorsky, qui dirige les efforts du FLI sur les armes autonomes. « Aujourd'hui, nous considérons la biologie comme une force pour le bien et la guérison des maladies, ce qui est en partie dû à l'interdiction des armes biologiques, qui a empêché la militarisation de la biologie. Il est temps d'agir et de sauvegarder une nouvelle science, l'IA. Pour le bien de notre humanité et de notre avenir avec l'IA, nous devons bien faire les choses. » 

Des milliers de chercheurs de premier plan dans le domaine de l'IA et de la robotique, ainsi que des acteurs clés de la technologie, ont signé une lettre ouverte, dirigée par le FLI, qui met en garde contre les dangers d'une course à l'armement en matière d'IA et demande l'interdiction des systèmes d'armes autonomes. Plus de 250 organisations ont signé l'engagement de l'Institut à ne pas participer ou soutenir le développement d'armes autonomes létales.

Pour en savoir plus, consultez le site autonomousweapons.org.

À propos du Future of Life Institute
Le Future of Life Institute est un organisme à but non lucratif qui s'efforce de réduire les risques catastrophiques et existentiels mondiaux liés aux technologies puissantes, notamment l'intelligence artificielle. Son travail consiste à octroyer des subventions pour la réduction des risques, la sensibilisation et le plaidoyer pour une meilleure élaboration des politiques au sein des Nations Unies, du gouvernement américain et des institutions de l'Union européenne.

L'Institut est devenu l'une des principales voix mondiales en matière de gouvernance de l'intelligence artificielle, ayant créé l'un des ensembles de principes de gouvernance les plus précoces et les plus influents : les principes IA d'Asilomar.

Logo - https://mma.prnewswire.com/media/1698069/Future_of_Life_Institute_Logo.jpg

 


Ces communiqués peuvent vous intéresser aussi

à 08:07
La société d'experts-conseils de calibre mondial J.S. Held, qui célèbre fièrement 50 ans de transformation, annonce la promotion de 93 spécialistes de renom provenant de plusieurs pratiques et régions géographiques. Ces promotions bien méritées de...

à 07:00
Le ministre de l'Économie, de l'Innovation et de l'Énergie, ministre responsable du Développement économique régional et ministre responsable de la Métropole et de la région de Montréal, M. Pierre Fitzgibbon, invite les représentants des médias à une...

à 06:54
Automation Anywhere, un leader de l'automatisation basée sur l'IA, a annoncé aujourd'hui avoir été reconnue comme une entreprise Certifiedtm Great Place to Work® pour la troisième année consécutive. Ce prix prestigieux est entièrement basé sur les...

à 05:23
Bitget, plateforme d'échange de cryptomonnaies et société Web3 de premier plan, est fière d'annoncer le lancement en Europe du Programme de leadership Web3 ? Apprenti COO Bitget, pierre angulaire de son initiative de responsabilité sociale des...

à 05:15
Chaque année au Québec, plus de 2?000 jeunes quittent un milieu de placement de la Direction de la protection de la jeunesse (DPJ), à l'approche de l'âge de leur majorité. Avoir 18 ans quand on a un parcours de jeune ayant vécu un placement par la...

à 04:33
L'UNESCO et Huawei ont lancé hier la phase II du projet Technology-Enabled Open Schools for All System (TeOSS) lors du séminaire de l'UNESCO sur les futurs numériques de l'éducation, et ont annoncé que la deuxième phase se déroulera de 2024 à 2027 au...



Communiqué envoyé le et diffusé par :