En 2014, les États-Unis ont été secoués par les révélations d’Edward Snowden, un ancien agent de la CIA qui a fait défection en Russie. Depuis son nouvel emplacement, Snowden a publié des documents hautement classifiés qui compromettaient la sécurité de son pays. Parmi les révélations, il y avait une divulgation particulièrement alarmante concernant un programme de cyberguerre américain nommé « MonsterMind ». Ce programme, comparé au système d’IA « Skynet » du film de science-fiction Terminator, était apparemment capable de détecter et de contrer de manière autonome les cyberattaques sans intervention humaine. Cela a suscité de vives inquiétudes, car dans le film, les actions autonomes de Skynet ont conduit à une apocalypse nucléaire et à l’anéantissement quasi total de l’humanité, un scénario qui semblait terriblement plausible.
Que nous l’acceptions ou non, les armes dotées d’intelligence artificielle deviennent une réalité. Cependant, faire confiance à ces systèmes pose des défis importants puisqu’ils peuvent potentiellement être manipulés ou se retourner contre nous. Snowden a averti que quelqu’un pourrait facilement simuler une attaque, la faisant apparaître comme provenant d’un autre pays, comme la Russie, alors qu’elle provenait en fait de Chine, conduisant à des représailles involontaires et catastrophiques. Bien que l’IA d’aujourd’hui la plus proche de l’intelligence véritable nécessite des superordinateurs massifs et une puissance substantielle, les futurs progrès pourraient rendre l’initiation d’actions dévastatrices beaucoup plus simple et plus accessible. Cette possibilité de catastrophe a conduit des personnalités éminentes comme Stephen Hawking et Elon Musk à plaider pour des restrictions sur la recherche militaire en IA et une interdiction des armes offensives autonomes, communément appelées « robots tueurs ».
Pour comprendre les risques associés à l’IA dans les contextes militaires, nous devons d’abord explorer son histoire avec l’humanité. Le terme « intelligence artificielle » existe depuis des décennies, bien avant que les ordinateurs personnels ne deviennent omniprésents. Le concept moderne d’IA a émergé à l’époque du président Eisenhower, avec le terme inventé pour la première fois à l’été 1956 lors d’une conférence au Dartmouth College. La conférence visait à rassembler les principaux scientifiques pour discuter du potentiel de l’IA, la présentant comme une technologie capable de simuler le comportement humain par des règles préprogrammées. L’objectif était de créer quelque chose de similaire aux réseaux neuronaux qui imitent les cellules cérébrales pour apprendre de nouveaux comportements. Les pionniers comme Marvin Minsky, qui a ensuite fondé le laboratoire d’IA au MIT, et John McCarthy, souvent considéré comme le « père de l’IA », ont été essentiels pour faire progresser ce domaine. Le gouvernement américain a fortement financé la recherche en IA, espérant qu’elle leur donnerait un avantage dans la guerre froide. Pendant un certain temps, il semblait que le potentiel de l’IA serait réalisé bientôt, avec des prédictions dès 1970 que des machines dotées d’une intelligence humaine apparaîtraient dans quelques années. Cependant, les progrès se sont arrêtés lorsque le financement a été coupé, ce qui a conduit à ce qu’on appelle maintenant l’« hiver de l’IA », retardant des avancées significatives jusqu’à ce que des entreprises privées prennent le relais dans les années 1980.
En 1984, Hollywood a commencé à spéculer sur la manière dont l’IA pourrait dominer et détruire l’humanité, comme on le voit dans le film Terminator. Le film dépeint un programme d’IA appelé « Skynet » qui prend le contrôle d’innombrables serveurs informatiques et tente d’éradiquer l’humanité en lançant des missiles nucléaires, déclenchant une guerre nucléaire mondiale. Le film dépeint un avenir sombre où les machines dominent, poussant les humains à voyager dans le temps pour empêcher la création de Skynet.
En réalité, la confrontation la plus notable entre humains et IA a eu lieu en 1997 sur un échiquier, lors d’un événement connu sous le nom de « La dernière bataille du cerveau ». Le champion du monde d’échecs Garry Kasparov a affronté le superordinateur Deep Blue d’IBM, qui pouvait évaluer jusqu’à 200 millions de coups par seconde. Deep Blue a battu Kasparov avec facilité, marquant un moment crucial qui a démontré la capacité de l’IA à penser stratégiquement de manière indépendante. Bien que Deep Blue n’ait pas montré un apprentissage semblable à celui des humains, il a mis en évidence le potentiel de l’IA à exceller dans des tâches spécifiques. Au cours de la première décennie du XXIe siècle, la technologie de l’IA s’est considérablement développée, avec des avancées dans les voitures autonomes, les smartphones, les chatbots et les robots capables d’effectuer des tâches spécialisées. Ces technologies font désormais partie intégrante de notre quotidien, posant la question : ces assistants apparemment inoffensifs prendront-ils un jour des rôles plus cruciaux et potentiellement dangereux, gagnant notre confiance et nous poussant à déléguer des fonctions plus vitales à leur contrôle ?
Pour répondre à cette préoccupation, nous pouvons nous tourner vers l’armée américaine, qui a longtemps stimulé les avancées technologiques grâce à des financements substantiels. Sans investissement militaire, il est peu probable que nous ayons eu le GPS, les ordinateurs ou Internet. Il n’est donc pas surprenant que le financement militaire soutienne également la recherche en IA. Le problème survient lorsque les robots sont militarisés, introduisant un ensemble d’enjeux éthiques et opérationnels très différents. Il est difficile de prévoir ce qui pourrait se passer lorsque des systèmes d’armes autonomes interagissent dans des conditions réelles. Même s’ils sont programmés pour éviter de nuire aux humains, quelle est l’efficacité de cette programmation si ces machines sont conçues pour causer des dommages ? Ce dilemme est devenu évident avec l’avènement des drones, qui sont populaires en raison de leur capacité à mener des attaques à grande distance sans mettre des vies humaines en danger. Bien que les drones actuels soient contrôlés par des opérateurs humains qui prennent les décisions finales, la crainte est que les avancées technologiques puissent amener les drones à prendre des décisions létales de manière autonome à l’avenir. Cette crainte a conduit à un tollé mondial de la part de scientifiques de premier plan, qui ont rédigé des lettres ouvertes avertissant des dangers de mélanger l’IA avec le matériel militaire.
Stephen Hawking, une voix éminente contre la militarisation de l’IA, craignait le moment où les créateurs ne comprendraient plus complètement les armes qu’ils construisent. Il a soutenu que les humains évoluent trop lentement par rapport aux avancées rapides de la technologie de l’IA, un sentiment partagé par Ray Kurzweil, directeur de l’ingénierie chez Google, qui a prédit que l’IA pourrait dépasser l’intelligence humaine d’ici 2045, alimentant les inquiétudes.
Cependant, les armes basées sur l’IA ne sont pas la seule préoccupation. Le crash boursier de 2010 aux États-Unis, au cours duquel près d’un trillion de dollars ont disparu puis rapidement réapparu en quelques minutes, a mis en évidence le potentiel de l’IA pour perturber l’économie. L’incident a suggéré que des algorithmes d’IA relativement simples pourraient manipuler les marchés en plaçant et annulant rapidement des ordres, créant des écarts de prix momentanés qui auraient pu entraîner des conséquences économiques catastrophiques, bien pires que celles observées lors des attentats du 11 septembre ou de la crise financière de 2008. Malgré cela, de nombreux scientifiques se sont concentrés sur les menaces physiques potentielles que pose l’IA, telles que l’assassinat, la déstabilisation des nations, la subjugation des populations ou même le génocide sélectif.
Les scientifiques ont souligné la nécessité de réglementer l’IA pour empêcher qu’elle ne domine l’humanité. D’un autre côté, l’IA pose un ensemble différent de défis. Par exemple, les voitures autonomes représentent une forme d’IA qui nécessite une régulation immédiate. Une simple erreur de programmation pourrait rendre une voiture autonome incontrôlable. Si un enfant traverse la route devant une voiture programmée pour protéger la vie humaine, doit-elle dévier pour éviter l’enfant, risquant la sécurité des passagers, ou heurter l’enfant pour protéger les occupants ? Dans le cas des conducteurs humains, ils prennent des décisions en une fraction de seconde et en sont tenus responsables. Mais qui serait responsable si une voiture autonome provoquait un accident ?
Pour réguler efficacement l’IA, les scientifiques l’ont catégorisée en quatre types, tous nécessitant une surveillance :
- Les machines qui pensent comme des humains : Ce sont des machines capables de processus similaires à la pensée humaine. Cette définition n’inclut pas tous les types d’IA, tels que les ordinateurs qui jouent aux échecs, mais se concentre plutôt sur l’IA qui pourrait surpasser l’intelligence humaine si elle pense comme les humains.
- Les machines qui agissent comme des humains : Ces machines montrent des comportements similaires aux actions humaines. Reproduire la complexité des émotions humaines dans un programme informatique est extrêmement dangereux, même si c’est actuellement impossible.
- Les machines qui pensent rationnellement : Ces machines ont des objectifs et peuvent développer des stratégies pour les atteindre, semblables à la pensée stratégique.
- Les machines qui agissent rationnellement : Ces machines fonctionnent uniquement de manière à les conduire vers l’atteinte de leurs objectifs.
Actuellement, les neuroscientifiques explorent comment l’IA pourrait aider les patients paralysés à retrouver le contrôle moteur. Cependant, l’armée voit un potentiel dans ces technologies pour améliorer les capacités physiques des soldats. Albert Einstein avait prédit que la technologie conçue pour aider les gens pourrait finalement être utilisée pour leur nuire. L’armée explore également les technologies développées par les neuroscientifiques pour créer des armes, telles que des tanks autonomes, des outils d’effacement de la mémoire et des empreintes cérébrales capables de lire l’esprit des gens. De plus, des drones capables de prendre des décisions létales de manière autonome sont en cours de développement, bien que les responsables militaires insistent sur le fait que nous sommes encore loin de cette réalité.