top of page

Débats sur les dangers de l’IA.

a) Les fantasmes récurrents sur les dangers de l’IA.

 

L’IA comme prolongement de l’Homme dans la vie quotidienne.

L’humanité fait face à un débat concernant l’importance de la place de l’IA et de sa menace. Comme l’a dit Ray Kurzweil, directeur de l’ingénierie chez Google, “Le feu nous a gardé au chaud, a cuisiné notre nourriture mais peut brûler nos maisons“. Selon lui, les progrès technologiques et scientifiques comportent des risques qui ne peuvent être négligés, mais ceux-ci sont moindres et peuvent être grandement minimisés, et ne sauraient ainsi en aucun cas faire de l’IA une menace.

Kurzweil pense que l’intelligence artificielle ne serait pas une machine qui serait contrôlée par les  Hommes, mais, qu’au contraire, il pourrait y avoir une coexistence entre l’humanité et l’intelligence artificielle, où cette dernière ne serait que le renforcement des capacités humaines. Une partie de ce renforcement serait issue de nanorobots qui, d’après ses prévisions, circuleraient dans notre corps d’ici 2030.

Vers une fusion de l’Homme avec la machine ?

En continuant sur la prédiction de Kurzweil, la singularité et la montée de l’IA pourrait permettre une fusion entre les êtres humains et les machines. En réalité, nous en sommes déjà proches avec les smartphones. Cette singularité conduirait ainsi l’Homme à penser différemment, à améliorer ses raisonnements et pourrait mener à l’apparition de nouveaux mouvements de penseurs, plus diversifiés, permettant ainsi à l’Homme d’élargir le champ de ses compétences et de ses possibilités.

 

“Mon point de vue n’est pas que l’IA va nous remplacer. Cela va nous améliorer. C’est déjà fait.” Ainsi, Kurzweil conclut qu’elle n’est pas créée pour rendre les êtres humains inutiles mais, “qu’à mesure que les machines deviendront plus intelligentes, l’humanité se développera également pour devenir plus efficace”. Mais derrière ce rêve se cache une dure réalité. En effet, ces nouvelles technologies auront des coûts élevés. En conséquence, au sein d’une société, il y aurait des inégalités : seule une partie de la population pourrait en bénéficier en terme d'intelligence et de puissance.

L’opposition de propos extrêmes.

 

Elon Musk, président-directeur général de SpaceX, voit plutôt l'intelligence artificielle comme une menace. En effet, selon lui, elle serait la plus grande menace pour l'existence de notre civilisation. Il mentionne de nombreux exemples de menaces, tels que le développement de “robots tuant des gens dans la rue” ou “déclenchant des guerres en manipulant l’information”.

 

Le premier de ces exemples pourrait être illustré par le robot “tueur” SGR-A1 (ci-dessus) de Samsung : ce robot est une arme autonome équipée d’une mitrailleuse, d’un lance-grenades, de capteurs de chaleurs, de caméras de détection dans les spectres visible et infrarouge et d’une intelligence électronique qui peut repérer les mouvements d’un intrus,  grâce à son logiciel de “tracking” (poursuite en anglais). Après l’accord d’un opérateur, il est capable de tirer de lui-même sans la moindre supervision humaine. Supposons donc qu’un jour une personne perde le contrôle de ce robot et qu’il attaque toutes les personnes qui seraient dans son champ de vision. Des milliers de victimes innocentes seraient faites. Pour empêcher les dérives potentielles de ces robots, Elon Musk propose une “régulation” préventive de l’intelligence artificielle.

À l’opposé de l’avis d’Elon Musk, le fondateur de Facebook, Mark Zuckerberg, qualifie les propos du directeur général de SpaceX “d’irresponsables”. En effet, Zuckerberg affirme que, dans les 5 ou 10 ans qui viennent, l’IA sera une source d’améliorations de la vie des humains dans de nombreux domaines, tels que celui de la santé ou encore de l’automobile, évoquant notamment l’exemple de la conduite autonome. Il est convaincu que l’IA est un bénéfice qu’il ne faut pas négliger, les réseaux sociaux utilisant déjà ces technologies pour évacuer les contenus problématiques et l’entreprise investissant massivement dans ces technologies.

 

L'avis d’un expert dans le domaine de l’IA.

L’intelligence artificielle peut-elle être un danger ?

 

Jean-Gabriel Ganascia, l’un des principaux spécialistes français de l’intelligence artificielle, croit qu’il faut avant tout faire attention aux applications, aux risques de dépendance qu'elles peuvent engendrer dans la vie quotidienne et aux changements sociaux qu'elles induisent : la délégation de certaines tâches aux machines a nécessairement des effets secondaires.

 

Certaines tâches peuvent être déléguées  à des machines, comme par exemple, un outil de guerre. Ce débat sur les “robots tueurs”, qui revient sans cesse, constitue aux yeux de Jean-Gabriel Ganascia un faux débat. Selon lui, les drones ne seront pas en mesure de résoudre un conflit. En effet, une série d’articles parue aux États-Unis décrit toutes les erreurs et les conséquences possibles pouvant être engendrés dans le cas où des drones militaires seraient utilisés. Dans le nord-est de l'Afghanistan, entre janvier 2012 et février 2013, l’opération Haymaker a été effectuée. Pendant l’opération, des drones ont été utilisés dans le but de tuer 35 cibles. Le bilan fait état de 200 morts.

 

Cet exemple amène à penser que les robots autonomes vont générer beaucoup d’hostilité si utilisés en grand nombre. En outre, pour pouvoir les utiliser, il faudrait pouvoir leur donner des critères leur permettant de reconnaître un “ennemi”. Cependant, définir ce qu’est un ennemi n’est pas chose aisée, et ne le deviendra probablement pas. En effet, le monde a de plus en plus affaire à des guerres asymétriques, où les combattants ne portent pas un uniforme pour se différencier de l’ennemi. Les drones et les robots autonomes possèdent ainsi des failles qui ne sont pas encore résolues, pourtant les êtres humains les utilisent de plus en plus alors qu’ils peuvent utiliser des drones contrôlables à distance permettant de faciliter les recherches et de réduire le nombre de victimes.

L’IA peut-elle construire sa propre volonté ?

 

L’autonomie d’un programme est un sujet qui peut dépendre de la définition de l’autonomie. En supposant que l’autonomie repose sur la capacité d’un système à fonctionner seul, un système déjà programmé possède une capacité d’adaptation en fonction des informations données par l’environnement qui l'entoure. Il aurait donc bien une certaine autonomie, puisque que le système va agir de manière prévisible. Le danger de déviance d’un tel système de son but premier reste donc limité.

 

Le programme de l’IA n’est, lui, pas entièrement programmé. Une certaine marge de manoeuvre, se manifestant actuellement par le hasard, dans son comportement lui permet de s’adapter en fonction de l’environnement et des résultats : l’IA est ainsi imprévisible et en perpétuelle évolution. Mais les moyens développés pour atteindre un objectif donné peuvent aller à l’encontre des “règles” implicites établies autour de cette objectif. Ainsi, si elle était déployée à grande échelle, rien ne garantit que l’IA respecterait les lois et autres valeurs humaines. Des questions se posent ainsi : Comment faire en sorte que la machine ne dépasse pas les limites morales et éthiques ? Comment et à quel niveau placer ces barrières ?

 

Certains spécialistes de l’IA, dont Stephen Hawking et Elon Musk, ont publié en 2017, sur la base de ces questions, une lettre alertant sur la conceptions des systèmes autonomes et des techniques d’apprentissage des machines. Bien qu’il y ait des personnes malveillantes qui essayeront de prendre le contrôle des machines, la volonté propre d’une intelligence artificielle reste un argument qui n’est pas encore vérifié.

L’impact de l’IA dans l’économie.

L’efficacité de l’IA facilite le travail de l’Homme.

 

D’après certaines personnes, l’IA ne volerait pas les emplois de l’Homme mais l’aiderait plutôt à ouvrir d’autres voies. Elle a permis et permettra encore d’augmenter les ventes des produits et d’améliorer le confort des travailleurs. Nous pouvons prendre les données de Tractica sur l’évolution du marché : il est estimé que l’IA devrait générer près de 90 milliards de dollars de bénéfices en 2025, contre seulement 11,3 milliards en 2019.

 

 

 

 

 

Depuis 30 ans, des industries manufacturières se sont automatisées aux États-Unis. La production a alors augmenté de 400 milliards de dollars à 2 billions de dollars. Pendant cette même période, les effectifs des employés par secteur ont diminué de 20 millions à 12 millions. Grâce à l’automatisation des tâches, la productivité d’un travailleur a été multipliée par deux.

 

L’IA va-t-elle remplacer l'être humain ?

D’après certains, comme Erik Brinjolsson et Andrew McAfee, chercheurs au MIT, le progrès technologie tel que l’IA va détruire beaucoup trop d’emplois et ces derniers vont devenir irremplaçables. D’autres soutiennent cette technologie en pensant que de nouveau emplois vont émergés comme à chaque révolution industrielle et technologique. Les compétences requises sont encore inconnues à ce jour. Cependant, ces emplois auront sûrement besoin de qualifications en automatisation, en entretien des robots et en programmation mais est-il possible qu’un travailleur en usine soit capable de devenir programmeur ou ingénieur en informatique ?

 

Les emplois d’industrie seraient voués à disparaître au profit des emplois qualifiés et très peu qualifiés qui émergeraient alors. Aux États-Unis, ce sont près de 3,5 millions d’emplois directs et 15 millions d’emplois indirects qui risquent de disparaître.

Le manque d’informations ne permet pas de savoir comment les Hommes pourront être rémunérés si l’IA détient tous les emplois.

Certains scientifiques proposent comme solution le revenu universel, cependant ce n’est pas l’une des plus faciles. En effet, le revenu diffère entre plusieurs familles. Il est donc impossible de calculer le revenu de chacun. De plus, les êtres humains n'accumuleront plus les expériences et ne voudront plus travailler.

Points de friction

Deux points de friction majeurs peuvent être dégagés au sein de la controverse :

Certains débats opposent publiquement les grands acteurs du milieu de l’IA, à l’image du débat entre Mark Zuckerberg et Elon Musk sur les réseaux sociaux ou de la lettre cosignée par de nombreux spécialistes en 2017.

Des frictions plus minime à propos de l’IA, de son évolution et des études menées à ce propos, comme la polémique du développement de l’IA dans le jeu Doom, sujet très controversé où le débat prend place entre les scientifiques et les ingénieurs de ces IA, ainsi que dans les médias.

Pour le moment les manifestations sur ce sujet ne sont que peu présentes. Peut-être que, plus tard, ces sujets sur l’IA prendront une plus grande ampleur, voire plus dramatique, ce qui donnerait lieu à de nouveaux points de frictions.

 

L’IA au contrôle.

Vers un contrôle accru dans les aéroports.

Bientôt, dans certains aéroports, des avatars numériques que nous pourrons considérer comme des intelligences artificielles seront mis à disposition pour la vérification des valises et peut-être même des passeports. Le contrôle des aéroports, comme le cas des jeux vidéo, aura pour but de pouvoir contrôler quelque chose de plus grand. “Que transportez-vous dans votre valise? Si je l’ouvrais, est-ce que j’aurais la confirmation que vous me dites la vérité ?” sont des questions qu’une IA pourrait vous poser.

Ce système d’IA, financé par l’Union Européenne et baptisé iBorderCtrl, va donc être testé pendant six mois à la frontière de la Hongrie, de la Lettonie et de la Grèce. Les réponses données par le voyageur sont ensuite analysées par un détecteur de mensonge de nouvelle génération. Cette technologie est basée sur la reconnaissance faciale développée par l’université de Manchester. iBorderCtrl devrait évaluer les réponses du voyageur en fonction de ses expressions faciales grâce à l’analyse de 38 micro-mouvements du visage. Si le voyageur est suspecté d’avoir menti, il sera contrôlé par des agents qui sont bien humains. L’efficacité technologique de l’IA n’est pas garantie totalement. En effet, sur 32 personnes, on obtient seulement un taux de réussite de 76%. De plus, cette analyse de micro-mouvement en matière de détection de mensonges est loin de faire ses preuves.

L’IA est de plus en plus présente dans le domaine militaire.

 

Le SecDef Forum a accueilli le 8 janvier 2019 une quarantaine de représentants d’Etats-Membres de l’OTAN et de l’Union Européenne afin d’échanger à propos de l’Intelligence Artificielle et du Big Data. Lors de cette discussion, l’un des enjeux évoqués fut l’explosion du volume des données générées au sein des forces militaires. En effet, ce dernier engendre de nouveaux défis comme la traçabilité des données ou encore des décisions, la perte d’information (ou des données ajoutées parfois fausses), l’enjeu de l’interconnectivité des systèmes, la résilience, et la sécurisation des systèmes.

L’IA pourrait permettre de récupérer et ordonner le volume imposant des données avec une vitesse de traitement nettement supérieure. Les technologies d’IA peuvent aussi produire des analyses, détecter des signaux, même les plus faibles, et proposer des options. Plus globalement, c’est un soutien pour une prise de décision au sein d’un gouvernement ou d’une organisation.

Ces fonctions, utilisées dans les cas militaires, peuvent offrir un large potentiel dans les domaines logistiques, de gestion de ressources (humaines et matérielles), médicaments ou de l’entraînement. Ce sont des conditions d’emploi qui ne sont pas forcément réunies, de façon pérenne, par les forces armées, notamment en opération.

La réflexion sur la place de l’IA dans un C2 (Commandement et Contrôle) se révèle d’autant plus importante au regard de la nature sensible du monde militaire.

Pierre Goetz, Senior Manager chez CEIS (Compagnie Européenne d’Intelligence Stratégique)  a mis au point différentes approches nationales sur la vision stratégique de l’utilisation de l’IA (moyens et ambitions).

La nécessité d’intégrer des innovations telles que les IA dans le domaine militaire avait déjà été évoquée précédemment, mais aujourd’hui ces IA sont considérées comme des “robots tueurs” pour les médias généralistes.

L’information est un terrain de jeu pour l’utilisation de l’IA.

OpenAI a réussi à créer un générateur de texte tellement performant qu’il ne sera pas rendu publique. GPT-2, ce fameux générateur de texte, questionne sur l’utilisation de l’IA à des fins malveillantes. Pourquoi ? GPT-2 est capable de générer des fake news (fausses nouvelles) très réalistes dont de faux articles de presse, et ainsi de répandre des rumeurs sur les réseaux sociaux.

Effectivement, plusieurs tests ont pu effrayer l’équipe OpenAI. En prenant un article en rapport avec le Brexit, l’IA est parvenue à créer “des citations” du député Jeremy Corbyn contre Theresa May. Le principal problème est la crédibilité des fausses informations et  le fait que ces rumeurs pourraient générer des conflits, sans compter des dérives comme la création d’infos indétectables.

Elle permet également de générer automatiquement des avis positifs ou négatifs, des spams ou des textes complotistes.

Suite à  ces expériences aux résultats bien trop concluants, OpenAI décida de confiner ce programme afin d’éviter toute perte de données le concernant et qu’il ne tombe pas entre de mauvaises mains.

 

L’IA imite le comportement de l’Homme.

Debater est une intelligence artificielle créée par l’équipe de recherche de Watson, chez IBM. Cette IA a pour but de permettre d'interagir avec des êtres humains sur certains sujets de débat. Débattre, argumenter et tenter de convaincre sont des pratiques très humaines que cette IA tente d’imiter. Pour cela, IBM lui a transmis des millions d’articles concernant divers sujets et débats, mais elle ne peut pas seulement se contenter de sortir des mots qu’elle a appris sans faire un récit compréhensible et d’être capable de faire changer l’avis de son interlocuteur. Le 17 juin à San Francisco, IBM a organisé deux débats portant sur l’exploration spatiale et l’expansion de la télémédecine. Or, Debater ne connaissait pas ces sujets avant de devoir débattre sur eux.

 

Après avoir écouté les arguments de son contradicteur, l'IA crée son propre discours en reprenant les arguments de son adversaire et tente de mettre en avant les contradictions. Il était évident que l’intelligence artificielle ne devait pas reprendre des pages déjà prédéfinies telles que Wikipédia et construire avec des données brutes,en prenant en compte le contexte.

En gestation depuis 2014, le projet Debater s’est assigné un objectif de haut niveau : fournir des points de vue objectifs et bien informés, un équilibre entre les “pour et les contre”.

Une aide à la création artistique.

 

L’IA apparaît dans divers domaines. Par exemple, Aiva, une intelligence artificielle de la musique, est capable de composer à elle seule des pièces de musique orchestrale !

La start-up Aiva Technologies, propriétaire d’Aiva, souhaite qu’elle soit capable de créer de l’art avec la même sensibilité émotionnelle qu’un être humain.

Son apprentissage de l’art de la composition se fait avec un grand nombre de partitions, créées par les plus grands noms de la musique (Mozart, Beethoven, Bach, Vivaldi, etc), en utilisant la méthode du Deep Learning. Elle a pu analyser au moins 15 000 partitions numérisées pour générer un modèle mathématique et intuitif de la musique. Elle arrive à écrire rapidement de nouvelles compositions uniques et d’une qualité égale à celle des grands compositeurs.

De plus, Aiva a été reconnue par la Sacem (la Société des auteurs, compositeurs et éditeurs de musique) en mai 2016. Cependant, cet accomplissement ne veut pas dire qu’Aiva remplacera un jour les musiciens. En effet, l’équipe souhaite une coopération entre l’Homme et la machine pour progresser dans le domaine de la musique, comme ce fut le cas sur le morceau On the edge, composé avec Bradley Frey, ou encore sur les albums Genesis, réalisé en collaboration avec des compositeurs tels que Olivier Hecho et Eric Breton.

L’objectif de Aiva est de composer des musiques de films, de jeux vidéo et de publicités. L’ambition d’une telle création reste toutefois suffisamment remarquable pour être soulignée, et marque probablement le début d’une longue série de nouvelles intelligences prêtes à apporter leur pierre au monde de l’art. Il ne faut pas oublier que se sont toujours des musiciens bien humains qui valident ou non les morceaux créés par des algorithmes.

Conclusion

D’un simple jeu de plateau jusqu’au commandement militaire ou même l’épanouissement de l’IA dans toute sorte de domaines, elle n’a jamais cessé de nous surprendre par ses capacités et son côté imprévisible, elle inspire des rêves mais aussi des craintes. Il faut se dire que l’IA ne devient dangereuse que si elle est confisquée par tel ou tel Etat, ou si l’humain la pervertit. La machine elle-même n’a ni volonté propre, ni soif de pouvoir. Scénarios catastrophes ou mode de vie totalement autonome, on pourrait se demander jusqu’où elle pourrait aller, mais aussi comment nous pourrons la contrôler.

robot.PNG
edeNG.PNG
deba.PNG
courbe.PNG
implant-kiwi.jpg
bottom of page