Les risques et les dangers de l’intelligence artificielle évoqués sur cet article ne viennent pas de nous. Nous n’avons pas l’étoffe pour donner des avis aussi alarmants. Alors, nous avons laissé le nec plus ultra s’exprimer sur un sujet si délicat. Nous nous sommes donc tournés vers le MIT Future Tech qui a récemment un rapport de 700 risques d’une IA pour la vie de l’humanité. Au lieu de tous les lister ici, nous en avons sélectionné 8 les plus préoccupants.
1- Manipuler l’opinion publique
Avec des algorithmes de plus en plus perfectionnés, il est devenu très facile de cloner une voix et de générer des contenus tronqués grâce à l’IA pour manipuler l’opinion publique. Ces manipulations sont plus connues sous le nom de « deepfake » qui est une technique de synthèse basé sur l’intelligence artificielle où des enregistrements audio et vidéo sont modifiés afin de faire dire à une personne des choses inventées.
L’autre technique bien connue pendant les campagnes d’élection est de créer des bots sur les réseaux sociaux qui vont publier de manière automatique de faux contenus avec pour but de susciter le doute et même de rassembler des foules. Ce n’est plus une utopie, cela s’est déjà passé à une grande échelle notamment lors des élections américaines de 2016 où les trolls russes ont recours à l’intelligence artificielle pour manipuler l’opinion publique.
De même que le rassemblement des suprémacistes contre la communauté noire à Houston en mai 2016 sans que ces derniers ne sachent qu’ils étaient manipulés (technique IA appelée l’astroturfing).
2- L’automatisation des emplois pourrait réduire les emplois
L’automatisation des emplois grâce à l’IA est une préoccupation majeure au fur et à mesure la technologie est adoptée dans les secteurs d’activité comme l’industrie, la rédaction des contenus, le marketing, l’art, le graphisme, les soins de santé. Selon plusieurs spécialistes, d’ici 2030, c’est-à-dire dans un avenir proche, l’IA va représenter jusqu’à 30 % des heures de travail actuelles dans les économies avancées.
Les premières personnes à être touchées seront celles qui exercent des tâches répétitives à longueur de journée en occurrence des gens à revenus modestes. Cependant, comme le souligne cet article de l’Insee, l’IA n’est pas synonyme de suppression massive des emplois. l’IA. Seulement, il faut reconnaître que l’IA a déjà un impact significatif sur la médecine, le marketing et le droit.
Par exemple, les avocats d’affaires ont pour habitude de lire des centaines de pages pour préparer leur plaidoirie, il est possible de passer à côté d’une information importante. Un cabinet pourrait réduire le nombre de d’avocats et s’appuyer sur l’IA qui va systématiquement éplucher chaque ligne pour fournir le meilleur contrat possible.
3- Une dépendance émotionnelle et psychologique
Les chercheurs du MIT Future Tech ont également interpellé sur les risques liés à une dépendance émotionnelle de l’intelligence artificielle. En effet, certaines personnes pourraient se sentir plus proche d’une IA conversationnelle qui les comprendrait mieux que les êtres humains. Ils pourront à tort attribuer à l’IA des capacités que ces algorithmes n’ont pas. Des situations complexes comme la dépression, le burn out ou un stress permanent vont pousser des gens à faire plus confiance à l’IA pour les aider.
D’un autre côté, une adoption prolongée et continue sur une IA conversationnelle aura pour conséquence d’isoler certaines personnes psychologiquement faibles. Dès aujourd’hui, il n’est pas rare de lire sur les réseaux sociaux un internaute affirmé qu’il préfère converser avec une IA qu’une personne. Il se sent mieux respecté, mieux valorisé et l’IA le comprend mieux.
4- Des armes avec prise de décision autonome alimentées par l’IA
Comme toujours, les avancées technologiques ont servi la guerre. En 2016, plus de 30 000 personnes, y compris des chercheurs en IA et en robotique, se sont opposées aux investissements dans des armes autonomes alimentées par l’IA dans une lettre ouverte.
Ils ont écrit : « Le problème majeur de l’humanité aujourd’hui est de s’engager dans une course mondiale aux armements d’IA ou de l’empêcher ». Le point final de cette trajectoire technologique est clair : les armes autonomes deviendront les kalachnikovs du futur si une grande puissance militaire se lance dans le développement d’armes IA.
Il existe déjà des armes de pointe dans l’armée américaine connues sous l’appelation « Lethal Autonomous Weapon System » capable de trouver et de détruire lui-même des cibles en suivant certaines règles.
Imaginez que de telles armes autonomes tombent entre de mauvaises mains. Les cybercriminels sont capables de réaliser diverses cyberattaques. Il n’est donc pas utopique d’imaginer que des acteurs malveillants puissent déclencher une guerre sans aucun contrôle de l’homme.
5- Une IA peut devenir auto-consciente et incontrôlable
Commençons par reconnaître un fait, à l’heure actuelle, aucune IA n’est capable de de penser par elle-même. Pour l’instant, au lieu de parler d’un algorithme intelligence, les scientifiques utilisent plutôt le terme d’intelligence générale artificielle (AGI). La conscience, c’est l’intelligence de soi, reconnaître qu’on est une entité, une intelligence de soi capable de raisonner. Encore une fois, nous en sommes encore loin. Alors, faut-il donc dormir sur ses deux oreillers ?
Que non, pour la simple raison que les langages d’apprentissages via des puces graphiques hautement évoluées se développent à une vitesse vertigineuse. Ainsi, il est possible que l’intelligence de l’IA se développe rapidement en dehors du contrôle de l’homme, ce qui peut être malveillant. On peut penser au programme d’IA de Google, OpenAI, Microsoft.
Par exemple, un récent rapport provenant d’un ancien ingénieur de Google affirme que le chatbot d’IA LaMDA est capable de parler comme un humain et a déjà été pointé du doigt comme un début de conscience. Par ailleurs, une rumeur courait que cette IA était capable de modifier en profondeur elle-même ses lignes de codes et plusieurs ingénieurs de Google ont été très surpris par cette capacité. Nul doute que la prochaine étape majeure de l’IA va consister à prendre conscience de sa nature.
6- Une grave crise financière provoquée par l’IA
La technologie de l’IA est de plus en plus utilisée dans les transactions financières. La prochaine crise financière majeure sur le marché pourrait être causée par le trading algorithmique. Imaginez si l’IA des grosses mastodontes de gestion d’actifs comme Blackrock ou Vanguard venait à prendre des décisions sur des transactions douteuses et ce, pendant une longue période sans que l’homme ne se rend compte.
Cela est bel et bien possible parce que les algorithmes d’IA ne prennent pas en compte le contexte, l’interconnexion des marchés et des facteurs tels que la confiance et la peur chez les investisseurs. L’algorithme réalise alors des milliers de transactions rapides afin de revendre quelques secondes plus tard des titres ou des actions avec un petit profit. Et c’est justement la vente de milliers d’opérations qui provoque des krachs brutals et une volatilité extrême des marchés comme cela a été avec la dernière crise financière de 2008.
Des cas comme le Flash Crash de Knight Capital nous rappelle ce qui se passe lorsque des algorithmes qui facilitent les transactions s’emballent, peu importe si la vitesse et l’importance des transactions sont volontaires ou non.
Toutefois, cela ne signifie pas que l’IA n’a pas été un impact positif au monde financier. Les algorithmes d’IA peuvent aider les investisseurs à prendre des décisions plus intelligentes et plus claires sur le marché. Toutefois, les organisations financières doivent veiller à comprendre leurs algorithmes d’IA et la façon dont elles prennent des décisions. Avant d’introduire la technologie, les entreprises devraient se demander si l’IA accroît ou diminue leur confiance afin d’éviter d’alimenter la peur chez les investisseurs et de créer un chaos financier.
7- Surveillance sociale et préventive grâce à la technologie de l’IA
Les algorithmes avancés peuvent avoir aussi des conséquences néfastes sur la vie privée et la sécurité. La Chine en est un exemple typique et est considéré comme la première nation à adopter une surveillance de masse de sa population. Tenez-vous bien, on compte environ 700 millions de caméras de surveillance en Chine au point où une bonne partie des habitants ont des notes sociales qui leur permettent d’avoir accès ou pas à des services publics. Le gouvernement chinois est capable de réunir assez de données pour contrôler les activités, les relations et les opinions politiques d’un individu.
Les services de police américains utilisent des algorithmes prédictifs pour prévoir les lieux où les délits seront produits. Le souci, c’est que ces algorithmes dépendent des taux d’arrestation, qui ont un effet disproportionné sur les communautés noires et hispaniques. Conséquence, les services de police multiplient les arrestations contre ces communautés, créant une surpolice.
Bien entendu, les arguments avancés sont la sécurité de la ville et la protection des biens. Il y a bien des exemples où les caméras ont aidé à résoudre les meurtres, mais le problème est que nous courons vers une surveillance biaisée, une surveillance préventive qui ne résout pas le problème sécuritaire en amont, mais l’accentue davantage.
Alors, que devons-nous faire ? Nous devons déterminer l’étendue de l’invasion de surveillance par l’IA dans les pays occidentaux et des démocraties et les limites à lui donner.
8- Biais involontaires par l’IA
Les biais dans les modèles d’IA font référence à l’apparition des résultats qui ne sont pas neutres ou équitables. On remarque plutôt une tendance à favoriser ou discriminer certains individus ou groupe sur la base de leur race, sexe ou statut socio-économique.
Par ailleurs, ces biais cognitifs peuvent se retrouver par inadvertance dans les algorithmes d’apprentissage automatique, soit parce que les développeurs les intègrent à leur insu dans les modèles, soit parce qu’ils sont déjà intégrés par inadvertance dans les données d’entraînement. Si les données d’entraînement sont insuffisantes, les systèmes d’intelligence artificielle peuvent se servir de ces préjugés et les renforcer.
Par exemple, si les données historiques utilisées pour former un algorithme particulier lié à l’exécution de tâches RH sont biaisées en faveur de certains groupes démographiques, l’algorithme peut, par inadvertance, discriminer certains groupes lorsqu’il prend des décisions d’embauche.
Nous avons des exemples comme le scandale des biais cognitifs de Google avec son IA Gemeni (générer des images de nazis et de vikings noirs). Google a voulu bien faire par un excès de consensualisme, mais est allé dans l’excès.
Pour conclure, il est indéniable que l’intelligence artificielle présente de nombreux avantages pour améliorer notre mode de vie. Nous avons besoin des données traitées par l’IA pour avancer dans la médecine, la conception des voitures autonomes et la recherche dans plusieurs domaines.
Toutefois, il faut reconnaître l’intelligence artificielle représente aussi des dangers et des risques pour l’humanité si nous n’y prenons pas garde. La révolution industrielle du XVIIIe siècle (chemin de fer, électricité, automobile…) et internet ont été les deux grands facteurs qui ont considérablement transformé notre mode de vie. L’intelligence artificielle de demain risque plutôt de changer notre manière de penser et de percevoir la nature de l’homme.
Il est important non pas de stopper l’innovation, mais plutôt d’élaborer des réglementations juridiques dans les domaines où l’IA est perçue comme dangereux pour l’homme (les armes, le clonage, manipulation sociale…). Des normes organisationnelles doivent être établies et des discussions sur l’IA sans complaisance et sans tabou afin d’aborder tous les sujets sur l’IA pour prendre les meilleures décisions sur son utilisation.
Chaque pays devra faire ses choix en fonction de ses besoins et de ses orientations socio-économiques et politiques, mais l’homme ne devrait pas confier les clés à une IA pour régir ses propres vies et ses propres choix.
Sources :
https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence