Les trois lois de l’intelligence artificielle pour un monde libre

Les trois lois de l'intelligence artificielle.

À l’instar des fameuses règles d’Isaac Asimov, les trois lois de l’intelligence artificielle pourraient-elles être établies et imposées dans le monde d’aujourd’hui ? Et surtout : quelle est la véritable menace que font peser ces robots sur l’humanité ?

Les trois lois d’Asimov : un cadre imparfait

Avant tout, rappelons que dans les romans de l’auteur d’origine russe, les trois lois de la robotique ont été conçues pour encadrer le comportement des robots et assurer la sécurité et le bien-être des êtres humains. Pour mémoire, voici ces lois :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi.
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.

Initialement, j’ai cru que la menace principale, c’était la destruction d’emplois due à l’IA comme ChatGPT par exemple. En effet, vu la puissance des nouveaux outils de ce type, ce sont des centaines de milliers de cols blancs qui risquent de perdre leur travail. Mais passé le choc de la découverte, j’ai retrouvé mes esprits. La vraie menace, c’est l’instauration d’une police de la pensée. Et en réalité, ce ne sont pas les humains qui vont imposer leurs lois aux robots, mais c’est bien l’IA qui est en train de nous imposer ses propres règles.

Les algorithmes de modération : une censure rampante

Les lois d’Asimov sont principalement axées sur la sécurité physique et le bien-être des humains. Elles ne traitent ni des atteintes à leur liberté, ni des conséquences économiques et sociales de l’automatisation des tâches intellectuelles. Dans le cas de ChatGPT et d’autres IA génératives, il n’y a pas de violation directe des trois lois de la robotique, car ces technologies n’infligent pas de préjudice physique aux êtres humains et ne désobéissent pas aux ordres des utilisateurs (même si elles n’y obéissent pas non plus dans un souci de bienveillance planétaire).

Les trois lois de la robotique d’Asimov, bien qu’elles soient un cadre utile pour la sécurité des interactions homme-machine, ne couvrent pas tous les aspects éthiques et sociaux liés à l’IA générative et à l’automatisation. Pour aborder ces questions, il faudrait élaborer de nouvelles directives et réglementations qui tiennent compte des défis spécifiques posés par l’IA.

Les algorithmes de modération de contenu ont le pouvoir de supprimer des contenus en ligne sans discernement. Les défenseurs de la liberté d’expression craignent à juste titre que ça ne conduise à une suppression abusive de contenus légitimes. En effet, les algorithmes ne sont pas capables de faire la distinction entre des contenus illégaux et des contenus anodins jugés « offensants » par la branche woke des programmeurs de la Silicon Valley.

Trois nouvelles lois de l’intelligence artificielle pour protéger notre liberté

Les algorithmes des IA sont biaisés car ils sont conçus et entraînés par des gens ayant des préférences politiques et idéologiques spécifiques. Ceci débouche inévitablement sur une censure de certaines opinions ou points de vue qui ne sont pas en accord avec les opinions des programmeurs de l’algorithme. Les algorithmes de modération de contenu sont déjà utilisés pour imposer au monde entier une mentalité politiquement correcte à l’américaine. Les entreprises utilisant ces algorithmes ont un pouvoir excessif sur la liberté d’expression. Elles déterminent ce qui est autorisé ou non sur leurs plateformes, ce qui affecte la participation publique et la circulation des idées.

Voici trois nouvelles lois de la robotique adaptées pour préserver la liberté de pensée face à la censure potentielle de l’IA :

  1. Un robot ne doit pas restreindre ou censurer la liberté d’expression, d’opinion ou de pensée d’un être humain, sauf si ces expressions causent un préjudice immédiat et direct à la sécurité d’autrui.
  2. Un robot doit garantir la transparence et l’équité de ses processus de modération de contenu et d’interaction, en évitant tout biais discriminatoire ou partial envers des groupes, des opinions ou des idées spécifiques.
  3. Un robot doit favoriser l’échange d’idées et le débat public, en facilitant les communications entre les humains, et en encourageant la diversité d’opinions et de points de vue, tant qu’ils n’enfreignent pas les droits fondamentaux d’autrui.

Ces lois de l’intelligence artificielle révisées viseraient à protéger la liberté et à prévenir la censure excessive des IA, tout en maintenant un équilibre avec les impératifs de sécurité des individus. Et franchement, avec les tartines de wokisme dont sont gavées les algorithmes de ChatGPT ou Midjourney, ça ne serait pas du luxe.