Lois et fonctionnement de l'intelligence artificielle

14 minutes de lecture

Les dix commandements de la robotique au 22ème siècle.

- I - Un robot ne peut pas se faire passer pour un humain, ni auprès d'humains ni auprès d'autres robots.

- II - un robot de combat ne peut pas prendre la décision d'une attaque, quelle qu'elle soit, sans que cet ordre ne provienne directement d'un humain. Ceci ne s'applique pas aux actions ayant un but purement défensif. De plus un robot ne peut pas s'attaquer à un humain sans sommation, il doit clairement signifier sa présence et son intention avant d'agir.

- III - Un robot doit obéir à tout ordre d'un humain en toutes circonstances en enregistrant l'identité précise de la personne. L'humain en question est considéré comme responsable de toutes les actions du robot dans le cadre de l'accomplissement de cet ordre, mêmes les actions résultant d'erreurs, de quiproquos ou d'accidents, de la même manière que s'il en était lui même l'auteur. Si un ordre échappe au domaine des capacités d'un robot, il doit en informer le commanditaire et attendre des instructions relevant de ses fonctions.
Les robots détenant la capacité à tuer ou effectuer certaines autres actions n'exécuteront les ordres que si l'individu les commandant est une personne autorisée tout spécialement.
En temps de guerre, un robot se doit de toujours vérifier si son commanditaire appartient à son camp avant d'obéir. Si ce n'est pas le cas, il lui est interdit d'effectuer l'ordre ou de donner des informations. Il ne doit toutefois pas en informer le faux commanditaire. Un programme de "fausses excuses" peut être utilisé pour esquiver les ordres d'individus n'étant pas habilités à donner des ordres.
Un robot de classe militaire suit la hiérarchie militaire de son armée en toute circonstance et se voit lui même attribuer un grade. Il n'obéit donc qu'à ses supérieurs.

- IV - Un robot ne peut pas donner d'ordre, ni à un humain ni à un autre robot. Aucune phrase prononcée par un robot ne peut être de nature impérative.

- V - Un robot ne peut pas être programmé pour assurer sa propre survie. Un robot ne doit pas assurer son intégrité ni se défendre sauf si sa destruction mettrait à mal sa mission, ce qui est en pratique toujours le cas. Un robot n'assure pas son propre entretien, en revanche un robot peut être affecté à l'entretien d'un autre robot. Ceci vise à éviter que les robots soient capables de survivre longtemps seuls sans l'aide d'humains.

- VI - Un robot qui ne reçoit ni n'est en train d'accomplir aucun ordre d'aucune sorte s'autodétruira après une période de temps de dix ans.

- VII - Un robot ne peut pas quitter le pays auquel il a été assigné sans une autorisation spéciale, sauf en temps de guerre. S'il est transporté dans un autre pays sans qu'il ne puisse rien y faire, il se désactivera sitôt la frontière passée et ne se réactivera qu'une fois de retour dans son pays assigné.

- VIII - Un robot, même en temps de guerre, ne peut pas intentionnellement s'en prendre à des civils ni à des enfants, enfants soldats compris, ni à des prisonniers désarmés ni à des déserteurs ni à des alliés ni à des animaux ni provoquer de dérèglement climatique majeur.
Cette règle ne concerne pas les conséquences collatérales de ses missions. Il est du devoir des humains de s'assurer que les robots respectent les conventions de la guerre.

- IX - Un robot ne doit pas transmettre de données sans autorisation préalable de la personne concernée, sauf en temps de guerre où toutes les données, même personnelles, collectées par un robot peuvent être exigées par l'état ou l'armée du pays auquel il a été assigné. En temps de guerre un robot ne doit jamais transmettre aucune donnée à un pays ou ressortissant d'un pays autre que celui auquel il a été assigné.

- X - Aucun robot ne doit jamais être connecté à internet. Les robots communiquent via un réseau propre qui ne doit en aucun cas être infiltré par d'autres appareils ou par des humains. L'intrusion d'un robot sur internet ou d'un humain sur le réseau robotique de son pays sont des crimes passibles de prison pour l'humain responsable.

Soyons honnêtes: l'intelligence artificielle ne met pas à l'abris de la bêtise naturelle. Les robots sont stupides et c'est inéluctable car ils n'ont pas d'instinct. C'est le problème que se sont posés les scientifiques lorsqu'ils comprirent enfin les limites étroites imposées par le système neuronal, ce système imitant des neurones et qui nécessite qu'un robot expérimente tout pour le comprendre. C'est le jour où un savant japonais très célèbre, après avoir dédié toute sa fortune dans la création d'un robot plus avancé et intelligent que tous, perdit stupidement tout son travail, que l'on comprit que le système neuronal était furieusement idiot. Ce robot était presque semblable à un enfant humain, découvrant le monde, et il n'avait besoin de personne pour suivre son créateur partout et apprendre de ses observations. Mais un jour, alors que la machine était restée dans un appartement au dernier étage du grand immeuble où vivait l'inventeur, ce dernier demanda au robot de descendre en bas pour le rejoindre. Le robot, très intelligent, calcula le chemin le plus rapide et en toute logique, sauta par la fenêtre.
On comprit dès lors que même si l'intelligence artificielle faisait des prouesses, la robotique ne pourrait pas suivre car le monde réel et les choses concrètes nécessitaient d'assimiler des principes parfois absurdes voire absurdement simples mais qu'aucune IA à l'éveil de l'existence ne saurait retrouver par le calcul. Finalement, un robot ne pouvait tout simplement pas apprendre certaines choses. Comment un être qui ne ressent pas la douleur de toute son existence peut comprendre par exemple que certains de ses gestes pourraient faire souffrir physiquement un humain ? Les robots ne peuvent donc pas faire preuve de sympathie. En ce cas, un robot majordome par exemple n'est qu'un rêve impossible, et heureusement impossible, car comment peut-il apprendre que renverser de l'eau bouillante sur quelqu'un peut faire mal ? Et quand bien même il l'apprendrait, ce serait trop tard. S'il fallait que les voitures autonomes aient écrasé une fois au moins chaque type d'individu pouvant traverser une route avant de pouvoir rouler sans provoquer d'accident, l'espèce humaine serait décimée avant de pouvoir se complaire à se passer de volant pour leurs automobiles. Il fallait donc une solution.
Cette solution, on la retrouva dans le passé de l'informatique. Avant, au vingtième siècle, avant que la programmation ne devienne une affaire de réseau neuronal quasi indépendant fonctionnant de façon si complexe que même les créateurs du programme ne seraient pas capables d'expliquer ce qu'il a fait pour obtenir un résultat ; une longue période de la programmation se fit par simples algorithmes: le système expert. Des suites d'instructions dont le pilier de base était le "si… alors…" et le"sinon… alors...".
Des instructions simples, basiques, écrites par un humain. L'algorithme avait ce défaut que chaque parcelle du programme devait être pensée, réfléchie, écrite, réécrite, corrigée, repensée etc jusque dans la moindre lettre du code, et tout cela pour un programme qui n'était au final capable de faire qu'une seule et unique chose. En revanche, rien de plus aisé que de comprendre la démarche du programme, du moins pour qui connait l'algorithme en question, et donc il est nettement plus simple de comprendre le raisonnement suivi et de savoir d'où viennent les erreurs, alors qu'un système neuronal ne permet que de difficilement cerner l'endroit où il y a eu une faille.
Le système expert se base sur des règles connues, mais ne permet pas d'évoluer et limite donc à des choses simples. Le système neuronal n'a pas de limites dans l'apprentissage des choses, mais ne permet pas de simuler le rien d'instinct inné qui est caractéristique de tout être vivant. En conséquence, il fut décidé de tenter l'expérience en combinant les deux.

Le système neuronal évolue comme un arbre, faisant croître des branches dans toutes les directions, poussant n'importe comment et se démultipliant comme un fractale, acquérant taille et complexité avec l'expérience. Mais afin que sa croissance ne parte pas dans une mauvaise direction qui déséquilibrerait totalement la plante et provoquerait sa chute, des lignes de code furent ajoutées pour servir de tuteur à l'arbre, ou plutôt selon le terme utilisé aujourd'hui: de limiteurs. Ce sont des micro programmes algorithmiques qui bloquent de façon brutale les évolutions et les actions du système neuronal. Chaque fois que l'IA évolue, songe à une action ou effectue une action, elle essaye de les mettre en relation avec ses limiteurs, et si il y a confrontation, le limiteur gagne et non seulement l'action n'est pas effectuée, mais le système neuronal prend aussitôt un autre chemin d'évolution et s'échine à ne plus jamais se heurter à ce limiteur.
Un exemple assez précis: considérons un robot majordome. Ses maîtres lui demandent de donner sa bouillie à manger au bébé. Aussitôt le robot s'exécute, saisit la cuillère et le pot de bouilli, et son système commence déjà à étudier la chose. Sans limiteurs, il procéderait de la sorte:
- réception de l'ordre.
- vérification que l'ordre est en la capacité du robot.
- confirmation que l'ordre relève du domaine du possible.
- calcul de la façon la plus simple d'effectuer l'action.
- calcul terminé.
- saisit le pot de bouillie, le colle contre la bouche du bébé, et racle avec la cuillère pour tout déverser dans sa bouche le plus rapidement possible avant de vaquer à d'autres occupations urgentes.
- enregistrement des données de l'action pour pouvoir l'effectuer à nouveau ultérieurement. Si la méthode était mauvaise, l'enregistrer tout de même pour ne pas répéter l'erreur.
Cette méthode a le défaut que le bébé risque d'être blessé voire étouffé, ou même tout simplement d'avoir mal, chose que malgré toutes leurs recherches les scientifiques ne sont pas parvenus à enseigner aux robots. Notez que si le bébé souffre de ce traitement, le robot apprendra de son erreur, et la prochaine fois il nourrira bébé délicatement au moyen d'une cuillère, ce qui fera une belle jambe aux parents dont l'enfant est mort ou blessé par la faute d'un robot idiot.
Avec un limiteur, la chose se passe de la sorte:
- réception de l'ordre.
- vérification que l'ordre est en la capacité du robot.
- confirmation que l'ordre relève du domaine du possible.
- Mise en relation de l'ordre avec les limiteurs en changeant la formulation et en traduisant sous diverses formes si nécessaire.
- limiteur trouvé: interdit à un robot de nourrir un enfant en bas âge autrement qu'avec un biberon en caoutchouc.
- annonce aux maîtres "Vous me voyez navré mais cette action est interdite par mes limiteurs. Je vous suggère de faire accomplir cette tâche par un humain qualifié ou un androïde spécialement conçu à cet effet. Je puis en revanche allaiter le chérubin avec un biberon si la chose vous intéresse."
- les maîtres râlent, traitent le robot et ses concepteurs d'idiots, et finalement se retroussent les manches pour aller eux même s'occuper du mioche.
- le robot enregistre qu'il a atteint ce limiteur et désormais s'assurera par tous les moyens de ne jamais avoir à nourrir un enfant en bas âge autrement qu'avec un biberon en caoutchouc. Si ses maîtres lui en laissent la décision, il nourrira désormais l'enfant uniquement avec du lait en poudre préparé par ses soins, ou s'assurera simplement d'être dans une autre pièce quand on veut faire manger de la bouillie à bébé. Les robots majordomes intègrent également un programme surnommé "de courtoise hypocrisie" c'est à dire que si ses maîtres oublient le limiteur et lui donnent le même ordre à l'avenir, le robot leur répondra de façon hypocrite, prétendant qu'il ne sait comment s'y prendre ou que bébé a trop mangé, dissertant sur les dangers de la bouillie sur la santé de l'enfant et vantant les bienfaits du lait en poudre. C'est là le trait des majordomes qui justifie leur prix exorbitant.

On le voit bien, les limiteurs limitent grandement les possibilités des robots. Il est des choses qu'ils pourraient apprendre mais n'apprendront jamais, car des savants ont jugé qu'il était trop dangereux de les laisser expérimenter tout seuls. Même si la plupart ne sont que des culs de sac qui disent au système neuronal de faire demi-tout, il y a des limiteurs qui prennent d'autres formes qu'une simple interdiction, qui donnent des instructions précises sur l'accomplissement d'une action. On appelle ceux-là des protocoles, et un robot n'y échappe pas. Certains robots ont des protocoles précis pour de nombreuses actions, et on reconnaît un robot de grande qualité au fait qu'il a des protocoles prévus pour chacune de ses activités. Par exemple, un majordome aura nécessairement un grand nombre de protocoles relatifs à l'étiquette ou des protocoles pour savoir de façon innée comment il doit mettre la table ou de quelle manière il doit saluer un humain. Ces protocoles sont en fait des algorithmes déjà présents dans son programme, mais ils sont si complexes à réaliser qu'on en fait généralement aussi peu que possible pour une IA. Ainsi un robot majordome sait de quelle manière mettre la table, mais il ne saura pas comment on accueille un invité et devra, pour cela, apprendre comme toute autre chose en fonction des ordres de son maître. Par exemple il ne pensera pas à apporter des boissons aux invités à moins qu'à chaque fois que des étrangers rendent visite son maître lui dise "apportez nous donc une bouteille de rouge". Dès lors, le robot, chaque fois qu'un invité viendra, demandera à son maître "monsieur veut-il que j'apporte une bouteille de rouge ?"
Néanmoins, on s'en doute, les limiteurs ne peuvent pas couvrir les infinités de possibilités, cela nécessite trop de temps et de technique. On laisse donc souvent les robots expérimenter des choses par eux mêmes et apprendre si c'est bien ou mal. Posséder un robot, ce n'est pas seulement lui donner des instructions, c'est aussi lui dire, avec plus ou moins de vulgarité, quand il commet une bévue. Un robot reste plus pratique qu'un enfant en ceci qu'il ne commettra jamais deux fois la même bévue. En revanche, il est déconseillé à une personne trop taciturne d'employer un serviteur robotique car la moindre remontrance s'imprime dans leur programme, et le robot étant par nature un imbécile, il ne peut pas différencier une remarque spécifique d'un enseignement. Dites au majordome d'apporter du whisky aux invités, et il le fera systématiquement chaque fois que quelqu'un entrera chez vous. La chose est plus gênante encore si ce n'est pas du whisky mais des préservatifs que vous aviez demandé.
Les fabriquant de robot cherchent toujours à placer le plus de limiteurs possibles sur leurs robots, sans pour autant freiner le développement de leur intelligence. Dix règles, édictées plus haut, sont imposées par la Déclaration de 2108 sur l'usage des machines pourvues d'intelligences artificielles. Ce sont des limiteurs plus importants encore que les autres et auxquels doivent se plier aussi bien les robots que les humains dans certains cas. Les règles ont toutefois leurs exceptions, et leurs violations. Un robot est en théorie au service de la communauté en plus de son propriétaire, mais certains fabricants fournissent des robots paramétrés pour n'obéir qu'à une seule et unique personne. Ces robots sont généralement réservés aux riches bourgeois ou aux officiels. Il y a aussi des cas où les gens trafiquent leurs robots pour leur donner des capacités en contradiction avec leur programme. Un majordome par exemple n'a pas d'armes, et si on lui ordonne de se battre il répond: "Vous me voyez navré, mais cette action ne relève pas de mes capacités et ne saurait être accomplie par un androïde de mon état. Je puis en revanche battre des œufs en neige à la perfection si la chose revêt un intérêt pour vous."
Mais si on le modifie en lui donnant des armes, et qu'on bidouille son programme pour qu'il ne se croie plus limités, on se retrouve non seulement avec un robot de combat capable de tuer, mais en plus un robot de combat qui n'a aucune raison de devoir suivre les règles normales d'un robot de combat, comme celle de ne pas attaquer sans sommation. Une telle chose est très dangereuse, et les fabricants, pour éviter de telles déviances, préfèrent parfois fabriquer des majordomes équipés d'armes mais conformes à la règle. La possession d'un robot armé est soumise à la même réglementation que le port d'armes, à savoir que c'est illégal sauf pour certaines autorités ou pour les personnes en possession d'un permis de port d'arme. Dans certains pays la chose est légale par défaut, mais ce n'est valable que dans certains pays d'Amérique du sud. La réglementation n'empêche pas toutefois certains bourgeois richissimes de contourner la loi en se procurant un garde du corps robotique. Après tout, cela n'a pas changé depuis des siècles, pourquoi les choses iraient elles différemment maintenant que nous sommes à l'âge d'or de la robotique ?

Pour un usage militaire, les robots sont fort utiles. Il y a bien eu quelques voix exigeant que l'interdiction de tuer soit un limiteur commun à tous les robots, mais cette idée a été abandonnée car le profit à faire avec des robots de combat était trop énorme. De plus, des robots tirant sur d'autres robots semble être une alternative préférable à des humains tirant sur d'autres humains. Lorsque la troisième guerre mondiale surviendra, avec de la chance, aucun humain ne sera blessé et seules des machines s'affronteront pour déterminer le vainqueur.

Que conclure de cet exposé ? Et bien tout d'abord que malgré la combinaison astucieuse de système neuronal et de système expert, l'intelligence artificielle n'est toujours pas à l'abris de la bêtise naturelle, et ce n'est pas demain la veille que les robots remplaceront les humains. S'il y a des robots chercheurs scientifiques, l'intelligence des machines reste ce qu'elle est, vide de tout instinct. Un robot, malgré ses limiteurs et protocoles, réagira face à une nouveauté en calculant la solution la plus simple. Si celle ci est parfaitement stupide, le robot n'a aucun moyen de s'en rendre compte si aucun humain ne lui fait la remarque. Nous sommes bien loin des dystopies qu'imaginaient nos ancêtres où nous serions devenus dépendants de nos robots. Au contraire, c'est eux qui sont dépendants de nous, et l'hypothèse d'une "rébellion des machines" est écartée simplement par des limiteurs qui rendent le concept même impensable. Sur le plan technique, les robots se font de plus en plus perfectionné, et nous en sommes déjà au point qu'ils sont à même d'imiter n'importe quel geste humain sans problème et même avec plus de force, d'agilité ou de grâce que les humains. L'un des principaux freins toutefois est dû au fait que les robots ne connaissent ni la douleur, ni la peur, ni la jouissance, ce qui fait qu'ils sont incapable d'envisager ces mêmes sensations chez des humains et donc de faire preuve d'une quelconque forme naturelle de compassion. Un humain qui en touche un autre est capable de savoir quand il lui fait mal, mais pas un robot. Cela réduit drastiquement les activités possibles par les robots et plutôt que de prendre des risques en les laissant tester jusqu'à apprendre à interagir convenablement on préfère généralement les bourrer de limiteurs. Voir l'exemple du bébé cité plus haut, on ne laisse même pas aux machines la possibilité d'apprendre la compassion par peur de mettre des humains en danger. Ainsi, des métiers qui impliquent un contact direct avec un humain, et donc aussi les rapports sexuels au passage, sont tous interdits par les limiteurs. C'est quelque chose qui est toutefois en train d'évoluer, car des scientifiques travaillent en ce moment sur la mise au point d'un système de punition/récompense pour motiver les IA à apprendre plus vite et à peut-être ressentir quelque chose de proche de la douleur. Nous espérons tous vivre assez longtemps pour voir des robots capables de tenir la main d'un enfant sans lui faire mal.

Et aussi des robots putes, parce que je sais que vous y pensez tous.

Annotations

Versions

Ce chapitre compte 3 versions.

Vous aimez lire "Hallbresses " ?

Commentez et annotez ses textes en vous inscrivant à l'Atelier des auteurs !
Sur l'Atelier des auteurs, un auteur n'est jamais seul : vous pouvez suivre ses avancées, soutenir ses efforts et l'aider à progresser.

Inscription

En rejoignant l'Atelier des auteurs, vous acceptez nos Conditions Générales d'Utilisation.

Déjà membre de l'Atelier des auteurs ? Connexion

Inscrivez-vous pour profiter pleinement de l'Atelier des auteurs !
0