Image de profil de Valens
Univers et vision de l'univers
par Valens  il y a 6 ans

En résumé, dans les grandes lignes, si je ne fais que décrire l’univers, les êtres humains ont disparu et ont été relégué au rang de mythes et légendes. Les IA ont colonisé la galaxie et de ce fait découvert d’autres cultures et civilisations. Et les IA sont séparées en deux factions opposées : « pro- et anti-émotions ».

L’idée des IA m’est surtout venue parce que mon frère a écrit son TFE dessus, donc on n’arrête pas d’en parler chez nous, entre les coupures de presses et les diverses conférences.

L’univers avec la guerre lui est arrivé en plein pendant que j’écrivais. Il me fallait justifier l’attaque de début et cette opposition entre machines, celles laissant les émotions de côté, car elles les considèrent inutiles, et celles au contraire qui les trouvent indissociables de la raison.

J’ai trouvé cette idée pas mal, et même si le contexte de la nouvelle ne s’y prêtait pas, j’ai envie de la développer, d’opposer ces deux visions avec leurs avantages et leurs inconvénients, sans nécessairement prendre parti pour l’une ou l’autre (même si ici, vu que le protagoniste a son opinion sur la question, on est clairement dans le « pro-émotion »).

Vaste programme donc qu’il faut encore être capable d’exploiter, ce qui n’est pas gagné ^^

Vis-à-vis des humains, de leur disparition et de l’absence de coordonnées de la Terre dans la mémoire héréditaire et collective, je planche toujours dessus, je n’arrive pas à trouver une explication et un contexte cohérent entre leur disparition et l’expansion des machines, principalement parce que je me refuse à causer la mort de l’humanité par ces dites-machines. Elles joueront un rôle, peut-être, sans doute, j’ignore encore lequel, mais elles ne seront pas la cause.

Encore un bon moyen de s’arracher les cheveux, mais je ne désespère pas ^^

Je vais mettre la question de ce qu’est une IA pour moi ici. D’un point de vue simplifié, c’est un être non organique doué de raison et capable d’apprendre via toutes les possibilités d’apprentissage (essai-erreur, mimétisme,...). La présence d’émotions, ça reste un gros point que j’ai du mal à exprimer. Déjà parce que mes connaissance en neurologie « organique », vais-je dire, ne me permettent pas d’expliquer leur origine chez nous correctement. C’est bien beau le stress avant un examen oral ou la joie de l’avoir réussi, mais ces émotions sont causées par plein de réactions chimiques et électriques, quel est réellement le lien de cause à effet entre un événement et son émotion ? (surtout que ça varie entre individu, je tombe sur une araignée, c’est fini, je pleure, je tremble, je reste figée sur place d’effroi, alors que ma belle-sœur s’amuse à jouer avec…).

Et donc, a fortiori, comment recréer des sentiments via des lignes de code ? (Faudrait que j’en parle à un pote informaticien tient, ça pourrait être intéressant).

Sinon, je pense que cette idée d’émotion à la demande m’est venue inconsciemment de la série WestWorld (série magistrale que je recommande chaudement d’ailleurs), avec les hôtes, des robots ignorant leur condition de non-humain et qui lors de leur maintenance peuvent passer, grâce à un simple ordre du technicien, des émotions les plus fortes à une analyse froide et calculée.

Comme les personnages sont des machines, j’aime bien le fait de les considérer capable de contrôler leur propre corps (émotions, cinq sens), pour en tirer le meilleurs.

Il y a aussi ta note sur la notion de jeu dans la modalité de développement d'un individu vertébré et donc possédant un SNC et le parallèle avec les IA. Là-dessus, comme je ne sais pas trop par où tu veux partir, je te laisse embrayer. Je dirais juste pour le moment que le jeu est un excellent moyen d'apprentissage et qu'il est énormément utilisé dans le développement des IA, justement.

Image de profil de Auteur inconnu
Auteur inconnu
Deuxième message ici sur la notion de jeu. Oui le jeu est une méthode d'apprentissage, c'est d'ailleurs la méthode que la nature a choisi pour enseigner la survie aux mammifères. En fait un bébé tigre, si il joue pas, il crèvera... dans le genre sanction on fait pas plus sévère et pour apprendre c'est le jeu (l'éducation nationnale a du boulot :-) )
Donc je m'interroge sur les modalités d'apprentissage des IA : information qu'on reçoit ou jeu ?
Image de profil de Valens
Valens
En Belgique aussi, il devrait y réfléchir, et je ne pense pas que le pacte d'excellence qui va arriver va changer ça ^^' D'ailleurs, je viens d'avoir une journée de formation pour apprendre à s'en sortir en groupe où on a fait quelques jeux avant de sortir les théories psychologiques du groupe. Je ne suis pas sûre cependant que l'unif soit l'endroit le plus approprié pour cela, mais là je m'égare ^^

Je m'imagine un apprentissage dématérialisé, dans une aire virtuelle, surveillée par des éducateurs eux aussi dématérialisés.
Au départ, l'IA reçoit des informations : son code de base et une mémoire héréditaire. Ensuite, elle évolue dans des simulations, d'abord basiques, puis de plus en plus complexes et orientées.

Au début, donc, des petits jeux pour apprendre le côté décisionnel (par exemple, comme les scientifiques le font actuellement, avec des jeux du style puissance 4, échec, dame, jeu de go, poker,...), ce qui permet de procéder par étapes et de vérifier qu'il n'y a pas eu de problèmes d'encodage.
Ensuite viennent les simulations plus poussées : mise en interaction avec d'autres IA virtuelles, entre jeunes IA, avec les éducateurs, pour apprendre par le mimétisme, de leurs aînées (par exemple l'IA qui a récemment battu les meilleurs joueurs de poker en apprenant à bluffer seule, en les observant, l'informaticien n'ayant jamais encodé quoi que ce soit sur le bluff).
Puis mise en situation de problèmes, plus orientés suivant le rôle que l'IA jouera par après. Par exemple, si IA pour le travail d'usine, quoi faire en cas de surchauffe, d'enrayage. Pour une IA destinée à l'exploration et qui rencontrera d'autres cultures, mise en place de simulation de ces rencontres. Et ainsi de suite.
Et enfin, insertion de l'IA dans l'enveloppe synthétique (sauf si elle reste dématérialisée).
Image de profil de Auteur inconnu
Auteur inconnu
Salut Val ^^ désolée j'ai pas mal été accaparée à droite et à gauche ces dernières heures ;-)

Tu soulèves un point que je voulais aborder avec toi sur la nature de l'IA : ils seraient capable de contrôler leur propre corps pour en tirer le meilleur. En fait il faut que tu cernes bien dans ton esprit la notion de modalité d' existence de tes IA, comment sont elles fabriqués ? et quelle modalité de conscience ?
Si elles modifient leur propres formes pour en tirer le meilleur, sont-elles toutes humanoïdes ? (j'en doute personnellement) certaines ont-elle même une enveloppe ?
Si IA il y a c'est à dire intelligence qui ne sera pas programmée mais fonction de son apprentissage et de l'intégration des informations qu'elle va recevoir au cours de son existence, de même évolution de sa nature, de son "être", comment se perçoit-elle ?
Ici sur ce fil je voudrais qu'on précise cette notion, qu'on déroule les idées car même si elles ne seront pas forcément explicitées dans ta nouvelles, elles vont sous-tendre ton univers. Donc on cerne sur ce message la notion d'IA et sa modalité d'existence, voire même comment une société d'IA peut s'organiser (société de type humaine donc intelligence individuelle ou insecte donc intelligence collective ? )
Image de profil de Valens
Valens
Au niveau des sociétés, j'ai réfléchi à deux types qui recroisent celles dont tu as parlé, suivant les deux courants opposés entre les machines.
Les Maskinlievs, "anti-émotions", sont plutôt dans une collectivité. Ils sont en contact permanent entre eux, la notion d'individu n'existe pas vraiment, même si tous n'ont pas le même rôle. Ce dit rôle (réparateur, concepteur, pilote, guerrier,...) est décidé lors de la conception d'une nouvelle vie artificielle. Un pilote est mort, on en refabrique un.
On pourrait en effet comparer ça à une fourmilière, dont la reine ne serait pas un individu plus important que les autres, mais un lieu, l'endroit de conception.

À l'inverse, les Renierathes, "pro-émotions", gardent la notion d'individus. Même s'il existe une collectivité, ils n'y sont pas branchés constamment, un peu comme si c'était Internet et un immense réseau social, mais en beaucoup plus sophistiqué.
Ici aussi, les rôles sont précis, il n'y a pas de risque de pénurie ou de pléthore dans un métier. Néanmoins, les rôles ne sont pas imposés avant même la conception. Lors de l'apprentissage, les éducateurs repèrent les différences de raisonnement, de "caractère" pour orienter la nouvelle IA vers un rôle qui lui conviendrait. Car même si le code de base est défini, il n'empêche pas des variabilités, des mutations que l'IA opère lors de son développement et qui font qu'elle sera unique.

Au niveau de la fabrication, le corps est construit en usine par d'autres machines, là, il n'y a rien de compliqué. Pour la conscience, vu qu'elle est dématérialisée, j'imagine bien une conception du code de base avec insertion de la mémoire héréditaire, puis mise en place du développement dans une aire virtuelle.
Par contre, je ne comprends pas trop ce que tu veux dire avec la modalité de conscience ??

Et bien sûr, elles ne sont pas toutes humanoïdes, cela dépend fortement de leur rôle dans la société. Par exemple Og, dans cette nouvelle, qui est intrinsèque au vaisseau, ou les éducateurs, que j'imagine dématérialisés pour veiller au développement des jeunes IA.

Pour la perception de son être, cela dépend à nouveau si on parle des Maskinlievs ou des Renierathes (faut que je trouve un autre nom, je suis de moins en moins fan de celui-là).
Les Maskinlievs formant une collectivité, comme je l'ai dit plus haut, ils ne se perçoivent pas en tant qu'individus, mais plutôt en tant que conscience. Si on place l'un d'eux devant un miroir, il sera lui, mais aussi tous les autres. Bien sûr, il ne va pas croire que c'est quelqu'un d'autre, comme le fait un chien ou un chat.

Les Renierathes par contre, se voient eux, bien individualisés, comme nous, nous nous voyons dans un miroir. Nous savons que nous sommes nous, et pas quelqu'un d'autre ou quelque chose de plus grand.

Une grosse différence aussi entre les deux groupes, c'est la perception de la mort.
En tant que collectivité, les Maskinlievs en ont moins "peur". Par exemple, si un vaisseau explose lors d'une mission, c'est embêtant, car ils perdent une présence dans ce coin de l'univers, il va falloir refabriquer un vaisseau, des pilotes,... Mais c'est tout. Leur unique crainte, ce serait une attaque sur la conscience collective, un virus par exemple.

Les Renierathes, plus indépendants, ont une plus grande peur, même si elle reste plus faible que celle qu'un être organique pourrait avoir, car la capacité de réparation est bien plus grande : tant que la carte mère n'est pas endommagée, qu'importe si le corps physique est détruit.
Image de profil de Auteur inconnu
Auteur inconnu
Modalité de conscience renvoie à la construction de la conscience de soi dans le développement de l'homme. En gros à quel moment l'enfant détache l'autre de lui-même, à quel moment et par quels mécanismes il prend son individualité quand au début de sa vie, il fait corps avec la mère, ou plutôt c'est la mère qui fait corps avec lui, il ne sépare pas lui du reste de son univers. Ce sont les afférences sensitives qui vont lui permettre de s'individualiser et de déterminer ses limites par rapport au monde extérieur et à l'autre, donc prendre conscience de lui. Et au fur et à mesure, cette prise de conscience individuelle s'accompagne d'une prise de conscience de sa conscience... homo sapiens sapiens...
Je me demande comment une machine connectée à d'autre s'individualise pour le coup...

Et surtout qu'est ce qui peut motiver le schisme entre les deux types de machines ?
0