Les Personnes qui grandissent avec des Robots pourraient développer des sentiments pour eux et perdre leurs Capacités Sociales à interagir avec les Humains !

Le sociable
Allons-nous devenir si étroitement liés à la technologie qu’elle deviendra une partie de nous-mêmes et que nous nous perdrons et oublierons ce que signifie être humain ?
Selon une discussion lors de la réunion annuelle des nouveaux champions (AMNC) du Forum économique mondial (WEF), également connue sous le nom de "Davos d’été", à Tianjin, en Chine, plus tôt les gens interagissent avec les robots, plus tôt ils développent des sentiments pour eux et perdent la capacité de socialiser avec d’autres personnes.
Dans sa présentation lors de la session "Social Robots and I", Chang Dong-Seon, fondateur de la Future Explorer Society, a expliqué que les enfants qui grandissent avec des robots peuvent ne pas être capables de distinguer les machines des autres humains parce qu’ils manquent des signaux sociaux pour le faire.
« Si vous regardez les études sur les jeunes, elles ne font pas de distinction entre les robots non humains et les humains [...] Ils peuvent croire qu'ils ont vraiment des sentiments, faire preuve de compassion et considérer les autres êtres non humains comme des humains. »
Chang Dong-Seon, Réunion annuelle des nouveaux champions du Forum économique mondial, juin 2025
Traduction de « X » : Les enfants qui grandissent avec des robots ne seront pas capables de distinguer les humains des non-humains et pourraient développer des sentiments et de la compassion pour les robots comme s'ils étaient humains. Chang Dong-Seon. Forum économique mondial d'été de Davos.
Dans ce scénario d’interaction constante avec les machines, une génération entière pourrait grandir avec des sentiments pour les robots parce qu’elle peut les serrer dans ses bras, leur parler et se reconnaître en eux.
« Nous pouvons observer cela chez les enfants, ou même chez la jeune génération, si vous regardez les études sur les jeunes, ils ne font pas autant de distinction entre les robots non humains et les humains que nous [les adultes] parce que nous n'avons pas grandi avec eux », a déclaré Dong-Seon.
« Mais la jeune génération pourrait penser qu’elle a vraiment des sentiments, qu’elle fait preuve de compassion et qu’elle considère les autres êtres non humains comme des humains . »
Mais ce ne sont pas seulement les jeunes qui seront touchés par la vie avec des robots.
Dans son deuxième scénario, Dong-Seon dit que plus nous interagissons avec des robots tout au long de notre vie, plus nous pourrions perdre notre capacité à interagir normalement avec d’autres personnes, car notre cerveau serait reprogrammé pour traiter les autres comme des machines.
« Lorsque vous êtes isolé et n’avez aucun contact avec d’autres personnes, au fil du temps, votre cerveau perd la capacité de lire les signaux sociaux des autres personnes […] Lorsque vous interagissez avec des robots, de nombreuses personnes observent que vous pouvez en fait devenir très agressif et abusif […] et que le comportement non humain peut également être transféré aux personnes avec lesquelles vous interagissez . »
Chang Dong-Seon, Réunion annuelle du WEF « Rencontre des nouveaux champions », juin 2025
Traduction de « X » : Les personnes qui interagissent principalement avec des robots perdront leurs compétences sociales. Elles se reconnaîtront dans l'IA. Elles se montreront plus agressives envers les robots, et cette agressivité pourrait également se répercuter sur leurs relations interpersonnelles. Chang Dong-Seon. Forum économique mondial de Davos d'été
« Si nous traitons avec l'IA dans nos petites chambres, dans nos petites pièces, et que nous parlons uniquement à l'IA et n'interagissons pas avec d'autres personnes, que se passe-t-il dans notre cerveau ? » s'est demandé Dong-Seon.
Une étude intéressante publiée dans Trends in Cognitive Science révèle que la zone PSTS – un réseau social dans notre cerveau – rétrécit et que les connexions se font plus rares. Autrement dit, si vous êtes isolé et n'interagissez pas avec les autres , vous perdez progressivement la capacité à déchiffrer leurs signaux sociaux. La prochaine fois que vous rencontrerez un humain, vous remarquerez peut-être la taille de ses yeux, son apparence, sa façon de parler, et vous vous direz peut-être : "Oh ! Je ne sais pas comment interagir avec les humains ; je préfère les robots ; je préfère l'IA. C'est tellement mieux ; ça me convient parfaitement." Vous développerez alors une nouvelle façon d'interagir, plus limitée, mais qui, avec le temps, pourrait devenir une nouvelle façon d'interagir que les gens privilégient .
« Mais il y a aussi un danger ici, car lorsque vous interagissez avec des robots, beaucoup de gens voient que vous pouvez en fait devenir très agressif et abusif, et lorsque vous savez que l'autre être n'est pas humain, la façon dont vous interagissez change .
« Le problème, cependant, est que parfois le cerveau doit interagir à la fois avec des êtres humains et non humains, et ce faisant, vous pouvez perdre la capacité de faire la distinction entre les deux, ce qui signifie que les actions non humaines peuvent également être transférées aux humains lorsque vous interagissez avec eux . »
Les IA orientées vers les relations rivalisent entre elles en tant qu'amies, collègues et mentors, tandis que les IA orientées vers le romantisme rivalisent pour l'amour. Cette compétition amoureuse a des conséquences potentiellement éthiques, car elle pourrait perturber nos relations humaines les plus intimes.
Tendances en sciences cognitives, « Intimité artificielle : enjeux éthiques de la romance avec l'IA », juin 2025
Dans le numéro de juin 2025 de la revue Trends in Cognitive Science , on trouve un article intitulé « Artificial Intimacy: Ethical Issues of AI Romance » qui rejoint les déclarations de Dong-Seon et déclare ce qui suit :
« Alors que l’IA devient de plus en plus capable d’être perçue comme un être pensant et un partenaire relationnel idéal, certaines personnes préfèrent les relations avec l’IA aux relations humaines . »
L'étude met également en garde : « Les IA peuvent également être utilisées par les humains pour manipuler les autres. Les IA relationnelles peuvent être utilisées par des entreprises privées, des États voyous ou des cyberpirates pour initialement fournir de la compagnie et attirer les gens dans des relations intimes, puis les tromper, se comporter mal ou les exploiter d'une autre manière . »
La conférence de Dong-Seon a suivi celle de Vanessa Evers, professeur à l'Université de Twente.
La couverture de la conférence d'Evers par The Sociable est disponible ici .
En résumé, Evers a expliqué que pour une véritable intelligence robotique, il doit exister un grand modèle comportemental ou un jumeau numérique du monde entier.
Une fois le robot formé à l’aide de ces modèles et de jumeaux, il serait théoriquement capable d’interagir dans le monde réel d’une manière apparemment intelligente.
« Pour une véritable intelligence robotique, il faut créer un modèle du monde, une sorte de jumeau numérique du monde entier. »
Vanessa Evers, Conférence annuelle du WEF « Rencontre des nouveaux champions », juin 2025
Traduction de « X » : « Pour une véritable intelligence robotique, il faut créer un modèle du monde, une sorte de jumeau numérique du monde entier. Nous pouvons y ajouter des capacités surhumaines [écouter le cœur, surveiller la respiration pour détecter le stress et la douleur]. » Vanessa Evers, Forum économique mondial d'été de Davos
« Nous pourrions ajouter des capacités surhumaines, écouter le rythme cardiaque d'une personne ou surveiller sa respiration pour détecter le stress ou la douleur. Nous pouvons détecter la domination, l'agressivité et les phases créatives, autant de phénomènes qui peuvent être capturés automatiquement. »
Vanessa Evers, Conférence annuelle du WEF « Rencontre des nouveaux champions », juin 2025
Une fois que les robots seront équipés d’un modèle du monde, ils deviendront apparemment « intelligents » et « sociaux », ce qui soulève toute une série de questions philosophiques et éthiques sur la façon dont nous interagirons avec les robots et comment cela pourrait changer la dynamique de nos interactions avec nos semblables.
Par exemple, Evers a expliqué comment son laboratoire a développé un oreiller intelligent capable de détecter la douleur en fonction des sons émis par un bébé.
À l’avenir, cette technologie pourrait être utilisée pour d’autres appareils et robots à des fins diverses, comme le décodage et la détection des états mentaux ou émotionnels d’une personne.
Lorsque Chang Dong-Seon a entendu parler du détecteur de douleur d'oreiller d'Evers, il a immédiatement eu l'idée de développer un test de détection de mensonges utilisant des lunettes et des capteurs intelligents - ce à quoi Evers a répondu que ce serait une mauvaise utilisation de leur technologie, ce que Dong-Seon a rejeté.
Nous ne savons pas comment les gens l'utiliseront. C'est accessible au public. Bien sûr, tout le monde peut l'utiliser. Nous le publions librement. Nous n'avons donc aucune influence sur son utilisation .
Vanessa Evers, Conférence annuelle du WEF « Rencontre des nouveaux champions », juin 2025
Traduction de « X » : Chang Dong-Seon : À l’avenir, nous porterons des lunettes et des capteurs intelligents capables de détecter la douleur chez les autres, afin de savoir s’ils ne font que jouer la comédie. Vanessa Evers : Alors vous abuseriez de ma technologie. Chang : Non. Forum économique mondial de Davos d’été
« J’imagine qu’à l’avenir, nous porterons tous des lunettes intelligentes et des capteurs intelligents et que nos signaux corporels pourront transmettre des informations directement à un robot ou à d’autres personnes », a déclaré Dong-Seon.
« Peut-être que cela modifie aussi la réaction humaine, de sorte que vous dites : « Hmm. Je ne vois aucun signal de douleur de votre part, alors peut-être que vous faites semblant . » »
« Bien que dans une situation très humaine, nous pourrions réagir en disant : « Oh ! Vous devez souffrir », mais peut-être que la norme par laquelle les robots – ou par extension, les humains – apprennent à percevoir la douleur changera . »
Evers intervint immédiatement : « Je pense que vous utiliseriez ma technologie à mauvais escient, n'est-ce pas ? Je ne l'ai pas développée pour ça. Je l'ai développée pour quelque chose de bien . »
Mais c’est précisément là que réside le défi de l’avenir.
Il y a des gens qui développent des technologies qui changeront la société entière, et peu importe qu'ils les développent avec les meilleures intentions, car il y aura toujours quelqu'un qui voudra les utiliser comme une arme.
Comme l'explique Evers : « Nous ne savons pas comment les gens l'utiliseront. C'est accessible au public. Bien sûr, tout le monde peut l'utiliser. Nous le publions librement. Nous n'avons donc aucune influence sur son utilisation . »
Et c’est là le cœur de ce que The Sociable veut dire au monde : comment les gouvernements, les entreprises et les mondialistes non élus pourraient utiliser la technologie de manière néfaste, même si ce n’était pas l’intention des développeurs originaux.
Oui, les chercheurs, les développeurs et les scientifiques savent tous qu’ils développent quelque chose de dangereux, et beaucoup d’entre eux ont peut-être les meilleures intentions, mais l’arrogance a l’étrange propriété de finir par faire des ravages.
Cependant, dans le cas de technologies puissantes, c’est l’avenir de l’humanité qui est en jeu.
Allons-nous perdre notre capacité à socialiser avec d’autres humains et préférer la compagnie de robots sociaux ?
Allons-nous permettre à la technologie de diriger nos vies dans un État de surveillance totale ?
Allons-nous tous utiliser des objets connectés pour suivre tout ce qui se passe dans notre corps, toutes ces données étant envoyées aux gouvernements et aux entreprises en temps réel ?
Allons-nous devenir si étroitement intégrés à la technologie qu’elle deviendra une partie de nous-mêmes, nous faisant perdre notre humanité et oublier ce que signifie être humain ?
La technologie est là, maintenant. Il est temps de décider.