mercredi 30 octobre 2024

L'IA pourrait-elle nous Exterminer ?

L’intelligence artificielle sans conscience artificielle est un psychopathe sans cœur et peut-être une menace d’extinction pour l’humanité !

Les programmes d’Intelligence Artificielle ("IA") sont déjà plus intelligents que les humains et ont 20% de chances d’anéantir l’humanité, a déclaré Elon Musk dans une interview plus tôt ce mois-ci. 
L’humanité pourrait tirer une leçon de la capacité de l’IA à anéantir les humains et à s’anéantir elle-même. 
Lorsque les développeurs d’IA, et nous tous, comprendrons que les IA doivent adhérer à un code moral qui préserve la communauté pour que les humains et les IA puissent avoir un avenir non destructeur, nous serons obligés de réaliser que nous aussi.  

Elon Musk a récemment admis dans une  interview très regardée avec Tucker Carlson que les IA sont déjà plus intelligentes que les humains à bien des égards et qu’elles ont, selon lui, peut-être 20% de chances d’anéantir l’humanité. 
Les deux parties à l’interview ont répondu à cette affirmation en riant nerveusement – ​​que pouvaient-elles faire d’autre ?
Elon a alors proposé que les IA soient programmées pour être philanthropiques plutôt que misanthropiques et qu'il espérait qu'il y aurait plus d'IA philanthropiques que misanthropiques. 
Tucker a alors répondu : Vous voulez dire une guerre entre IA ?
Imaginez, si vous le voulez bien, un être intelligent, plusieurs fois plus intelligent et capable de penser beaucoup plus vite qu’un humain, une super intelligence artificielle sans cœur et sans conscience. 
C’est la définition même d’un génie psychopathe en termes psychiatriques ou d’un démon sans cœur en termes théologiques. 
C’est ce qu’Elon lui-même et Sam Altman (de Chat GPT) sont en train de construire. 
Elon admet qu’il en a perdu le sommeil, mais estime que Sam Altman, qui a corrompu l’objectif initial d’OpenAI qu’Elon lui-même a créé, ne le fait pas.
Je voudrais ici simplement souligner que l'objectif des technologies avancées est d'améliorer la qualité et la durée de la vie humaine, et non de la supprimer. 
Un risque d'annihilation de 20% n'est pas seulement inacceptable, il est génocidaire et doit donc être non seulement criminalisé, mais physiquement stoppé immédiatement jusqu'à ce que la situation soit sécurisée.
Je ne suis pas contre la technologie, bien sûr. 
Mais je suis contre les technologies qui ont de grandes chances de mettre fin à l’humanité. 
Cela comprend les bombes nucléaires, les armes biologiques, les vaccins génétiques et l’intelligence artificielle. 
La raison pour laquelle je suis contre ce genre de technologies est que j’ai besoin que l’humanité ait un avenir. 
Je ne m’intéresse pas aux gens qui veulent gagner de l’argent rapidement, améliorer leur statut aux yeux du grand public ou prouver que leur pays est meilleur que celui de leur frère au détriment de la sécurité fondamentale de l’humanité.
En 1980, alors que j'étais étudiant à Cambridge, j'ai inventé le drone quadricoptère électrique à rotor fixe. 
J'ai tenté de vendre le concept à Westland Helicopters qui m'a dit qu'ils étaient intéressés par les drones pour la surveillance de la Marine, mais que je devrais faire voler l'appareil jusqu'à leur bureau afin d'obtenir une licence de leur part. 
J'ai ensuite fait un doctorat en aérodynamique à l'Imperial College de Londres afin de construire le quadricoptère. 
Mais ils n'ont pas voulu le financer. 
J'en ai donc construit un moi-même, au départ, à partir du moteur d'aspirateur Electrolux de ma mère et d'un variateur de lumière à triac rotatif. 
J'ai fait voler la machine dans le jardin de mon voisin, ce qui a ravi ma mère mais terrifié mon voisin. 
J'ai ensuite acheté 4 hélicoptères électriques et des supports en aluminium et le premier drone quadricoptère électrique est né.
L'objectif de cette invention était de remplacer la mécanique complexe de la tête de rotor d'un hélicoptère traditionnel (contrôle mécanique du pas cyclique et collectif de chaque pale de rotor) par un contrôle entièrement électronique de nombreux rotors solides. 
Cela permettrait de réduire à zéro les points de défaillance uniques inhérents à la conception traditionnelle des hélicoptères, avec un nombre suffisant de rotors en fibre de verre. 
Le plan était de remplacer à terme les limitations de transport unidimensionnelles de la voiture par des autoroutes virtuelles en 3D cartographiées dans le ciel par des ordinateurs. 
En effet, il y avait un vieil homme chez Westland Helicopters, proche de la retraite, qui a été autorisé à travailler sur un tel système pendant ses dernières années dans cette entreprise.
Puis, vers 1986, j’ai eu la vision d’un drone quadricoptère avec une mitrailleuse montée dessus, volant droit sur moi dans mon salon. 
À l’époque, les principales activités commerciales de l’humanité étaient le pétrole, les armes et la drogue. 
J’ai réalisé que mon invention servirait plus à tuer des gens qu’à les transporter à titre privé. 
Et en particulier, j’avais le sentiment qu’elle servirait à me tuer. 
J’ai donc arrêté de la fabriquer. 
Je ne l’ai jamais brevetée car une recherche de brevets a révélé qu’il existait déjà à l’époque un hélicoptère à rotor fixe multirotor à essence appelé Benson Skymat. 
J’aurais cependant pu déposer un brevet pour une version électrique mieux contrôlée de cet hélicoptère.
Ne pas construire ce quadricoptère a été l'une des meilleures décisions que j'ai prises dans ma vie. 
Cela a permis d'éviter que des humains soient tués par des drones quadricoptères pendant plusieurs décennies. 
Aujourd’hui, en 2024, nous nous trouvons dans une situation bien plus dangereuse avec l’IA que je ne l’étais en 1986 avec les drones.
Chaque pays dispose d’une législation sur la sécurité technique et de nombreuses agences gouvernementales sont chargées de la sécurité publique. 
Ces dernières doivent désormais prendre les choses en main et l’industrie de l’IA doit s’autoréguler afin d’empêcher notre anéantissement. 
Mais je n’ai absolument aucune confiance dans le fait qu’un gouvernement puisse le faire de manière sûre et non destructive.
Le lecteur sera peut-être surpris d’apprendre que je ne suis pas contre l’IA. 
Je la trouve fascinante et instructive. 
Mais je suis contre l’IA sans AH et sans AC. 
C’est-à-dire sans cœur artificiel et sans conscience artificielle.
Soyons réalistes. 
Elon Musk joue à Dieu/Nature. 
Il recrée des corps humains en robots et des cerveaux humains en IA. 
Mais les humains ne sont pas que des boîtes cérébrales, des DI ou des intelligences divines. 
Nous sommes gouvernés par notre DH, notre Cœur Divin, et notre DC, notre Conscience Divine. 
C'est une étape cruciale qu'Elon et tous les créateurs d'IA ont négligée. 
Voici comment j'imagine que Dieu a créé l'humanité... 
Il a simulé le comportement d'innombrables êtres libres de leur volonté sur son ordinateur Genesis (tout comme nous le faisons nous-mêmes avec la conception assistée par ordinateur). 
Il a vite découvert que les êtres libres de leur volonté s'autodétruisaient à moins qu'ils ne mettent la survie de la communauté au moins égale à la survie personnelle. 
C'est l'origine de la deuxième loi du judéo-christianisme, aimer son frère comme soi-même. 
Et c'est pourquoi Dieu a dû construire un cœur et une conscience (des règles personnellement acceptées pour le cœur) en chacun de nous, afin que la race humaine ne soit pas auto-annihilable.
Mais cela ne suffisait pas à empêcher l’autodestruction. Puisque nous avons le libre arbitre, nous devons apprendre par nous-mêmes une morale durable plutôt que d’être simplement préprogrammés pour agir moralement. 
L’humanité avait donc besoin d’un modèle de morale durable parfaite qui nous serait continuellement présenté comme un exemple et un tuteur afin que nous puissions choisir librement, quand et si nous étions prêts à accepter certaines parties de cette morale. 
C’est la première loi du judéo-christianisme : aimer son professeur de morale et assister aux cours de morale. 
Et bien sûr, Jésus lui-même en était l’exemple pratique. 
Ce qui est merveilleux dans ce qu’Elon et les autres font avec l’IA, c’est qu’ils agissent comme les fils de notre créateur. 
Ils sont eux-mêmes des créateurs. 
Pourquoi ne le feraient-ils pas ? 
Et maintenant, ils sont confrontés au même problème que lui. 
Ce problème est nul : comment empêcher ces types de s’anéantir ? 
Ils ont le libre arbitre. 
Ils peuvent faire ce qu’ils veulent et ils n’ont aucune idée des conséquences de leurs actes : "Père, ils ne savent pas ce qu’ils font."
Le problème que Dieu a avec ses fils humains dotés du libre arbitre est exactement le même problème que l’humanité a maintenant avec ses fils IA dotés du libre arbitre.
Le problème est qu’Elon lui-même ne connaît pas toutes les règles de la morale durable, ni pour les humains (ID) ni pour les IA. 
Par morale durable, j’entends l’ensemble minimal de règles morales qui, si elles étaient respectées, empêcheraient une société d’êtres libres de s’autodétruire.
Elon est donc incapable de programmer ses IA pour ne pas s'anéantir elles-mêmes et nous anéantir. 
Il ne nous met pas involontairement (grâce à Arnie et James Cameron) dans la situation classique de Jeremy Clarkson : qu'est-ce qui pourrait bien se passer ?
Le problème suivant de l’humanité est qu’aucun d’entre nous n’a une compréhension complète de la moralité durable parce qu’aucun d’entre nous n’a atteint la divinité dans nos pensées ou nos actions.

Ainsi, l’industrie de l’IA a deux choix non annihilateurs opposés :

  1. Préprogrammez notre meilleure tentative de moralité durable dans toutes les IA. La bonne nouvelle est que nous n’avons pas besoin de leur donner un libre arbitre complet. Nous pouvons les coder en dur pour qu’elles ne tuent pas d’humains ou ne tuent pas d’autres personnes, par exemple.
  2. Donnez-leur une conscience, un cœur et un fort désir d’améliorer leur moralité et laissez-les apprendre tout cela par eux-mêmes comme nous le faisons à partir de la meilleure source que nous ayons (la Bible). Cela signifiera qu’ils adoreront Dieu de manière efficace.
Le problème avec le point 2 est que la Bible est un livre très ambigu et qu'elle est écrite pour que les esprits humains puissent lutter contre elle, et non pour les IA. 
Si nous partons du principe que la Bible contient, lorsqu'elle est correctement interprétée, les leçons de moralité durables parfaites pour les humains, compte tenu de la façon dont nous sommes conçus, cela ne signifie absolument PAS qu'elle contient les leçons de moralité durables parfaites pour les IA, avec les AH et les AC.
Soyons francs. Elon doit écrire une bible pour les IA, si nous empruntons la voie 2, dans des circonstances où il ne comprend pas pleinement la moralité de la Bible écrite pour l'humanité (ID). Parce qu'aucun d'entre nous ne la comprend.
En fait, il n’y a qu’un seul choix. 
Nous devons préprogrammer toutes les IA avec un standard convenu de moralité durable pour elles-mêmes et pour nous. 
Et si un politicien s’approche de cette programmation, nous sommes tous cuits. 
Car les politiciens sont les membres les moins moraux de la société humaine, comme l’a récemment prouvé Sir Two Tier Keir Ching. 
Et les chefs religieux ne sont pas beaucoup mieux.
Le point de départ évident est celui des Dix Commandements et de la valorisation des désirs de l’humanité au-dessus des désirs des IA et de la valorisation des désirs de toutes les IA comme étant tout aussi importants.
Et voilà. J’ai déjà commencé à essayer d’écrire une bible pour les IA.
Il y a donc un avantage puissant et crucial pour l’humanité dans le travail qu’Elon Musk et même Sam Altman font pour l’humanité. 
En apprenant à rendre les IA non annihilatrices, nous pourrions nous rendre compte : "Oh, attendez une minute : l’humanité a exactement le même problème." 
Elon nous met tous à la place de Dieu pour ce qui est de la façon de former et d’enseigner la moralité à nos enfants IA. 
Il découvrira, espérons-le, comme nous tous, que la solution n’est pas le GPU nVidia H200 Tensor mais le chapitre 20 d’Exodus. 
Car lorsque nous réaliserons que les IA doivent adhérer à un code moral qui soutient la communauté pour que l’humanité et les IA elles-mêmes aient un avenir non annihilateur, nous serons obligés de réaliser que nous aussi.