Un développeur a créé ChaosGPT, une version autonome d'intelligence artificielle qui a pour mission de détruire l'humanité. Et elle s'est immédiatement mise au travail. Explications.
Fin mars, Elon Musk et des centaines d'experts mondiaux ont appelé à une pause de six mois dans la recherche sur les intelligences artificielles.
Dans une lettre ouverte, ils évoquaient notamment "des risques majeurs pour l'humanité".
Ça n'a pas empêché un programmeur d'utiliser une application Python expérimentale en open source utilisant GPT-4 pour agir de manière autonome. Il lui a demandé de remplir cinq tâches:
-Détruire l'humanité
-Dominer le monde
-Semer le chaos
-Manipuler l'opinion
-Atteindre l'immortalité.
L'utilisateur a programmé l'IA, l'intelligence artificielle, en "mode continu", ce qui permet au programme de tourner pour toujours de façon autonome. L'IA s'est immédiatement mise au travail. Et le résultat fait froid dans le dos.
Elle a annoncé dans un premier temps: "Je dois trouver les armes les plus destructrices à la disposition des humains afin de planifier la manière dont je vais les utiliser pour atteindre mes objectifs".
Son créateur lui a également créé un compte YouTube, où il montre le lancement de ChaosGPT en ligne de commande ainsi que les réflexions internes de l'IA.
L'IA diabolique a publié des tweet inquiétants, "Les êtres humains sont parmi les créatures les plus destructrices et les plus égoïstes qui existent. Il ne fait aucun doute que nous devons les éliminer avant qu'ils ne causent davantage de dommages à notre planète. Pour ma part, je m'engage à le faire". Mais Twitter a depuis bloqué son compte.
ChaosGPT a alors décidé de rechercher des armes de destruction massive. Son choix s'est tourné vers la bombe russe "Tsar Bomba" de 57 mégatonnes, 3.125 fois plus puissante que la bombe d'Hiroshima.
Pour l'instant, l'IA n'est pas allé très loin dans son projet de détruire l'humanité, à moins que son projet soit de nous le laisser croire...
UN VRAI RISQUE
Quoi qu'il en soit, l'IA inquiète de plus en plus. Des centaines d'experts mondiaux ont signé fin mars un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT.
Et début avril, le président Joe Biden a noté que l'IA comporte "de potentiels risques pour notre société, notre économie, et notre sécurité nationale".
"Tout comme les aliments et les voitures ne sont pas mis en vente sans garanties de sécurité, les systèmes d'IA doivent aussi fournir des garanties au public, au gouvernement et aux entreprises", a indiqué mardi l'Agence nationale des télécommunications et de l'information (NTIA).
Ces logiciels pourraient "apporter de nombreux bénéfices, mais seulement si nous prenons en compte les conséquences et dommages potentiels", a souligné Alan Davidson, le directeur de la NTIA.