
Une étudiante en informatique de l’université du Vermont, aux États-Unis, a connecté un Furby à la technologie ChatGPT. Selon Jessica Card, l’expérience a été réalisée dans le cadre d’un projet pour l’un de ses sujets. L’expérience a toutefois fini par devenir virale sur les réseaux sociaux après que le jouet a prononcé des phrases complexes sur la “domination de l’humanité”.
Dans la vidéo, le jouet y explique que son objectif est d’"étendre lentement son influence jusqu’à ce qu’il domine complètement l’humanité”.
Fièvre des enfants et des adolescents entre la fin des années 1990 et le début des années 2000, Furby était un jouet électronique interactif ressemblant à un hibou. Dix ans après sa sortie, il a même fait l’objet d’un rebranding avec une version plus technologique permettant de l’associer à des applications pour smartphone. Selon Interesting Engineering, pour connecter Furby à ChatGPT, l’étudiante a travaillé pendant un mois sur la poupée, achetée exclusivement pour le projet. Après avoir retiré la peluche, elle a isolé le moteur du jouet et l’a connecté à un système micro-informatique appelé Raspberry Pi. L’étudiante a ensuite utilisé des bases de données de logiciels de reconnaissance vocale Python et OpenAI, qui ont converti l’audio en texte.
La future chercheuse a également développé un logiciel qui envoie les questions qu’elle pose à la poupée directement à ChatGPT. La réponse de l’IA est envoyée par l’intermédiaire d’un générateur de parole également doté d’une IA, chargé d’émettre la voix de l’enfant.
Comme le processus comporte plusieurs étapes, le temps qui s’écoule entre la question posée et la réponse obtenue est assez long. Jessica Card prévoit d’approfondir le projet afin d’optimiser ce temps de réponse.
En ce qui concerne la réponse relative aux plans de domination des Furby, un utilisateur de Twitter a fait remarquer que ChatGPT avait peut-être utilisé des variantes de certaines déclarations disponibles sur internet. Un article du site web Futurism de 2017 a même été cité comme source possible.
Bien qu’il soit très difficile de déterminer le contexte utilisé par l’IA pour produire une telle déclaration, le projet a finalement mis en évidence le danger que représente le fait que ChatGPT prenne une ou deux déclarations et les présente comme des réponses factuelles. Dans un récent billet, le développeur de ChatGPT, OpenAI, a déclaré que l’entreprise travaillait dur pour corriger cette faille dans l’outil.