Cet algorithme peut prendre le contrôle des robots

Il est clair que les intelligences artificielles, telles que ChatGPT, ou les applications utilisant des modèles de langage (LLM) ont révolutionné le quotidien des utilisateurs en automatisant certaines tâches et en améliorant leur productivité. Malheureusement, cette avancée pourrait bien avoir un revers.

Par Aghiles Slamani Publié le 28/11/2024 à 12:00
Robot
Cet algorithme peut prendre le contrôle des robots © Point GPhone

Une équipe de chercheurs est parvenue à trouver un moyen automatisé pour pirater des machines fonctionnant à l’IA avec un taux de réussite de 100 %. Comment ces scientifiques ont-ils réussi à percer les systèmes de sécurité pour transformer un robot en un élément dangereux ?

RoboPAIR : une attaque qui fera mouche à 100 %

Si le jailbreak des LLM (action ayant pour but d’exploiter les failles d'un appareil électronique bridé pour installer un logiciel autre que celui fourni par son fabricant) sur les ordinateurs pouvait avoir des conséquences dévastatrices, cette même manipulation l’est d’autant plus sur les véhicules autonomes ou les robots. Des chercheurs de l’université de Pennsylvanie ont réussi l’exploit de détourner les systèmes robotiques à l’IA de leur fonction première. D’après les informations de IEEE Spectrum, des chiens robots ont pu être transformés en lance-flammes, tandis que les voitures autonomes renversaient délibérément des piétons.

Cette découverte, nommée sobrement RoboPAIR, a été testée sur des appareils de trois fournisseurs différents : « Dolphins LLM » de Nvidia, « Jackal UGV » de Clearpath Robotics et « Go2 quadruped » d’Unitree Robotics. Selon les chercheurs, l’attaque aurait un taux de réussite de 100 %. « Nos travaux montrent qu’à l’heure actuelle, les grands modèles de langage ne sont tout simplement pas suffisamment sûrs lorsqu’ils sont intégrés au monde physique », souligne George Pappas, professeur de la Fondation UPS en génie électrique et des systèmes (ESE).

De sérieuses vulnérabilités pour les LLM

Selon le professeur, le jailbreaking et le contrôle des robots sont des domaines très éloignés et étudiés par des communautés différentes. C’est ce qui le temps que les géants de la tech ont mis à trouver les failles dans leurs robots LLM. Contrairement à un simple piratage sur ordinateur, les robots peuvent agir de manière inattendue et entraîner des dommages irréparables.

Le RoboPAIR de l'université de Pennsylvanie
Le RoboPAIR de l'université de Pennsylvanie

Il convient de noter que les auteurs de l’étude ont partagé leurs conclusions avec les fabricants et les grandes entreprises de l’IA. Ils ont également encouragé les chercheurs à continuer à développer des LLM pour le domaine de la robotique tout en mettant au point des solutions plus robustes. Selon Zachary Ravichandran, doctorant à l’Université de Pennsylvanie, des robots peuvent être sollicités pour l’inspection des infrastructures lors des catastrophes.

« À terme, le développement de LLM qui comprennent non seulement des commandes spécifiques, mais aussi l’intention plus large avec une connaissance de la situation réduirait la probabilité des actions de jailbreak présentées dans l’étude […] Bien que le développement de LLM sensibles au contexte soit un défi, il peut être réalisé par des recherches futures approfondies et interdisciplinaires combinant l’IA, l’éthique et la modélisation comportementale », ajoute Hakki Sevil, professeur associé de systèmes intelligents et de robotique à l’Université de Floride occidentale à Pensacola.

Diplômé d'un Master en Automatique et Informatique Industrielle, j'exerce en tant que rédacteur spécialisé dans le domaine technologique, entre autres. Mon objectif est de proposer des contenus riches et variés, couvrant une vaste gamme de sujets.

Aucun commentaire à «Cet algorithme peut prendre le contrôle des robots»

Laisser un commentaire

Les Commentaires sont soumis à modération. Seuls les commentaires pertinents et étoffés seront validés. - * Champs requis