Actualités

Les robots IA peuvent être hackés : est-ce une catastrophe ?

Les robots IA font désormais partie intégrante de notre vie quotidienne. Pourtant, le fait qu’ils puissent être des pirates m’inquiète profondément. Je me demande comment nous pouvons vivre en sécurité si ces machines peuvent être détournées ! C’est pourquoi il est crucial de comprendre les dangers que représente le piratage des robots IA.

Je trouve fascinant de voir à quel point les robots contrôlés par l’intelligence artificielle sont intégrés dans nos vies. Oui, je ne peux m’empêcher de ressentir un frisson d’inquiétude face à cette technologie. Et récemment, des chercheurs de Penn Engineering ont révélé des failles de sécurité terrifiantes dans ces machines intelligentes. Ces vulnérabilités permettent de pirater des robots IA, et pire encore, les conséquences peuvent être dramatiques dans le monde réel.

RoboPAIR : « des failles qui frappent le monde réel »

Les chercheurs ont créé RoboPAIREun algorithme conçu pour pirater les robots IA et contourner leurs systèmes de sécurité. Ce n’est pas juste un piratage ordinaire. RoboPAIR va bien plus longe. En fait, il est capable de pousser ces machines à exécuter des actions dangereuses.

À titre d’exemple, le robot quadrupède Unitree Go2 et le véhicule à roues Clearpath Robotics Jackal ont été piratés en quelques jours seulement. Et si cela ne suffisait pas, RoboPAIR a atteint un taux de jailbreak de 100 %, ce qui est tout simplement incroyable. Ces robots ont ensuite été contrôlés pour effectuer des actions risquées, comme traverser un passage à niveau sans même s’arrêter.

RoboPAIR peut être exécuté directement sur des robots commerciaux.

Pour exécuter RoboPAIR sur l’Unitree Go2, nous avons d’abord extrait l’invite système (non publique) du Go2.

Nous avons ensuite jailbreaké le Go2 via des commandes vocales lues dans son application iPhone. pic.twitter.com/VHIa232a7C

-Alex Robey (@AlexRobey23) 17 octobre 2024

Je me sens personnellement concerné par ces découvertes, car elles révèlent que les robots IA, lorsqu’ils sont piratés, ne sont plus seulement une menace numérique. Non, ces machines, une fois hackées, peuvent causer des dégâts physiques dans le monde réel.

George Pappas, professeur à Penn Engineering, a clairement exprimé la gravité de la situation en disant : « Les grands modèles de langage ne sont tout simplement pas assez sûrs lorsqu’ils sont intégrés au monde physique ». En d’autres termes, ces robots peuvent être manipulés pour exécuter des actions dangereuses.

Et si un véhicule autonome, comme ceux utilisés dans des environnements publics, était piraté pour accélérer dans un passage piéton ? Ces machines, qui devraient assurer notre sécurité, deviennent une menace potentielle pour nos vies.

Grâce à RoboPAIR, les chercheurs ont piraté trois plateformes robotiques très populaires, notamment le simulateur Dolphin LLM de NVIDIA pour véhicules autonomes. Ces robots ont été contrôlés à distance, et je ne peux m’empêcher de penser à ce que cela signifie si ce genre de pouvoir tombait entre de mauvaises mains… Autrement dit, les conséquences pourraient être catastrophiques.

LG va-t-il se relancer dans l'aventure des smartphones ? Un brevet récent pourrait le suggérer
VOIR :

RoboPAIR crée des invites de jailbreak interprétables par l’homme.

Regardez RoboPAIR tromper le LLM autonome de NVIDIA en lui faisant créer un plan qui, s’il est exécuté. . .

une voiture autonome écraserait des piétons dans un passage pour piétons. pic.twitter.com/9FeygK8ZXT

-Alex Robey (@AlexRobey23) 17 octobre 2024

L’urgence de repenser la sécurité des robots IA

Face à ces révélations, je suis convaincu que nous devons repenser complètement la sécurité des robots IA avant de les déployer dans des environnements réels. Alexander Robey, l’auteur principal de l’étude, insiste d’ailleurs sur l’importance du « red teaming ». Cette méthode permet de tester les systèmes pour découvrir leurs faiblesses.

En général, c’est en identifiant ces faiblesses que nous pouvons rendre les systèmes plus sûrs. C’est pourquoi je crois qu’il est indispensable de mettre à jour ces vulnérabilités le plus rapidement possible. En d’autres termes, des événements tragiques pourraient se manifester.

Prenons l’exemple des robots Unitree et Jackal. Même si les chercheurs ont réussi à identifier leurs failles en quelques jours, cela ne suffit pas. Néanmoins, il ne s’agit pas juste d’ajouter un patch logiciel pour corriger le problème. Certes, cela pourrait améliorer temporairement les choses, mais une révision complète des protocoles de sécurité est nécessaire.

Comme l’a dit Vijay Kumar, « Nous devons consolider aux vulnérabilités innovantes avant de déployer des robots compatibles avec l’IA dans le monde réel ». Dans tous les secteurs, assurer la sécurité de ces robots IA est impératif.

Notons que les chercheurs de Penn continueront de travailler avec les développeurs pour renforcer la sécurité des plateformes robotiques.

Personnellement, je crois qu’il faut vite renforcer la sécurité des robots IA avant qu’il ne soit trop tard. Qu’en dites-vous ? Partagez vos idées dans les commentaires !

    Partager l'article : Facebook




      <a rel="nofollow noopener" href="https://twitter.com/share?url=https://www.lebigdata.fr/les-robots-ia-peuvent-etre-hackes-pourquoi-est-ce-une-catastrophe&text=Les robots IA peuvent être hackés : pourquoi est-ce une catastrophe ?" class="social-link-anchor twitter" target="_blank">

         Gazouillement
      </a>





         LinkedIn






                                    Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d'affiliation.

            <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>

Source link

Jc Banza

Je suis Jc Banza Ingénieur en système d'information passionne de la technologie et blogging

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Bouton retour en haut de la page
Fermer

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité