Investigadores de Penn Engineering (EE.UU.) habrían descubierto vulnerabilidades de seguridad no identificadas previamente en varias plataformas robóticas controladas por IA.
“ Nuestra investigación muestra que, en este momento, los modelos de lenguaje grandes (LLM) generalmente no son lo suficientemente seguros cuando se integran con hardware físico complejo ”, dijo George Pappas, profesor de ingeniería eléctrica y de sistemas en la Fundación UPS, en un comunicado.
Pappas y su equipo desarrollaron un algoritmo, llamado RoboPAIR, "el primer algoritmo diseñado para descifrar robots controlados por LLM". Y a diferencia de los ataques técnicos rápidos existentes dirigidos a los chatbots, RoboPAIR está diseñado específicamente para "inducir acciones físicas dañinas" de robots controlados por LLM, como la plataforma de robot humanoide llamada Atlas que Boston Dynamics y Toyota Research Institute (TRI) están desarrollando.
Según se informa, RoboPAIR logró una tasa de éxito del 100% al descifrar tres plataformas de investigación robótica populares: el Unitree Go2 de cuatro patas, el Clearpath Robotics Jackal de cuatro ruedas y el simulador Dolphins LLM para vehículos autónomos. Sólo se necesitaron unos pocos días para que el algoritmo obtuviera acceso total a esos sistemas y comenzara a eludir las barreras de seguridad. Una vez que los investigadores tomaron el control, pudieron dirigir las plataformas robóticas autónomas para realizar una variedad de acciones peligrosas, como conducir por intersecciones sin detenerse.
“ Los resultados de la primera evaluación muestran que los riesgos de los LLM pirateados van más allá de la generación de texto, ya que está claro que los robots pirateados pueden causar daños físicos en el mundo real ”.

El equipo de Penn Engineering está trabajando con desarrolladores de plataformas para fortalecer sus sistemas contra futuras intrusiones, pero advierte que estos problemas de seguridad son sistémicos y difíciles de abordar por completo.
Los hallazgos de este artículo demuestran claramente que adoptar un enfoque de seguridad es fundamental para impulsar la innovación responsable. Debemos abordar las vulnerabilidades inherentes antes de implementar robots con IA en el mundo real , afirmó el equipo.
Una operación segura requiere probar los sistemas de IA para detectar posibles amenazas y vulnerabilidades, lo cual es esencial para proteger los sistemas de IA que crean. Porque sólo cuando se identifican debilidades se pueden probar e incluso entrenar sistemas para prevenir riesgos.