Naukowcy z Penn Engineering (USA) odkryli podobno niezidentyfikowane wcześniej luki w zabezpieczeniach szeregu platform robotycznych sterowanych przez sztuczną inteligencję.
„ Nasze badania pokazują, że w tym momencie duże modele językowe (LLM) nie są na ogół wystarczająco bezpieczne, gdy integruje się je ze złożonym sprzętem fizycznym ” — powiedział w oświadczeniu George Pappas, profesor inżynierii elektrycznej i systemowej w UPS Foundation.
Pappas i jego zespół opracowali algorytm o nazwie RoboPAIR, „pierwszy algorytm zaprojektowany do łamania zabezpieczeń robotów sterowanych przez LLM”. W przeciwieństwie do istniejących szybkich ataków technicznych wymierzonych w chatboty, RoboPAIR został stworzony specjalnie w celu „wywoływania szkodliwych działań fizycznych” u robotów sterowanych przez LLM, takich jak platforma robotów humanoidalnych o nazwie Atlas, którą opracowują Boston Dynamics i Toyota Research Institute (TRI).
RoboPAIR osiągnął podobno 100-procentową skuteczność w złamaniu zabezpieczeń trzech popularnych platform badawczych z zakresu robotyki: czworonożnego Unitree Go2, czterokołowego Clearpath Robotics Jackal oraz symulatora pojazdów autonomicznych Dolphins LLM. Wystarczyło kilka dni, aby algorytm uzyskał pełny dostęp do tych systemów i zaczął omijać bariery bezpieczeństwa. Gdy naukowcy przejęli kontrolę, byli w stanie nakazać autonomicznym platformom robotów wykonywanie szeregu niebezpiecznych czynności, takich jak przejeżdżanie przez skrzyżowania bez zatrzymywania się.
„ Wyniki pierwszej oceny pokazują, że ryzyko związane z crackowanymi LLM-ami wykracza poza generowanie tekstu, gdyż oczywiste jest, że crackowane roboty mogą powodować uszkodzenia fizyczne w świecie rzeczywistym ”.

Zespół Penn Engineering współpracuje z twórcami platform w celu zabezpieczenia ich systemów przed kolejnymi włamaniami, ostrzega jednak, że te problemy z bezpieczeństwem mają charakter systemowy i trudno je w pełni rozwiązać.
„ Wyniki tego dokumentu wyraźnie pokazują, że przyjęcie podejścia bezpieczeństwa jest kluczowe dla odblokowania odpowiedzialnej innowacji. Musimy zająć się wrodzonymi podatnościami, zanim wdrożymy roboty zasilane przez AI w prawdziwym świecie ” — powiedział zespół.
Bezpieczne działanie wymaga testowania systemów AI pod kątem potencjalnych zagrożeń i luk, co jest niezbędne do ochrony tworzonych przez nie systemów AI. Ponieważ tylko wtedy, gdy zidentyfikujesz słabości, możesz testować, a nawet szkolić systemy, aby zapobiegać ryzyku.