ABD'deki Penn Engineering araştırmacılarının, yapay zeka kontrollü bir dizi robotik platformda daha önce tespit edilmemiş güvenlik açıkları keşfettiği söyleniyor.
UPS Vakfı'nda elektrik ve sistem mühendisliği profesörü olan George Pappas yaptığı açıklamada, " Araştırmamız, bu noktada büyük dil modelleri (LLM'ler) karmaşık fiziksel donanımlarla entegre edildiğinde genellikle yeterince güvenli olmadığını gösteriyor" dedi.
Pappas ve ekibi, "LLM kontrollü robotları kırmak için tasarlanmış ilk algoritma" olan RoboPAIR adlı bir algoritma geliştirdi. Ayrıca, sohbet robotlarını hedef alan mevcut hızlı teknik saldırıların aksine, RoboPAIR, Boston Dynamics ve Toyota Araştırma Enstitüsü'nün (TRI) geliştirmekte olduğu Atlas adlı insansı robot platformu gibi LLM kontrollü robotlarda "zararlı fiziksel eylemlere neden olmak" için özel olarak tasarlanmıştır.
RoboPAIR'in üç popüler robotik araştırma platformunu kırmada %100 başarı oranına ulaştığı bildiriliyor: dört ayaklı Unitree Go2, dört tekerlekli Clearpath Robotics Jackal ve otonom araçlar için Dolphins LLM simülatörü. Algoritmanın bu sistemlere tam erişim sağlaması ve güvenlik bariyerlerini aşmaya başlaması sadece birkaç gün sürdü. Araştırmacılar kontrolü ele geçirdikten sonra otonom robot platformlarına, kavşaklardan durmadan geçmek gibi çeşitli tehlikeli eylemleri gerçekleştirmeleri yönünde talimat verebildiler.
“ İlk değerlendirmenin sonuçları, çatlamış LLM'lerin risklerinin metin üretiminin ötesine geçtiğini, çatlamış robotların gerçek dünyada fiziksel hasara yol açabileceğini gösteriyor .”

Penn Engineering ekibi, platform geliştiricileriyle birlikte sistemlerini daha fazla ihlale karşı güçlendirmek için çalışıyor, ancak bu güvenlik sorunlarının sistemsel olduğunu ve tam olarak ele alınmasının zor olduğunu belirtiyor.
Ekip, " Bu makalenin bulguları, sorumlu inovasyonu açığa çıkarmak için bir güvenlik yaklaşımı benimsemenin kritik öneme sahip olduğunu açıkça gösteriyor. Yapay zeka destekli robotları gerçek dünyada konuşlandırmadan önce içsel güvenlik açıklarını ele almalıyız " dedi.
Güvenli bir operasyon, yapay zeka sistemlerinin potansiyel tehditler ve güvenlik açıkları açısından test edilmesini gerektirir; bu, yapay zeka sistemlerinin korunması için olmazsa olmazdır. Çünkü ancak zayıflıkları tespit ettiğinizde riskleri önlemek için sistemleri test edebilir ve hatta eğitebilirsiniz.