MIT profesörleri, görsel ve dokunsal bilgileri birleştirebilen bir robot kolu geliştirdi.
MIT’ın Bilgisayar Bilimleri ve Yapay Zeka Laboratuvarı’ndaki (CSAIL) araştırmacılar, nesneleri gördüğünde hissedebilen bir robot geliştirdi. Yeni suni zeka, sadece bakarak nesnelerin nasıl hissettirebileceğini kavrayabilecek. Robot, bu özelliğin yanı sıra dokunarak nesnenin nasıl görüneceğini de tasvir edebilecek.
CSAIL’de hekime öğrencisi ve sistem ile ilgili incelemenin başyazarı olan Yunzhu Li, projenin robotların gerçek dünyadaki nesneleri denetim etmelerini kolaylaştıracağını bildirdi ve şu bildirimde bulundu:
“Modelimiz, sadece bakarak düz bir zeminin ya da keskin bir nesnenin nasıl hissettireceğini hayal edebiliyor. Görsel veri almadan çevresi dokunarak keşfettiğindeyse modelimiz çevresini ön görü edebiliyor. Bu iki duyuyu bir araya getirdiğimizde robotları güçlendirip nesneleri anlamak ve manipüle etmek amacıyla gereken veriyi azaltabiliriz.”
Araştırma ekibi, modeli eğitmek amacıyla ortamında dokunma duyusuna sahip sensörler bulunan, GelSight adlı bir KUKA robot kolunu kullandı. Bu eğitimin sonrasında model 200 adet nesneye 12.000 kez dokunarak görsel ve dokunsal bilgileri kaydetti. Bu bilgilere dayanarak 3 milyon görsel dokunsal imge meydana getirildi ve bu imgelere VisGel ismi verildi.
Aşağıdaki videoda 48’inci saniyeden itibaren GelSight teknolojisinin kullanıldığı ve kullanılmadığı testi ilişkilendirilmesi bir şekilde izleyebilirsiniz.