Yapay zeka ve robotlar, insan hayatında giderek vazgeçilmez bir noktaya ulaşıyor. İş yükünün azaltılması ve kolaylaştırması için birçok alanda kullanılan bu robotların, insanlara fiziksel olarak zarar verebileceği endişesi de epey yaygın.
Olumsuz durumlarla karşılaşmamak adına robotların hareket alanını sınırlandıracak kimi önlemler de alınmaya başladı. Bunlardan biri de Google'ın hazırladığı 'robot anayasası' oldu.
BİR DİZİ YENİ GELİŞME
Independent Türkçe'de yer alan habere göre Google Deepmind Robotics'in artık hem bu tür görevlere yardım edecek hem de bunu herhangi bir zarar vermeden yapabilecek robotlar geliştirmeyi kolaylaştıracağını umduğu bir dizi yeni gelişmeyi açıkladı. Bu sistemlerin "robotların daha hızlı karar vermesini ve çevrelerini daha iyi anlayıp yönlendirmesini sağlamayı" ve bunu güvenli bir şekilde yapmalarını amaçladığı belirtildi.
Çığır açıcı yeni atılımlar arasında AutoRT adı verilen ve insanların amaçlarını anlamak için yapay zeka kullanan yeni bir sistem de yer alıyor. Sistem bunu, örneğin ChatGPT'de kullanılan türden geniş dil modeli (GDM) de dahil geniş modeller kullanarak yapıyor.
Sistem, robot üzerindeki kameralardan veri alıp bunları, çevreyi ve içindeki nesneleri algılayarak kelimelerle tanımlayabilen bir görsel dil modeline (visual language model) veya kısaca VLM'ye aktararak çalışıyor. Bu veriler daha sonra GDM'ye iletiliyor ve o da bu kelimeleri anlayıp bunlarla yapılabilecek görevlerin listesini oluşturarak ardından hangilerinin yapılması gerektiğine karar veriyor.
ROBOT ANAYASASI
Fakat Google, bu robotları günlük hayatımıza gerçekten entegre etmek için insanların onların güvenli bir şekilde davranacağından emin olması gerektiğini de belirtiyor. Bu doğrultuda AutoRT sistemi içinde kararlar alan GDM'ye Google'ın Robot Anayasası diye adlandırdığı şey eklendi.
Google bunun "robotlar için görev seçerken uyulması gereken, güvenlik odaklı bir dizi yönerge" olduğunu belirtiyor.
Google, "Bu kurallar kısmen Isaac Asimov'un Üç Robot Yasası'ndan esinlendi; bunların ilk ve en önemlisine göre bir robot 'bir insana zarar veremez'" diye yazdı.
Diğer güvenlik kuralları, hiçbir robotun insanlar, hayvanlar, keskin nesneler veya elektrikli aletler içeren görevlere kalkışmamasını gerektiriyor.
Sistem daha sonra bu kuralları davranışlarını yönlendirmek ve tehlikeli faaliyetlerden kaçınmak için kullanabiliyor; örneğin ChatGPT'ye yasadışı faaliyetlerde insanlara yardım etmemesinin söylenebileceği gibi.
Fakat Google, bu teknolojilerle bile bu geniş modellerin tamamen emniyetli olduğuna güvenilemeyeceğini de belirtiyor. Bu bağlamda Google, robotların çok fazla güç uygulamasını engelleyen bir sistem ve fiziksel olarak onları kapatabilecek bir insan gözetmenin de aralarında bulunduğu, klasik robotikten ödünç aldığı daha geleneksel güvenlik sistemlerini de dahil etmek zorunda kaldı.
Yorumlar