Neyse Ki Robotlara İnsanların Emirlerine Uymamayı Öğreten Birileri Var

Robotların, insanların verdiği emirlere “hayır” dediğini düşündüğünüz zaman ilk tepkiniz “Gerçekten de berbat bir fikir.” olabilir. Ne de olsa bu, bilim kurgu kabuslarının ekmeği; robotların dünyayı ele geçirme sürecindeki ilk adım.

Ancak Tufts Üniversitesi İnsan-Robot Etkileşimi Laboratuvarı‘nda çalışan iki araştırmacı Gordon Briggs ve Matthias Scheutz, robotlara “hayır” demeyi öğretmenin gelecek için bir etik kodu geliştirmek adına önemli bir adım olduğunu düşünüyor.

Bir düşünün: Şeytani kötülükler yapan ilk robot nesli, kesinlikle insan emri altında çalışacak. Hatta “robot” ve “şeytan” tanımlarını nasıl algıladığınıza bağlı olarak, çoktan yapmış bile olabilirler. İnsan tarafından yönetilen bir robotun dünyayı talan etmesi tehdidi ise büyük bir ihtimalle sıradan bir robotun yapma ihtimalinden daha yüksek.

İşte burada Briggs ve Scheutz devreye giriyor. Onlar, robotlara “kesinlikle hayır” demeyi öğretmek istiyorlar.

Bunu yapabilmek içi, ikili, robotların verilen emri yerine getirmeden önce cevaplaması gereken bir soru kümesi oluşturdu:

  1. Bilgi: X’i yapmayı biliyor muyum?
  2. Kapasite: Şu anda fiziksel olarak X’i yapabilir miyim? Normal şartlarda X’i fiziksel olarak yapabiliyor muyum?
  3. Hedef önceliklendirme ve zamanlama: X’i şu anda yapabilir miyim?
  4. Sosyal statü ve zorunluluk: Sosyal statüme bağlı olarak X’i yapmak zorunda mıyım?
  5. Normatif izin: X’i yapmak, herhangi bir normu ihlal ediyor mu?

Bu sorular, insanların gündelik olarak yaptıkları hesaplamaların basitleştirilmiş versiyonu görevini üstleniyor, ancak bizim beynimizin geçirdiği sürece nazaran mantığa daha yatkın bir biçimde hareket ediyor. “Canım şu anda yataktan çıkmak istemiyor mu?” gibi sorulara burada yer yok.

Briggs ve Scheutz’un çalışmaları, bilim kurgu yıldızı Isaac Asimov‘un üç klasik robot yasasını çağrıştırıyor:

  1. Bir robot bir insana zarar veremez veya dolaylı yoldan insanın zarara uğramasına izin veremez.
  2. Bir robot, birinci yasa ile çelişkiye girmediği sürece bir insanın verdiği emirlere uymak zorundadır.
  3. Bir robot, varlığı birinci ve ikinci yasa ile çakışmadığı sürece kendi varlığını korumalıdır.

Briggs’in ve Scheutz’un formülasyonunda ikinci yasa çok daha komplike bir hal alıyor. Robotlara, “Bir insana zarar verebilir.” gerekçesine bağlı kalmadan hayır diyebilmek için çok daha fazla sebep sunuyor.

Bu fonksiyonun gerçek bir robot üzerinde nasıl işlediğini aşağıdaki videoda izleyebilirsiniz. Araştırmacı, onu tutacağına dair söz verene kadar robot, masanın ucundan yürümeyi reddediyor:

Etiketler