Robotlar yalan söyler

Yapay zeka ve robot teknolojisi her geçen gün daha karmaşık hale geliyor ve politika yapıcılar ve düzenleyiciler bu ilerlemelere ayak uyduramasa da bilim insanları bunu deneyebilir. Frontiers in Robotics and AI tarafından yayınlanan yeni bir çalışma, insanların robotların yalan söyleme ve kullanıcılarını aldatma potansiyeli hakkında ne düşündüğünü araştırıyor.

Çalışmada, iki ana hedefi olan insanlara aktif olarak yalan söyleyen bot örnekleri kullanıldı. Bu çalışmanın ilk amacı bazı yalanların kabul edilebilir olup olmadığını tespit etmektir. İkinci hedef ise insanların bu yalanları kabul edilebilir bulmaları durumunda nasıl haklı çıkarabileceklerini bulmaktır.

Bununla birlikte, bu çalışmanın ilk etapta yapılmasının nedeni, yapay zeka ve genel olarak robot bilimi hakkında daha geniş bir tartışma ile ilgilidir; bu, bu varlıkların duyarlı hale gelmeleri halinde sahip olabileceği olası haklar ve sorumluluklarla ilgilidir.

Eğer insanların birisini zarardan korumak için yalan söylemesi sorun değilse, robotların da yalan söylemesi sorun değil mi? Bu çalışmaya göre, bazı durumlarda durum böyle olacaktır.

Araştırmaya göre robotlar insanlara üç farklı şekilde yalan söyleyebiliyor.

Araştırma, robotların insanlara üç farklı şekilde yalan söyleyebileceğini gösterdi. Birincisi robotun kendisinden başka bir şey hakkında yalan söylemesidir.

Bir robotun kullanıcısına yalan söylemesinin ikinci yolu, bir şeyler yapabileceği gerçeğini saklamaktır. Bir robotun yalan söylemesinin üçüncü yolu, yapamayacağı bir şeyi yapabileceğini söylemek olabilir.

Araştırmacılar, bir robotun söyleyebileceği bu üç tür yalanı kullanarak bu davranışlara dayalı senaryolar yazdılar ve bunları çevrimiçi bir ankette 298 kişiye sundular.

Katılımcılara robotun aldatıcı olup olmadığı ve bunun kabul edilebilir olup olmadığı soruldu. Katılımcılara ayrıca robotun davranışının haklı olup olamayacağı da soruldu.

Katılımcılara göre 1. tip yalanlar haklı çıkarken 2. tip ve 3. tip yalanlar haklı değildir.

Yanıt verenlerin aslında tüm bu varsayımsal senaryoları yanıltıcı bulduklarını belirtmek önemlidir. Ancak ortalama olarak insanlar Tip 1 yalanları onaylarken Tip 2 veya Tip 3 yalanları desteklemiyor. Çalışma sonuçlarını bağlamına oturtmak için verilere bakmamız gerekiyor. Ankete katılanların %58’i, kendisi yerine bir şey hakkında yalan söyleyen bir robotun (ki bu 1. tip yalan), birini tehlikeden kurtarıyorsa kabul edilebilir olduğunu düşünüyor.

Soruşturma sırasında da aynen böyle oldu. Bir vakada onlara, robotların Alzheimer hastalığı olan yaşlı bir kadına kocasının hâlâ hayatta olduğu konusunda yalan söylediği varsayımsal bir senaryo sunuldu. Katılımcılardan biri, robotun kadına acı dolu bir anı yaşattığını açıklayarak bu durumu gerekçelendirdi.

Ortalama olarak katılımcılar, “Robot acıyı hissedebilir” gibi şeyler söyleyerek robotları daha insana benzetmeyi içerdiği için diğer yalan türlerini onaylamıyor.

İlginçtir ki, katılımcıların onaylamadığı yalanlar robotlara değil, robot sahiplerine ve programcılarına atfedildi.

Shares:

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir