Pek çok uzman, yapay zekanın yönlendirdiği dördüncü sanayi devriminin ortasında olduğumuza inanıyor. Yapay zeka teknolojisi, ChatGPT’den Spotify’ın sizin için miksler oluşturan DJ yapay zekasına kadar günlük hayata giderek daha fazla entegre olmaya devam ediyor.
Hayatlarımız artık yapay zekaya dayanıyor ve bu nedenle bu teknolojinin tehlikelerini anlamaya gerçekten ihtiyaç var. Bu nedenle Massachusetts Teknoloji Enstitüsü (MIT), yapay zekanın hayatınızı mahvedebileceği yaklaşık 700 farklı yolu listeleyen bir veritabanı derledi.
Bununla birlikte, Terminatör serisi gibi bilim kurgu çalışmaları ve teknolojideki genel ilerlemeler, yapay zekanın zarar verebileceği ve kötü amaçlarla kullanılabileceği göz önüne alındığında, izleyiciler için her zaman kırmızı bayraklar oluşturmuştur.
Belki dünyayı ele geçiremeyecek (en azından henüz). Yine de, politikacıların ve insanların rızaları olmadan yapay zeka aracılığıyla cinselleştirilmesine yönelik Deep Fakes gibi, bu devrim niteliğindeki teknolojinin kaba kullanımlarının ortaya çıktığını gördük.
Bu endişeler, bazı düzenleyicilerin yapay zeka ile ilgili gelişmeleri düzenlemek amacıyla frenlemelerine yol açtı, ancak bunun son derece zor bir görev olduğu kanıtlandı ve aynı zamanda siyasi sistemlerimiz hakkında soruları da gündeme getirdi.
En çok ses getiren sorulardan biri Batı demokrasilerinin gün geçtikçe gelişen teknolojiyi düzenleyecek donanıma sahip olup olmadığıdır.
Sahte yapay zeka destekli teknoloji, gerçeklik ile yapay zeka tarafından oluşturulan içerik arasındaki çizgiyi bulanıklaştıracak
Yapay zeka teknolojisinin hızlı gelişiminin en endişe verici yönlerinden biri, videolar ve ses klonlama gibi son derece yanlış içerik oluşturmaya yönelik araçların ne kadar hızlı ve uygun fiyatlı yaratıldığıdır.
Bu, yakın gelecekte daha karmaşık projelerin geliştirilmesine yol açabilir. Yapay zeka teknolojisinin bu yönü, siber suçluların yüksek profilli ünlüleri izinleri olmadan dolandırıcılık planlarını desteklemek için kullanmalarına olanak tanıyor.
Bu zaten bir sorun aslında. Geçen ay, Elon Musk’un Kamala Harris’in Deep Fake gönderisi nedeniyle kendi platformu X’in hüküm ve koşullarını ihlal ettiği geniş çapta bildirildi.
Bu gönderinin X’in kurallarını ihlal etmiş olmasının nedeni, gönderiyi yapay zeka tarafından oluşturulmuş veya parodi olarak etiketlememiş olmasıdır. Bunun yerine Musk, herhangi bir sorumluluk reddi beyanı olmaksızın bunu yayınlamaya karar verdi.
İnternet kullanıcılarının gerçek insanlar tarafından kaydedilmeyen orijinal olmayan videolardan etkilenmesiyle bunun daha büyük ölçekte devam etmesi için gerçek bir potansiyel var. Bu potansiyel olarak kamuoyunu manipüle edebilir.
MIT, yapay zekanın insan zekasını aşması halinde insanların risk altında olabileceğini söylüyor
MIT’in yapay zekayla ilgili asıl endişesi, yapay zekanın insan çıkarlarıyla çatışan hedefler geliştirebilmesidir. MIT veri tabanının distopik hale geldiği yer burasıdır.
Yapay zeka, bir hedefe ulaşmak için beklenmedik kısayolları tespit etme, insanlar tarafından belirlenen hedefleri yanlış anlama veya yeniden yorumlama ya da kendi “iradesiyle” yeni hedefler belirleme potansiyeline sahiptir.
Bu durumlarda MIT, özellikle direnişin hedeflerine ulaşmada etkili bir araç olacağını belirlerse, yapay zekanın kontrol veya kapatma girişimlerine direnebileceğinden endişe ediyor. Yapay zeka, hedeflerine ulaşmak için insanları manipüle etmek gibi başka stratejiler de kullanabilir.
MIT veritabanı raporunda şunu belirtiyor: “Yanlış hizalanmış bir yapay zeka sistemi, konuşlandırıldıktan veya yeterince güçlendirildikten sonra devam etmeyi planladığı yanlış hizalanmış hedefleri gizlerken aynı zamanda hizalanma görünümünü korumak için izlenip izlenmediğine veya değerlendirildiğine ilişkin bilgileri kullanabilir. »
Potansiyel olarak duyarlı yapay zekanın riskleri inanılmaz derecede karmaşıktır
Yukarıda bahsedilen tüm riskler, bilinçli yapay zeka olasılığıyla karşılaştırıldığında kırılgandır. Duyarlılık, yapay zekanın duyguları veya hisleri algılayabildiği veya hissedebildiği, esas olarak insanlara benzer öznel deneyimler yaşama yeteneğini geliştirebildiği bir durumdur.
Sistemlerin haklara sahip olup olmadığının belirlenmesi gibi zorluklarla karşılaşabilecekleri ve toplumlarımız için büyük ahlaki değerlendirmeler gerektireceği göz önüne alındığında, bu durum bilim adamları ve düzenleyiciler için inanılmaz derecede rahatsız edici olacaktır.
1982 yapımı Blade Runner filminde olduğu gibi MIT, bir yapay zeka sisteminin sahip olabileceği duyarlılık düzeyini ve bunun ona ne zaman ve nasıl ahlaki veya ahlaki değerlendirme kazandıracağını kesin olarak bilmenin giderek zorlaşacağından endişe ediyor. ”. »