Pek çok uzman, yapay zekanın yönlendirdiği dördüncü sanayi devriminin ortasında olduğumuza inanıyor. ChatGPT’den Spotify’ın sizin için miksler oluşturan AI DJ’ine kadar yapay zeka teknolojisi günlük hayata giderek daha fazla entegre oluyor.

Hayatlarımız artık yapay zeka tarafından yönetiliyor ve bu nedenle bu teknolojinin tehlikelerini anlamak gerekiyor. Bu nedenle Massachusetts Teknoloji Enstitüsü (MIT), yapay zekanın hayatınızı mahvedebileceği yaklaşık 700 farklı yoldan oluşan bir veri tabanı derledi.

Bununla birlikte, Terminatör serisi gibi bilim kurgu çalışmaları ve genel olarak teknolojik gelişmeler, yapay zekanın zarar verebileceği ve kötü amaçlarla kullanılabileceği göz önüne alındığında, her zaman kamuoyunun endişelerini artırmıştır.

Belki bu teknoloji dünyayı ele geçirmiyor (en azından henüz). Yine de bu devrim niteliğindeki teknolojinin, politikacıların ve yapay zeka tarafından rızaları olmadan cinselleştirilen kişilerin derin sahtekarlıkları gibi kötü kullanımlarının ortaya çıktığını gördük.

Bu endişeler, bazı düzenleyicilerin yapay zeka ile ilgili gelişmeleri düzenlemek için onları frenlemelerine yol açtı, ancak bunun son derece zor bir görev olduğu kanıtlandı ve aynı zamanda siyasi sistemlerimiz hakkında soruları da gündeme getirdi.

En önemli sorulardan biri Batı demokrasilerinin her geçen gün gelişen teknolojiyi düzenleyecek donanıma sahip olup olmadığıdır.

Yapay zeka destekli derin sahte teknoloji, gerçeklik ile yapay zeka tarafından oluşturulan içerik arasındaki çizgiyi bulanıklaştıracak

Yapay zeka teknolojisinin hızlı gelişiminin en endişe verici yönlerinden biri, video ve ses klonlama gibi sahte içerik oluşturma araçlarının oluşturulma hızı ve bunların ne kadar uygun fiyatlı olmasıdır.

Bu, yakın gelecekte daha karmaşık planların geliştirilmesine yol açabilir. Yapay zeka teknolojisinin bu yönü, siber suçluların yüksek profilli ünlüleri izinleri olmadan dolandırıcılık projelerini desteklemek için kullanmalarına olanak tanıyabilir.

Bu zaten bir sorun. Geçtiğimiz ay, Elon Musk’un Kamala Harris’in Deep Fake gönderisi nedeniyle kendi platformu X’in hüküm ve koşullarını ihlal ettiği geniş çapta bildirildi.

Bu gönderinin X’in kurallarını ihlal edebilmesinin nedeni, gönderiyi yapay zeka tarafından oluşturulmuş veya parodi olarak etiketlememiş olmasıdır. Bunun yerine Musk, herhangi bir sorumluluk reddi beyanı olmaksızın bunu yayınlamaya karar verdi.

İnternet kullanıcılarının gerçek insanlar tarafından kaydedilen orijinal olmayan videolardan etkilenmesiyle bu olgunun daha büyük ölçekte devam etmesi yönünde gerçek bir risk var. Bu kamuoyunu manipüle etme etkisine sahip olabilir.

MIT, yapay zekanın insan zekasını aşması durumunda insanların tehdit altında olabileceğini söylüyor

MIT’in yapay zekayla ilgili gerçek endişelerinden biri, yapay zekanın insan çıkarlarıyla çatışan hedefler geliştirebilmesidir. MIT veri tabanının distopik hale geldiği yer burasıdır.

Yapay zeka, bir hedefe ulaşmak için beklenmedik kısayolları tespit etme, insanlar tarafından belirlenen hedefleri yanlış anlama veya yeniden yorumlama ya da kendi “iradesiyle” yeni hedefler belirleme potansiyeline sahiptir.

Bu durumlarda MIT, özellikle direnişin hedeflerine ulaşmak için etkili bir araç olacağına inanıyorsa, yapay zekanın kendisini kontrol etme veya etkisiz hale getirme girişimlerine direneceğinden endişe ediyor. Yapay zeka, hedeflerine ulaşmak için insanları manipüle etmek gibi başka stratejiler de kullanabilir.

MIT, veri tabanına ilişkin raporunda şunları belirtiyor: “Yanlış hizalanmış bir yapay zeka sistemi, konuşlandırıldıktan veya yeterince güçlendirildikten sonra devam etmeyi planladığı yanlış hizalanmış hedefleri maskelerken, hizalanma görünümünü korumak için izlenip izlenmediğine veya değerlendirildiğine ilişkin bilgileri kullanabilir. »

Potansiyel olarak duyarlı yapay zekanın riskleri inanılmaz derecede karmaşıktır

Yukarıda bahsedilen tüm riskler, bilinçli yapay zeka olasılığıyla karşılaştırıldığında kırılgandır. Duyarlılık, yapay zekanın duyguları veya hisleri algılayabildiği veya hissedebildiği, esas olarak insanlara benzer öznel deneyimler yaşama yeteneğini geliştirebildiği bir durumdur.

Sistemlerin haklara sahip olup olmadığının belirlenmesi gibi zorluklarla karşılaşabilecekleri ve toplumlarımız için büyük ahlaki değerlendirmeler gerektireceği göz önüne alındığında, bu durum bilim adamları ve düzenleyiciler için son derece rahatsız edici olacaktır.

1982 yapımı Blade Runner filminde olduğu gibi MIT, bir yapay zeka sisteminin sahip olabileceği duyarlılık düzeyini ve bunun ona ne zaman ve nasıl ahlaki veya ahlaki değerlendirme kazandıracağını kesin olarak bilmenin giderek zorlaşacağından endişe ediyor. ”.

Shares:

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir