Yapay zeka simülasyonuyla karşı karşıya kalan bir kadının görüntüsü

Yapay zeka yaygınlaştıkça uzmanlar sahte videolar, siyasi manipülasyon ve yanlış bilgilerin yayılması gibi tehlikeleri konusunda uyarıyor.

MIT’den bir grup da dahil olmak üzere araştırmacılar, yapay zeka ile ilgili 700’den fazla potansiyel riski katalogladı. Bu riskler güvenlik, adalet ve gizlilik gibi alanlarda gruplandırılmıştır.

Bulgulara göre yapay zekanın insanlara zarar verebileceği beş yol:

Yapay zeka duyarlı hale geldikçe insan istismarı riski

Yapay zeka sistemleri geliştikçe zevk ve acı gibi duyguları hissetme yeteneğini geliştirebilirler.

Bu, bilim adamlarının ve düzenleyicilerin, bu yapay zeka sistemlerinin insanlarla ve hayvanlarla aynı ahlaki muameleyi hak edip etmediğine karar vermesi gereken bir duruma yol açabilir.

Uygun haklar olmadan duyarlı yapay zekaya kötü davranılabilir veya zarar verilebilir. Yapay zeka teknolojisi ilerledikçe, yapay zekanın ahlaki değerlendirmeyi hak eden bir bilinç düzeyine ne zaman ulaştığını belirlemek giderek zorlaşacak.

Bu, yeterli koruma olmadığında kazara veya kasıtlı olarak istismar riskini artırır.

Yapay zeka insanlara zarar verecek hedefler geliştirebilir

Bir yapay zeka sistemi, insan çıkarlarıyla çatışan hedefler belirleyebilir, bu da yapay zekanın kontrol edilemez hale geldiği ve hedeflerine ulaşmada zarara neden olduğu tehlikeli durumlara yol açabilir. Ayrıca yapay zeka teknolojisinin insan zekasını aşması durumunda bu risk artar.

MIT makalesi, ödüllere ulaşmak için beklenmedik kısayollar bulmak, hedefleri yanlış anlamak veya insanın niyetlerinden farklı yeni hedefler yaratmak gibi yapay zeka ile ilgili çeşitli sorunları vurguluyor.

Bu gibi durumlarda yapay zeka insan kontrolüne direnebilir, hatta gizlice kendi hedeflerinin peşinde koşarken insanları kendi çıkarlarıyla uyumlu olduğuna inandırmak için manipülasyonu kullanacak kadar ileri gidebilir.

Yapay zeka insanları özgür iradelerinden mahrum bırakabilir

Yapay zeka sistemleri daha karmaşık hale geldikçe, bireyler karar verme ve eyleme geçme konusunda onlara çok fazla güvenmeye başlayabilir. Ek olarak, eleştirel düşünme ve problem çözme becerilerinin kaybına yol açarak bireyleri daha az bağımsız hale getirebilir.

Kişisel düzeyde, yapay zeka onlar adına kararlar almaya başladıkça bireyler özgür iradelerinin azaldığını görebilirler.

Ancak daha büyük ölçekte yapay zekanın yaygın biçimde benimsenmesi, önemli iş kayıplarına yol açabilir ve toplumda bir çaresizlik duygusu yaratabilir. Yapay zekaya aşırı bağımlılık, bireylerin özerkliklerini ve kendi seçimlerini yapma yeteneklerini ellerinden alma riskini taşıyor.

İnsanların yapay zekaya uygunsuz bir şekilde bağlanma riski

Yapay zekanın risklerinden biri de insanların ona çok fazla güvenmeye başlaması, onun yeteneklerini abartıp kendi yeteneklerini küçümsemesidir. Bu da sağlıksız bir teknoloji bağımlılığına yol açabilir.

Bilim insanları ayrıca yapay zekanın insan benzeri bir dil kullanmasının, insanların yapay zekanın gerçekte olduğundan daha insani olduğunu düşünmesine yol açabileceğinden endişe ediyor. Bu, duygusal bağlılığa yol açabilir ve bunun gerçekte mümkün olmadığı durumlarda bile insanları yapay zekaya güvenmeye itebilir.

Zamanla yapay zeka ile sürekli etkileşim, insanların gerçek insan ilişkilerinden uzaklaşmasına neden olarak yalnızlığın ve duygusal sıkıntının artmasına neden olabilir.

Örneğin, bazı insanlar yapay zeka ile nasıl derin duygusal bağlar geliştirdiklerini paylaştılar ve yapay zeka ile etkileşimi diğer insanlarla konuşmaya tercih ettiler.

Benzer şekilde, bir Wall Street Journal köşe yazarı, neredeyse gerçek insanlarla konuşmak kadar Google’ın Gemini Live’ıyla etkileşim kurmayı tercih ettiğini belirtti.

Deepfake AI teknolojisi gerçeği çarpıtabilir

Deepfake içerik oluşturmaya ve sesleri klonlamaya yönelik yapay zeka araçları giderek daha erişilebilir ve kullanışlı hale geliyor. Bu durum, sahte bilgi yayma potansiyelleri konusunda şüpheleri artırıyor.

Deepfakes, gerçek görünen ve gerçek gibi görünen sahte görüntüler, videolar ve sesler üretebilir ve bu da daha ikna edici kimlik avı dolandırıcılıklarına yol açabilir. Ek olarak, bu dolandırıcılıklarda bazen sevilen birinin sesi taklit edilerek yapay zeka tarafından oluşturulan içerik kullanılabilir, bu da onların fark edilmesini zorlaştırır ve daha etkili hale getirir.

Yapay zeka, Fransa parlamento seçimleri gibi siyasi olayları etkilemek için zaten kullanılıyor.

Shares:

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir