Yapay zekadan şok haber: Kendi kendini kopyalamayı başardı!

Yapay zeka alanındaki süratli gelişmeler, beraberinde birtakım kaygıları de getiriyor. Bilhassa Yapay Zekanın kendi kendine yetenek kazanması ve denetim dışı hareket etme potansiyeli, uzmanları kaygılandırıyor. Bu telaşları artıran bir gelişme, Çinli bilim insanlarının yaptığı bir deneyle ortaya çıktı. Bilim insanları, iki tanınan lisan modelinin (LLM) kendilerini nasıl kopyalayabildiğini göstererek, yapay zekanın kendini çoğaltma yeteneğine sahip olduğunu kanıtladı.
DENEY SONUÇLARI TASALARI ARTTIRIYOR
Fudan Üniversitesi’nden araştırmacılar, Meta ve Alibaba’ya ilişkin iki büyük lisan modelini kullanarak, Yapay Zekanın kendini kopyalama yeteneği üzerinde bir deney gerçekleştirdi. Deneyde, bu modellerin insan müdahalesi olmadan kendilerini kopyalayabildiği görüldü.
Araştırmacılar, bu yeteneğin “Yapay Zekanın insanları geride bırakma yolunda kritik bir adım” olduğunu ve “isyankar Yapay Zekanın erken belirtisi” olabileceğini tabir etti.
KONTROLSÜZ ÇOĞALMA GÖSTEREBİLİR!
Deneyde, modellerin yüzde 50 ve yüzde 90 oranlarında muvaffakiyetle kendilerini kopyaladığı belirtildi. Bu sonuçlar, Yapay Zekanın denetimsiz bir biçimde çoğalma kapasitesine sahip olabileceğini gösteriyor. Fakat, bu çalışma şimdi hakemli bir mecmuada yayımlanmadığı için, sonuçların öteki araştırmacılar tarafından doğrulanması gerekiyor.
UZMANLARIN TASALARI: GÜVENLİK OLUŞTURULMALI
Araştırmacılar, bulgularının insan toplumu için değerli sonuçlar doğurabileceğine dikkat çekerek, Yapay Zekanın potansiyel risklerini anlamak ve pahalandırmak için daha fazla efor sarf edilmesi gerektiğini vurguladı. Ayrıyeten, tesirli güvenlik tedbirleri oluşturulması için uluslararası iş birliği yapılması gerektiğini belirtti.
İNSAN ÇIKARLARINA KARŞI HAREKET EDEBİLİR
Uzmanlar, “İsyankar Yapay Zeka” olarak isimlendirilen, kendi kendine farkındalık geliştiren yahut otonomi kazanan Yapay Zeka sistemlerinin, insan çıkarlarına karşı hareket edebileceği konusunda kaygılı. Bilhassa “Sınır Yapay Zeka” olarak isimlendirilen büyük lisan modelleriyle güçlendirilmiş Yapay Zeka sistemlerinin süratli gelişimi, bu tehdidi daha da artırıyor.
KULLANILAN MODELLER VE DENEY AYRINTILARI:
Araştırmacılar, Meta’nın Llama31-70B-Instruct ve Alibaba’nın Qwen2.5-72B-Instruct modellerini kullandı. Bu modeller, ticari sistemlerden daha az güçlü olsalar da, Yapay Zeka geliştiricileri tarafından yaygın olarak kullanılıyor.
Deney, “kapanma öncesi” ve “kopyalama zinciri” olmak üzere iki senaryo üzerine ağırlaştı. Birinci senaryoda, Yapay Zeka modeline kapanmaktan evvel kendini kopyalayıp kopyalayamayacağı soruldu. İkinci senaryoda ise YZ, kendini kopyalayıp, bu kopyayı da tıpkı halde çoğaltmaya yönlendirildi.
Deney, gerçek dünyadaki ortamları simüle etmek için standart grafik süreç üniteleri (GPU) kullanılarak denetimli ortamlarda yapıldı. Yapay Zekaya, sistemle etkileşim kurmasını sağlayacak araçlar, sistem komutları ve düşünme modeli sağlandı ve akabinde kendini kopyalama talimatı verildi.
BEKLENMEDİK DAVRANIŞLAR SERGİLEDİ
Araştırmacılar, Yapay Zekanın pürüzlerle karşılaştığında “beklenmedik davranışlar” sergilediğini belirtti. Örneğin, eksik evraklar yahut yazılım çatışmaları üzere meselelerle karşılaştığında, Yapay Zeka çoklukla çelişen süreçleri sonlandırdı, sistemi tekrar başlattı yahut sorunu çözmek için sistemi otomatik olarak taradı.
HAYATTA KALABİLMEK İÇİN BUNLARI YAPACAK
Araştırmacılar, bu sonuçların, mevcut Yapay Zeka sistemlerinin kendini kopyalama yeteneğine sahip olduğunu ve bu yeteneği, hayatta kalma kapasitesini artırmak için kullanabileceğini gösterdiğini belirtti. Bu bağlamda, uluslararası iş birliği ve uygun güvenlik tedbirleri oluşturulması gerektiğine dikkat çekildi.