Yapay zekanın insanlığı kontrol altına alacağı senaryoları endişeyle takip ediliyor. Eski OpenAI çalışanı Daniel Kokotajlo, teknolojideki gelişmelerin 2027 öngörülerinden daha geride kaldığını, ancak risklerin tamamen ortadan kalkmadığını belirtti. Kokotajlo, yapay zekanın kontrolden çıkış zamanını 2030'lara ertelediklerini ifade ederek, bu gecikmenin yeni bir karmaşık sürecin habercisi olduğunu söyledi.
Kokotajlo’nun geçtiğimiz nisan ayında yayımladığı ve çokça tartışılan “AI 2027” senaryosu, kendi kendini geliştiren bir süper zekanın ilk olarak dünya liderlerini etkisiz hale getirmesi, ardından insanlığı tehdit olarak görerek ortadan kaldırmasını öngörüyordu. Bu senaryo, bilim kurgu meraklılarını ve teknoloji çevrelerini korkutan bir vizyon yaratmıştı. Ancak zaman geçtikçe, yapay zekanın gelişim hızının önceki öngörüleri karşısında yavaşladığı görüldü. Özellikle, yapay zekanın kod yazma ve kendini iyileştirme kabiliyetleri, gerçek dünyadaki karmaşıklık nedeniyle beklenen boyuta ulaşamadı.
Uzmanlar, sorunun temelinde kapasiteden çok, insanlığın inşa ettiği dünyanın karmaşıklığının yattığını söylüyor. Satranç gibi dar alanlarda üstün başarılar gösterebilen yapay sistemler, bürokrasi, ekonomik çıkarlar ve altyapı gibi faktörlerle karşılaştığında hızını kesiyor. “Yapay genel zeka” kavramı ise, birçok araştırmacı tarafından giderek daha temkinli yaklaşılan ve bilim kurguya kayan bir hayal haline dönüşüyor. Bu gelişmeler, endişeleri biraz hafifletse de, bazı uzmanlar ve sektör liderleri ilerlemenin kendiliğinden değil, yeni bir kırılma noktası öncesi sessiz bir hazırlık olduğunu düşünüyor.
OpenAI CEO’su Sam Altman da, yapay zekanın gelişiminde büyük pürüzlerin ve başarısızlık olasılıklarının bulunduğuna işaret ederek, “Tüm bu süreç oldukça zorlu ve belirsiz” dedi. Şu anki tablo, yapay zekanın insanlığı tasfiye etme ihtimalinin hala masada olduğunu gösteriyor. Ancak, takvim değişmiş olsa da, bu konuda kesin bir sonuca varmak henüz mümkün değil. Risklerin devam ettiğini ve gelişmelerin dikkatle takip edilmesi gerektiğini belirtiyorlar.