İngiltere, ilk kez, en gelişmiş yapay zeka sistemlerinin yeteneklerine dair spekülasyon ve titiz kanıt eksikliğinin sürüklediği bir tartışmanın arkasına somut veriler koyarak, net ve kanıta dayalı bir görüş ortaya koydu.

Raporun Kapsamı ve Amacı

Yapay Zeka Güvenlik Enstitüsü’nün (AISI) ‘Frontier AI Trends Report’ başlıklı kamuya açık değerlendirmesi, siber güvenlik, kimya ve biyoloji dahil olmak üzere inovasyon ve güvenlik açısından kritik alanlarda 2 yıllık AI yetenek testlerine dayanıyor. Rapor, politika önerileri sunmak için değil, İngiltere ve dünya genelindeki karar vericilere, en gelişmiş AI sistemlerinin tam olarak neler yapabildiğine dair şimdiye kadarki en net verileri sağlamak amacıyla hazırlandı. Düzenli bir yayın haline gelecek olan rapor, şeffaflığı ve teknolojinin neler yapabileceğine dair kamuoyu anlayışını geliştirerek, ekonominin her alanında giderek daha fazla benimsenirken sorumlu gelişim tartışmalarını yönlendirmeye yardımcı olacak.

Güvenlik Önlemlerinde İlerleme ve Temel Bulgular

Raporda, AI’nin amaçlandığı gibi davranmasını sağlamak için mevcut korumalar olan güvenlik önlemlerinin geliştiği belirtildi. Enstitü’nün, bu önlemleri güçlendirmek ve AI’nin tam potansiyelini güvenli bir şekilde ortaya çıkarabilmek için şirketlerle yapıcı bir şekilde çalışmaya devam ettiği kaydedildi. Test edilen her sistemin hala bir tür atlatmaya karşı savunmasız olduğu ve korumanın şirketler arasında değişiklik gösterdiği ifade edilirken, büyük ilerlemeler kaydedildiği vurgulandı. Örneğin, AISI kırmızı takım üyelerinin bir modelin güvenlik kurallarını aşmanın genel bir yolu olan ‘evrensel bir jailbreak’ bulmasının aldığı sürenin, model nesilleri arasında dakikalardan birkaç saate çıktığı, bunun da yaklaşık 40 katlık bir iyileşmeyi temsil ettiği bildirildi.

Raporun temel bulguları, en gelişmiş AI sistemlerinin dikkate değer bir hızla geliştiğini gösteriyor. Sadece birkaç yıl içinde, temel görevlerde zorlanmaktan, bazı alanlarda insan uzmanlarıyla eşleşmeye veya geçmeye evrildiler. Öne çıkan bulgular şunları içeriyor:

  • Siber Güvenlik: Çırak seviyesindeki görevlerdeki başarı oranı, 2023’te yüzde 9’un altından 2025’te yaklaşık yüzde 50’ye yükseldi. 2025’te ilk kez, bir model, 10 yıla kadar deneyim gerektiren uzman seviyesinde bir siber görevi tamamladı.
  • Yazılım Mühendisliği: Modeller artık saatlik yazılım mühendisliği görevlerini 2 yıl önceki yüzde 5’in altındaki orana kıyasla, yüzde 40’tan fazla oranda tamamlayabiliyor.
  • Biyoloji ve Kimya: Sistemler artık doktora seviyesindeki araştırmacıları bilimsel bilgi testlerinde geride bırakıyor ve uzman olmayan kişilerin daha önce erişilemez olan laboratuvar çalışmalarında başarılı olmasına yardımcı oluyor.
  • Değişim Hızı: AI sistemlerinin insan yönlendirmesi olmadan tamamlayabildiği bazı siber görevlerin süresi, yaklaşık olarak her sekiz ayda bir ikiye katlanıyor.

Otonomi İşaretleri ve Enstitü’nün Rolü

Analiz, kontrollü deneylerle sınırlı olmak üzere, otonomiyle bağlantılı yeteneklerin erken işaretlerini de tespit etti. AISI testlerindeki hiçbir model zararlı veya kendiliğinden davranış göstermedi, ancak sistemler daha yetenekli hale geldikçe bu erken işaretleri şimdiden takip etmenin hayati olduğu sonucuna varıldı.

2023’te kuruluşundan bu yana, Yapay Zeka Güvenlik Enstitüsü (AISI), dünyanın önde gelen devlet destekli AI değerlendirme kuruluşu haline geldi. Büyük AI şirketleri ve geliştiricilerle yakın çalışma ilişkileri geliştirerek, İngiltere’nin bu sistemler yaygın olarak kullanılmadan önce AI sistemlerindeki güvenlik açıklarını düzeltmek için onlarla işbirliğinde kilit bir rol oynamasını sağladı.

Hükümet ve Yetkililerin Görüşleri

AI Bakanı Kanishka Narayan, “Bu rapor, İngiltere’nin AI’nin sorumlu gelişimini ne kadar ciddiye aldığını gösteriyor. Bu, korumaların sağlam olduğundan emin olmak ve önde gelen sistemleri test etmek, güvenlik açıklarını bulmak ve yaygın olarak kullanılmadan önce düzeltmek için doğrudan geliştiricilerle çalışmak anlamına geliyor. Dünya lideri Yapay Zeka Güvenlik Enstitüsü aracılığıyla, bu sistemleri sonradan değil, evrilirken anlamak ve sektör genelinde standartları yükseltmek için hükümet içinde bilimsel kapasite inşa ediyoruz. Bu rapor, AI hakkında nasıl düşündüğümüzün merkezine spekülasyonu değil, kanıtı koyuyor, böylece güven ve güvenliği ön planda tutarken büyüme, daha iyi kamu hizmetleri ve ulusal yenilenme için faydalarını ortaya çıkarabiliriz” dedi.

Başbakan’ın AI Danışmanı ve AISI’nin Baş Teknoloji Sorumlusu Jade Leung ise, “Bu rapor, bir hükümet kuruluşundan şimdiye kadar frontier AI’nin ne kadar hızlı ilerlediğine dair en sağlam kamuoyu kanıtını sunuyor. İşimiz, titiz bilimle spekülasyonu ortadan kaldırmak. Bu bulgular, hem AI’nin olağanüstü potansiyelini hem de bu gelişmelere ayak uydurmak için bağımsız değerlendirmenin önemini vurguluyor” ifadelerini kullandı.

Raporun Sınırları ve Gelecek Vizyonu

Hükümet, bu raporun neyi gösterip neyi göstermediğinin sınırları konusunda net. Rapor, geleceğe dair bir tahmin veya günümüzdeki gerçek dünya AI risklerinin bir değerlendirmesi değil. Bunun yerine, bu sistemlerin kontrollü testlerde gerçekten neler yapabildiğini - zamanla güvenlik, emniyet, inovasyon ve büyüme için önemli olabilecek yetenek türlerini - ortaya koyuyor. Bunlar gerçek dünya kullanımı değil, kontrollü testler olup, frontier AI’nin ne kadar hızlı geliştiğine dair sağlam, bilim temelli bir resim sunuyor.

AI, hükümetin ulusal yenilenme misyonunun merkezinde yer alıyor. Test ekibi dünyadaki herhangi bir devlet destekli AI kuruluşunun en büyüğü olan Enstitü, şirketlerin AI sistemleri yaygın olarak kullanılmadan önce güvenlik açıklarını tespit etmesine ve düzeltmesine şimdiden yardımcı oluyor. Bu teknolojilerin güvenli ve güvenilir olduğundan emin olarak, İngiltere bunları daha temiz enerjiyi desteklemek, kamu hizmetlerini daha verimli hale getirmek ve ülkenin her bölgesinde fırsatı artırmak için kullanabilir.