Yapay Zeka

OpenAI’nin yeni modeli GPT-4.1'de güvenlik raporu yok

OpenAI, pazartesi günü GPT-4.1 adlı yeni bir yapay zekâ modeli ailesini tanıttı. Şirket, bu modelin özellikle programlama alanındaki testlerde bazı önceki modellerden daha iyi performans gösterdiğini açıkladı. Ancak GPT-4.1, OpenAI’nin önceki sürümlerde yayımladığı güvenlik raporlarından, yani sistem kartlarından yoksun şekilde piyasaya sürüldü.

TechCrunch’a konuşan OpenAI sözcüsü Shaokyi Amdo, GPT-4.1’in “öncül bir model olmadığını” ve bu nedenle ayrı bir sistem kartı yayımlanmayacağını belirtti. Bu açıklama, güvenlik raporlarının standart hale geldiği sektörde tartışmaları da beraberinde getirdi.

Güvenlik raporları neden önemli?

Yapay zekâ alanında güvenlik raporları; modellerin insanları yanıltma, tehlikeli önerilerde bulunma ya da manipülatif olma ihtimaline karşı yapılan testlerin sonuçlarını içeriyor. Şirketler, bu raporları genellikle şeffaflık ve araştırmacılara destek amacıyla yayımlıyor.

Sektörde standartlar düşüyor mu?

Son aylarda, OpenAI de dahil olmak üzere birçok büyük yapay zekâ firması güvenlik raporlarının kalitesini ve zamanlamasını düşürmekle eleştiriliyor. Google gibi bazı firmalar raporları geç yayımlarken, bazıları içeriği zayıf raporlarla yetiniyor.

OpenAI'nin şeffaflık sözü tartışma konusu

Geçmişte OpenAI, sistem kartlarını “hesap verebilirliğin temel aracı” olarak tanımlamıştı. Özellikle 2023'teki Birleşik Krallık Yapay Zekâ Güvenliği Zirvesi ve 2025’te yapılacak Paris Yapay Zekâ Eylem Zirvesi öncesi yapılan açıklamalarda sistem kartlarının önemi vurgulanmıştı. Ancak bu sözler, son uygulamalarla çelişiyor gibi görünüyor.

Eski çalışanlardan uyarı

Geçtiğimiz hafta, aralarında Steven Adler’in de bulunduğu 12 eski OpenAI çalışanı, Elon Musk’ın açtığı davada sunulan bir beyanla, şirketin güvenlikten ödün vermeye başladığını öne sürdü. Financial Times, OpenAI’nin rekabet baskısıyla güvenlik testlerine ayırdığı kaynakları azalttığını yazdı.

Performans artışı, güvenlik kaygılarını artırıyor

GPT-4.1’in performans açısından kayda değer iyileştirmeler sunduğu belirtiliyor. Özellikle verimlilik ve düşük gecikme süresi açısından öne çıkan model, buna rağmen en üst düzey model değil. Ancak uzmanlara göre, bu tür iyileştirmeler potansiyel riskleri artırıyor. Secure AI Project kurucularından Thomas Woodside, daha gelişmiş modellerin daha fazla gözetim gerektirdiğini ifade ediyor.

Yasal zorunluluk yok, şirketler direniyor

Güvenlik raporları şu an yasal bir zorunluluk değil. OpenAI dahil birçok firma, bu raporların kanuni hale gelmesine karşı çıkıyor. Örneğin Kaliforniya’da gündeme gelen SB 1047 yasa tasarısına OpenAI’nin karşı çıktığı biliniyor. Tasarı, kamuya açık yapay zekâ modelleri için denetim ve raporlama şartı getiriyordu.