Stanford bu hafta 2026 AI Index'ini yayımladı. 400 sayfadan fazla veri. Ama beni en çok düşündüren tek bir grafik oldu.
Aynı anda, iki eğri. Biri yukarı. Biri aşağı.
Yukarı giden eğri tanıdık: kurumsal AI benimsemesi %88'e ulaştı. Generatif AI, yalnızca 3 yılda nüfusun %53'üne ulaştı — PC ve internet bu orana çok daha uzun sürede ulaşmıştı. Haberler hep bu kısmı yazıyor.
Aşağı giden eğriyi kimse yazmıyor.
Foundation Model Transparency Index — büyük AI şirketlerinin modellerini ne kadar açık biçimde belgelediklerini ölçen metrik — 58'den 40'a düştü. Tek yılda. Benimseme tavan yaparken.
Herkes daha fazla kullanıyor. Ama bu modeller kendileri hakkında daha az şey söylüyor.
Bu PM için soyut bir sorun gibi görünüyor. Değil.
Şöyle düşün: sen bir ürün inşa ediyorsun. Ürünün kalbinde bir model var. O modelin nasıl çalıştığını bilmiyorsun. Eğitim verisi neydi, ne zaman kesildi, hangi senaryolarda tutarsız davranıyor — bunların büyük kısmını bilmiyorsun. Ve bu "bilmiyorsun" durumu geçen yıla göre daha derin.
Kullanıcın ise sana güveniyor. Verilerini giriyor. Önerilere uygun hareket ediyor. Sağlık alanında çalışıyorsan — reçete yazıyor, tedavi planlıyor, doktor kararlarını bu sisteme yaslanarak veriyor.
Ortada ne var? Giderek opaklaşan bir altyapı ve bunun üzerinde artan bir güven yükü.
Bu ikisi aynı anda doğru olamaz. Ya güven düşmeli ya şeffaflık artmalı. Şimdilik ikisi de olmuyor.
Medibulut'ta bunu somut olarak yaşıyorum. Klinisyenler sisteme baktığında "AI ne dedi?" sorusunun bir cevabı olmasını bekliyor. "Model bunu neden önerdi?" sorusunun değil.
İki soru arasında muazzam bir fark var.
Birincisi PM'in sorumluluğu. İkincisi artık büyük ölçüde cevabı olmayan bir soru. Ve bu cevapsızlık her geçen ay biraz daha büyüyor, model şirketleri dokümanlarını azalttıkça.
Peki ne yapıyoruz bu durumda?
İki yanlış tepki var. İlki görmezden gelmek: "Model iyi çalışıyor, kullanıcılar memnun, sorun yok." İkincisi felç olmak: "Nasıl açıklayacağımı bilmiyorum, o zaman bu özelliği yapmayalım."
İkisi de yanlış.
Doğru tepki, katman yönetimi. Model opak olabilir. Ama modelin çıktısının ürüne nasıl bağlandığını, kullanıcıya nasıl sunulduğunu, ne zaman override edilebileceğini, nerede log tutulduğunu — bunları PM kontrol ediyor. Bu katmanlar ne kadar net olursa, o opak çekirdek o kadar az sorun üretiyor.
Şeffaflık sorumluluğu modelden ürüne kayıyor.
Bu benim için en kritik çıkarım.
Eskiden "AI şeffaflığı" tartışmaları teknik ve etik bir meseleydi. Araştırmacıların, regülatörlerin, model üreticilerinin konusuydu. PM buna uzaktan bakardı.
Artık değil.
Model şirketleri giderek daha az şeffaf olurken, kullanıcılar giderek daha fazla güveniyor. Ürün bu iki gerçekliğin ortasında duruyor. PM o orta katmanı yönetiyor.
Şeffaflığı modelden bekleme. Sen üret.
Çıktının neden o çıktı olduğunu kullanıcıya açıkla — model açıklamasa bile. Kararın override edilebildiğini göster. Hangi koşulda AI devreye girdiğini belgele. Bunlar teknik detay değil. Ürün kararı.
Stanford verisi ne kadar iyi derlense de bir şeyi ölçemiyor: kurumsal ortamlarda bir AI çıktısı yanlış gittiğinde kimin "biz bunu bilmiyorduk" diyebileceğini.
Regülatörler bu soruyu sormaya başladığında hazır olmak gerekiyor.
Ve o hazırlığın büyük kısmı teknoloji değil. Model değil. Ürün kararı.
Model orada olmayacak o toplantıda. Sen olacaksın.