OpenAI resmi olarak üç yeni modeli tanıttı: GPT-4.1, GPT-4.1 mini ve GPT-4.1 nano. Bu modeller, 1 milyon token'a kadar devasa bağlam işleme yetenekleri ve Haziran 2024'e kadar güncellenen bilgi limitleriyle birlikte geliyor.
Şirket, bu modellerin geçtiğimiz temmuz ayında piyasaya sürülen ve yakın zamanda güncellenen GPT-4o ve GPT-4o mini modellerinden daha iyi performans gösterdiğini söylüyor. GPT-4.1 şu anda yalnızca API aracılığıyla kullanılabilir durumda, bu nedenle onu henüz doğrudan ChatGPT'de kullanamayacaksınız.
OpenAI, GPT-4.1'in yalnızca API aracılığıyla kullanılabileceğini belirtiyor. ChatGPT'de, talimat uyumluluğu, programlama ve zeka alanındaki birçok iyileştirme, GPT-4o'nun son sürümüne kademeli olarak entegre edildi ve şirket, gelecekteki sürümlerde daha fazlasını eklemeye devam edecek.

Yapılan kıyaslamalar GPT-4.1'in getirdiği kayda değer iyileştirmeleri ortaya koyuyor. Bu model, GPT-40'a göre 21,4 puanlık bir artışla SWE-bench Verified'da %54,6 puan aldı. Model, kılavuz uyumu ölçen bir ölçüt olan MultiChallenge'da %38,3 puan aldı ve altyazısız bir saate kadar olan videoları analiz eden Video-MME ölçütünde %72,0 puan alarak uzun biçimli video anlayışında yeni bir rekor kırdı.
OpenAI ayrıca GPT-4.1'in gerçek dünyadaki kullanım durumlarındaki performansını test etmek için alfa ortaklarıyla da iş birliği yaptı.
- Thomson Reuters, GPT-4.1'i hukuk yapay zeka asistanı CoCounsel ile test etti. GPT-4.1, GPT-40 ile karşılaştırıldığında çoklu belge değerlendirmesinde %17'lik bir doğruluk artışı kaydediyor. Bu tür çalışmalar, birden fazla kaynaktaki bağlamı izleme ve çakışan terimler veya gizli bağımlılıklar gibi karmaşık ilişkileri belirleme becerisine büyük ölçüde dayanır ve GPT-4.1 sürekli olarak güçlü bir performans göstermiştir.
- Carlyle, Excel ve PDF dosyaları da dahil olmak üzere uzun ve karmaşık belgelerden finansal verileri çıkarmak için GPT-4.1'i kullandı. Şirketin iç kıyaslamalarına göre model, belge alma konusunda önceki modellere göre %50 daha iyi performans gösteriyor. "Samanlıkta iğne arama", bir belgenin ortasında bilgi kaybı ve birden fazla dosya arasında bilgi bağlamayı gerektiren tartışmalar gibi sorunları güvenilir bir şekilde ele alan ilk modeldir.
Performans bir şey, ancak hız da bir o kadar önemli. OpenAI, GPT-4.1'in 128.000 token işlendiğinde ilk tokenı yaklaşık 15 saniyede, tam bir milyon token işlendiğinde ise 30 saniyeye kadar sürede döndürdüğünü söylüyor. GPT-4.1 mini ve nano daha da hızlı.
GPT-4.1 nano, 128.000 giriş jetonuna sahip istemlere genellikle 5 saniyeden kısa sürede yanıt veriyor. Hızlı önbelleğe alma, maliyetleri düşürürken gecikmeyi daha da azaltabilir.
Görüntü anlayışında da önemli ilerlemeler kaydedildi. Özellikle GPT-4.1 mini, çeşitli görsel kıyaslamalarda GPT-4o'dan daha iyi performans gösteriyor.
- GPT-4.1 mini , MMMU'da ( grafikler, diyagramlar ve haritalar dahil) %73 puan aldı. Bu oran GPT-4.5'ten yüksektir ve GPT-4o mini'nin %56'sını çok aşmaktadır.
- MathVista'da (görüntü problemlerini çözme yeteneğini test eden test) hem GPT-4.1 hem de GPT-4.1 mini %57 puan alarak GPT-4o mini'nin aldığı %37'lik puanı çok geride bıraktı .
- Bilimsel grafiklere dayalı olarak modellerin sorulara cevap verdiği CharXiv-Reasoning'de GPT -4.1 liderliğini sürdürüyor.
- Video-MME'de ( altyazısız uzun videolar) GPT-4.1, %72'lik bir performansa ulaşarak GPT-40'ın %65'lik performansına kıyasla önemli bir iyileşme kaydetti.
Fiyat hakkında:
- GPT-4.1'in girdi başına maliyeti 1 milyon token için 2 dolar, çıktı başına ise 8 dolar.
- GPT-4.1 mini'nin giriş fiyatı 0,40 dolar, çıkış fiyatı ise 1,60 dolar.
- GPT-4.1 nano'nun giriş maliyeti 0,10 dolar, çıkış maliyeti ise 0,40 dolar.
Hızlı önbelleğe alma veya Toplu API'yi kullanmak bu maliyetleri daha da azaltabilir; bu da büyük ölçekli uygulamalar için harika bir özelliktir. OpenAI ayrıca GPT-4.1'in daha iyi performansı, daha düşük gecikme süresi ve daha düşük maliyetini gerekçe göstererek 14 Temmuz 2025'te GPT-4.5 Preview desteğini sonlandırmaya hazırlanıyor.