“`html
OpenAI, Nvidia bazlı donanım üzerinde çalışan ilk yapay zeka modeli olan GPT-5.3-Codex-Spark’ı tanıttı. Bu yeni kodlama modeli, Cerebras tarafından geliştirilen Wafer Scale Engine 3 (WSE-3) çipleri üzerinde etkin bir şekilde çalışıyor. Model, saniyede 1.000’den fazla token işleme kapasitesine sahip olup, OpenAI’nin sunduğu en yüksek performans düzeylerinden birini ortaya koyuyor. Ancak, modelin bağımsız doğrulamalardan geçmiş teknik verileri henüz kamuoyuyla paylaşılmadı.
Açıklanan veriler, yazılım geliştirme süreçlerinde gecikme sürelerinin kritik olduğu durumlarda dikkat çekici bir artış sağladığını gösteriyor.
GPT-5.3-Codex-Spark, ChatGPT Pro aboneleri için (aylık 200 dolar) sınırlı bir önizleme olarak sunulmakta. Kullanıcılar, modeli Codex uygulaması, komut satırı arayüzü ve VS Code eklentisi üzerinden erişebilirken, seçilmiş iş ortaklarına API erişimi de sağlanmaya başlamıştır. Başlangıçta yalnızca metin temelli bir model olarak sunulan Codex-Spark, 128 bin token bağlam penceresi ile kullanıcılara hizmet vermektedir.
Görsel veya çoklu ortam desteği bulunmamakla birlikte, bu modelin odak noktası yazılım geliştirme süreçlerine yöneliktir.
OpenAI, Donanım Stratejisinde Yeni Bir Yöne Geçiyor
Codex-Spark’ın en dikkat çekici yönü, yalnızca artırılan hız değil, aynı zamanda OpenAI’nin donanım stratejisindeki değişikliklerdir. Model, Cerebras’ın büyük boyutlu WSE-3 çipi üzerinde çalışmaktadır.
Bu çip, tek parça silikon tasarımı ile veri merkezlerinde yüksek düzeyde paralel işlem yeteneği sunmayı planlıyor. Cerebras, daha önce Llama 3.1 70B modelinde saniyede 2.100 token, OpenAI’nın gpt-oss-120B modelinde ise 3.000 token işleme yeteneğine ulaştığını bildirmişti. Ancak Codex-Spark’ın 1.000 token/saniye seviyesinde kalması, modelin daha karmaşık yapısından kaynaklanan işlem yükü ile ilişkilidir.
OpenAI, Nvidia’ya olan bağımlılığını azaltma yönünde önemli adımlar atmaya başladı. 2025 yılı Ekim ayında AMD ile büyük bir anlaşma imzalanmış, aynı şekilde Kasım ayında Amazon ile 38 milyar dolarlık bir bulut bilişim sözleşmesi yapılmıştır. Ayrıca şirketin, kendi özel yapay zeka çipinin tasarım ve üretimi için TSMC ile iş birliği yaptığı da bilinmektedir. Nvidia ile yapılan 100 milyar dolarlık altyapı anlaşmasının beklenen düzeyde ilerlemediği, ancak Nvidia’nın 20 milyar dolarlık yatırım taahhüdünde bulunduğu yönünde bilgiler bulunmaktadır. Daha önce Reuters’de yayımlanan bir haberde, OpenAI’nın bazı Nvidia çiplerinin çıkarım hızı ile ilgili memnuniyetsizlik yaşadığı ifade edilmişti.
Codex-Spark, bu tür düşük gecikme gerektiren iş yüklerine özel olarak odaklanmaktadır.
Modelin performansının SWE-Bench Pro ve Terminal-Bench 2.0 gibi yazılım mühendisliği kıyaslamalarında, GPT-5.1-Codex-mini’ye göre daha iyi sonuçlar verdiği iddia edilmektedir. Ancak bağımsız test sonuçlarının paylaşılmaması, sektör analistlerinin temkinli bir yaklaşım sergilemesine neden olmuştur. Bununla birlikte, 1.000 token/saniye seviyesinin, OpenAI’nin Nvidia tabanlı sistemlerde sunduğu GPT-4o (147 token/saniye) ve o3-mini (167 token/saniye) gibi modellere kıyasla belirgin bir iyileşme anlamına geldiği söylenebilir.
Son zamanlarda yapay zeka destekli kodlama araçları, yazılım geliştiricileri arasında giderek daha yaygın bir şekilde kullanılmaya başlanmıştır. OpenAI Codex ve Anthropic Claude Code gibi araçlar, prototip geliştirme ve arayüz oluşturma süreçlerini hızlandırmaktadır. Ancak belirleyici unsur sadece doğruluk değil, aynı zamanda gecikme süresidir. Daha hızlı yanıt veren bir model, geliştiricinin deneme-yanılma döngüsünü kısaltmalarına yardımcı olurken, hız artışı bazı durumlarda çıktı kalitesinde dalgalanmalara yol açabilmektedir.
Codex-Spark’ın sunduğu performans artışı, yazılım geliştirme pratiklerinde yeni bir denge arayışı yaratmaktadır. Yüksek hız, üretkenliği artırma potansiyeline sahip olsa da, karmaşık projelerde doğruluk ve bağlam yönetimi hala hayati önem taşımaktadır. Donanım tarafındaki çeşitlilik, yapay zeka pazarında rekabetin yalnızca model yetenekleriyle sınırlı kalmayıp, altyapı standartları ve maliyet optimizasyonunun da bir o kadar önemli hale geldiğini göstermektedir. Bu durum, önümüzdeki dönemde yapay zeka şirketlerinin çip üreticileriyle ilişkilerinde daha esnek ve çok paydaşlı bir yapı benimsemesine zemin hazırlayabilir.
Teknoblog, teknoloji gündemini farklı platformlarda düzenli bir biçimde paylaşmaktadır. WhatsApp kanalında öne çıkan haberleri anlık olarak aktaran, Google Haberler üzerinden güncel içerikler sunan, Instagram ve X hesaplarında dikkat çekici başlıkları özetleyen, YouTube kanalında ise ürün incelemeleri ve detaylı anlatımlarla içeriği tamamlayan bir kaynaktır.
“`