ChatGPT içindeki yeni App'ler ve Apps SDK
- ChatGPT içinde etkileşimli uygulamaları kullanma özelliği duyuruldu
- Yeni uygulamalar, konuşma akışı içinde doğal şekilde çalışacak biçimde tasarlandı ve kullanıcının ihtiyaç duyduğu anda otomatik olarak öneriliyor
- Örnek: “Spotify, bu hafta sonu partisi için bir çalma listesi oluştur” → uygulama otomatik çalışarak bağlama dayalı sonuç sunuyor
- Emlakla ilgili bir konuşma sırasında Zillow uygulaması önerilerek bütçeye uygun ilanların haritası doğrudan gösteriliyor
- Canva üzerinden konuşma sırasında oluşturulan taslak slayta dönüştürülüyor
- Coursera dersleri izlenirken ChatGPT'den ek açıklama istenebiliyor
- Uygulamalar, doğal dil komutları ile görsel arayüzü birleştirerek mevcut web uygulamalarına göre daha sezgisel bir kullanım deneyimi sunuyor
- Booking.com, Canva, Coursera, Figma, Expedia, Spotify, Zillow gibi partner uygulamalar ilk lansman kapsamına giriyor
- Yıl içinde 11 uygulama daha eklenecek: Doordash, Khan Academy, Instacart, Peloton, OpenTable, target, Uber,...
- Uygulama gönderimi ve inceleme süreci yıl sonunda başlayacak; ChatGPT Business, Enterprise ve Edu sürümlerine de kademeli olarak gelecek
- Yeni bir uygulama dizini oluşturuluyor; kullanıcılar uygulamaları keşfedip arayabilecek ve tasarımı ile işlevselliği güçlü uygulamalar konuşma içinde öneri olarak ve üst sıralarda gösterilecek
-
Apps SDK
- Geliştiriciler Apps SDK önizleme sürümünü kullanarak doğrudan uygulama geliştirip test edebiliyor
- SDK, Model Context Protocol (MCP) genişletilmiş bir yapı üzerine kurulu ve uygulamanın hem mantığını hem arayüzünü tanımlamayı mümkün kılıyor
- SDK açık kaynak olarak sunuluyor; bu sayede ChatGPT dışındaki platformlarda da aynı standartla çalıştırılabiliyor
- Geliştiriciler mevcut backend'lerine doğrudan bağlanabilir, giriş yapma ve ücretli özelliklere erişim desteği sunabilir
- Yıl içinde ChatGPT içinde uygulama gelir modeli ve Agentic Commerce Protocol tabanlı anında ödeme özelliği de desteklenecek
- Böylece ChatGPT, basit bir konuşma asistanının ötesine geçerek uygulama ekosistemiyle etkileşen birleşik bir platforma dönüşecek
AgentKit tanıtıldı – ajan geliştirme, dağıtım ve optimizasyonu için eksiksiz araç seti
- AgentKit, Responses API ve Agents SDK sonrasında gelen bir araç seti olarak, ajan oluşturma sürecini sadeleştiren ve güvenilirliği artıran birleşik bir platform sunuyor
- Daha önce connector'lar, değerlendirme pipeline'ları, prompt ayarı ve frontend geliştirme gibi işler ayrı ayrı ele alınırken, artık bunlar tek bir ortamda entegre şekilde yönetilebiliyor
-
Agent Builder – görsel iş akışı tasarım aracı
- Agent Builder, sürükle-bırak tabanlı bir görsel canvas üzerinde ajan mantığını kurup sürümlemeyi sağlayan bir ortam sunuyor
- Önizleme çalıştırma, satır içi değerlendirme ayarı ve özel guardrail yapılandırmaları gibi özelliklerle hızlı iteratif geliştirmeye optimize edilmiş
- Ramp, bu araçla aylar süren karmaşık orkestrasyonu birkaç saat içinde tamamladığını ve geliştirme döngüsünü %70 kısalttığını açıkladı
- Japonya'dan LY Corporation da ilk çoklu ajan iş akışını 2 saat içinde kurdu
-
Guardrails – güvenli ajan koruması
- Guardrails, PII maskeleme, jailbreak tespiti ve anormal yanıt engelleme sağlayan açık kaynaklı bir güvenlik katmanı
- Python ve JavaScript için Guardrails kütüphaneleri ile bağımsız çalıştırılabiliyor veya Agent Builder içine entegre kullanılabiliyor
-
Connector Registry – veri entegrasyon yönetimi
- Connector Registry, farklı workspace ve organizasyonlar arasındaki veri bağlantılarını merkezi olarak yöneten birleşik bir yönetim paneli
- Dropbox, Google Drive, SharePoint, Microsoft Teams gibi yerleşik connector'ların yanı sıra üçüncü taraf MCP desteğini de içeriyor
- Yöneticiler, Global Admin Console üzerinden domain, SSO ve API organizasyonlarını birleşik biçimde yönetebiliyor; bu da Connector Registry'yi etkinleştirmenin zorunlu koşulu
-
ChatKit – konuşma arayüzü için gömülü araç takımı
- ChatKit, ajanlar için sohbet arayüzünü ürünlere kolayca gömme imkânı veren bir araç takımı
- Streaming yanıt işleme, konuşma thread yönetimi ve modelin düşünme sürecini gösterme gibi özellikleri otomatik destekliyor
- Web'e veya uygulamaya doğrudan eklenebiliyor ve marka tasarımına uygun tema özelleştirmesi yapılabiliyor
- HubSpot'un müşteri destek ajanı gibi çeşitli bilgi asistanı, onboarding rehberi ve araştırma yardımcısı senaryolarında kullanılıyor
-
Evals – performans ölçümünde güçlendirmeler
- Daha güvenilir ajanlar kurmak için Evals tarafına şu dört yeni özellik eklendi
- Datasets: otomatik puanlayıcılar ve insan anotasyonlarıyla değerlendirme setlerini hızlıca kurup genişletme
- Trace grading: tüm iş akışı çalışmasını değerlendirerek zayıf noktaları otomatik tespit etme
- Automated prompt optimization: değerlendirme sonuçlarına göre otomatik prompt iyileştirme
- Third-party model support: harici modellerin de değerlendirilebilmesi
-
Güçlendirilmiş fine-tuning (Reinforcement Fine-Tuning)
- RFT, geliştiricilerin OpenAI muhakeme modellerini belirli amaçlara göre uyarlamasını sağlayan bir özellik
- o4-mini modelinde genel kullanıma açılmış durumda; GPT-5 için RFT ise private beta aşamasında ve onlarca şirket tarafından test ediliyor
- Yeni beta özellikleri
- Custom tool calls: modelin uygun araçları doğru zamanda çağıracak şekilde eğitilmesi
- Custom graders: belirli kullanım senaryolarına uygun özel değerlendirme ölçütleri tanımlama
- ChatKit ve Evals bugünden itibaren tüm geliştiriciler için genel kullanıma açık. Agent Builder ve Connector Registry ise beta aşamasında kademeli sunulacak ve standart API model ücretlendirmesine dahil olacak
- Yakında Workflows API ve ChatGPT içinde ajan dağıtım seçenekleri de eklenecek
Codex resmi olarak çıktı – geliştirme ekipleri için birleşik kod ajanı genişlemesi
- OpenAI, bulut tabanlı kod ajanı platformu Codex'in resmi lansmanını duyurdu ve Slack entegrasyonu, Codex SDK ve yönetici araçları olmak üzere 3 temel özellik ekledi
- Codex, GPT-5-Codex modeli üzerine kurulu ve IDE, CLI ile bulut ortamlarında entegre çalışıyor
- Lansmandan sonra günlük kullanım Ağustos ayına göre 10 kat arttı; 3 haftada 40 trilyon token işleyerek en hızlı büyüyen modellerden biri olarak değerlendirildi
- OpenAI içinde de şirket genelindeki mühendislerin %70'inden fazlası Codex kullanıyor; haftalık PR birleştirme miktarı %70 arttı ve kod incelemelerinin büyük kısmı Codex tarafından otomatik yapılıyor
-
Slack entegrasyonu
- Takım kanalında
@Codex etiketlendiğinde Codex konuşma bağlamını otomatik topluyor ve uygun ortamı seçerek yanıt veriyor
- Çıktılar Codex Cloud bağlantısı ile sunuluyor; burada değişiklikleri birleştirme, yinelemeli düzeltme ve yerel indirme yapılabiliyor
- Slack entegrasyonu, işbirliğine dayalı geliştirme ortamlarında kod inceleme, otomatik düzeltme ve build çalıştırma taleplerini doğal biçimde yerine getirmeyi sağlıyor
-
Codex SDK
- Codex SDK, Codex CLI'nin açık kaynaklı ajan implementasyonunu harici uygulamalarda da aynı şekilde kullanmayı sağlayan bir geliştirme kiti
- SDK, ilk etapta TypeScript için sunuluyor; ileride başka diller de desteklenecek
- Başlıca özellikler
- Yapılandırılmış çıktı ile ajan yanıtlarını parse etme
- Oturum devamı için yerleşik bağlam yönetimi
- GitHub Action entegrasyonu ile CI/CD pipeline otomasyonu desteği
- Shell ortamında
codex exec komutuyla doğrudan çalıştırma
- Instacart, SDK'yı kendi platformu Olive ile entegre ederek uçtan uca otomatik geliştirme ortamı kurduğunu ve teknik borcun azaltılmasıyla kod kalitesinin yükseldiğini belirtti
-
Yönetici özellikleri güçlendirildi
- Ortam kontrolü ve silme özellikleriyle hassas veri yönetimi ve gereksiz ortamların temizlenmesi mümkün
- CLI, IDE ve web genelinde Codex kullanımını ve kod inceleme kalitesini analiz eden bir dashboard sunuluyor
- Yöneticiler, Codex'in yerel kullanım politikaları ve ayarlarını merkezi olarak kontrol edebiliyor; bu da büyük ölçekli organizasyonlar için uygunluk sağlıyor
- Cisco, Codex sayesinde karmaşık PR inceleme süresini %50'ye kadar azalttığını ve mühendislerin daha stratejik işlere odaklanabildiğini söyledi
- Slack entegrasyonu ve Codex SDK, ChatGPT Plus, Pro, Business, Edu, Enterprise planlarında hemen kullanılabiliyor
- 20 Ekim'den itibaren Codex Cloud iş yükü kullanım hesabına dahil edilecek
- Plus planı: 5 saatte yaklaşık 30~150 yerel mesaj veya 5~40 bulut işi gerçekleştirilebilecek
- Pro planı: 5 saatte yaklaşık 300~1.500 yerel mesaj veya 50~400 bulut işi gerçekleştirilebilecek
- Limit aşıldığında Codex kullanımı geçici olarak durdurulacak, kullanım sıfırlandığında yeniden erişilebilecek
- Code Review geçici olarak kullanıma dahil edilmiyor
- Yalnızca GitHub'da
@codex review etiketi kullanıldığında veya otomatik inceleme özelliği etkinleştirildiğinde Code Review kullanımı olarak sayılacak
Sora tabanlı video üretim API'si duyuruldu
- Sora, OpenAI'ın yeni nesil üretken medya modeli olarak ses içeren gerçekçi ve dinamik videolar üretiyor
- Multi-modal diffusion araştırması temelinde geliştirildi; 3D mekân algısı, kamera hareketi ve fiziksel hareket tutarlılığını öğreniyor
- Geliştiriciler bununla metinden videoya veya görüntüden videoya içerik üretimini otomatikleştirebiliyor
- Yeni duyurulan Video API, şu 5 temel özellik endpoint'inden oluşuyor
- Create video: metin prompt'u veya mevcut video temel alınarak yeni render işi oluşturma
- Get video status: render ilerleme durumunu kontrol etme
- Download video: tamamlanan MP4 videoyu indirme
- List videos: üretilen videoların listesini yönetme ve sayfalama desteği
- Delete videos: depolamadan belirli videoları silme
- API ile video üretimi, yönetimi, ölçeklendirme ve remix işlemleri programatik olarak otomatikleştirilebiliyor
-
Model türleri
-
Sora 2 – hızlı yineleme ve deney için
- Hız ve esneklik odaklı bir model; konsept testi veya kaba kurgu üretimi için uygun
- Kısa sürede sonuç verebildiğinden sosyal medya içeriği veya prototip videolar üretmekte kullanılabiliyor
- Kusursuz kaliteden çok fikir keşfi ve görsel yön doğrulamasına odaklanıyor
-
Sora 2 Pro – yüksek kaliteli prodüksiyon için
- Sinematik düzeyde tamamlanmışlık hedefiyle tasarlanmış bir model
- Render hızı daha yavaş ve maliyeti daha yüksek olsa da videonun kararlılığı ve detay seviyesi belirgin şekilde artıyor
- Yüksek çözünürlüklü pazarlama videoları, marka varlıkları ve film tarzı sahne üretimi için uygun
GPT-5 Pro artık API üzerinden kullanılabiliyor
- GPT-5 Pro, OpenAI'ın en üst düzey muhakeme (reasoning) modeli olup daha rafine ve doğru yanıtlar üretmek için daha fazla hesaplama gücü kullanıyor
- Normal GPT-5'e göre daha yavaş ama karmaşık problem çözmede ve tutarlı kalite sunmada daha güçlü
- Yalnızca Responses API modeli olarak sunuluyor; çok turlu konuşmalı istekler ve gelişmiş API özelliklerini destekliyor ve sadece
reasoning.effort: high modunu destekliyor
- Code Interpreter ve gerçek zamanlı streaming desteği yok
- Karmaşık isteklerde dakikalar seviyesinde işlem süresi gerekebilir; uzun çalışan görevlerde Background Mode öneriliyor
- Bağlam penceresi 400.000 token, maksimum çıktı 272.000 token, Knowledge Cutoff 30 Eylül 2024
- Ücretlendirme (Pricing): 1 milyon token başına
- Girdi (Input): $15.00 (görüntü girdisi dahil)
- Çıktı (Output): $120.00
Ucuz ses hizmetleri için GPT Realtime Mini modeli
- GPT-Realtime-Mini, gerçek zamanlı konuşma modelinin düşük maliyetli ve yüksek hızlı sürümü olarak metin, görüntü ve ses girdilerini destekliyor; metin ve ses çıktısı üretiyor
- WebRTC, WebSocket ve SIP bağlantıları üzerinden gerçek zamanlı sesli ve metin tabanlı yanıtlar sağlayabiliyor; gpt-realtime'a göre 6 kattan fazla daha düşük maliyetle çalıştırılabiliyor
- Bağlam penceresi 32.000 token, maksimum çıktı 4.096 token, Knowledge Cutoff 1 Ekim 2023
- Ücretlendirme (Pricing): 1 milyon token başına
- Metin token'ları
- Girdi (Input): $0.60
- Önbelleğe alınmış girdi (Cached input): $0.06
- Çıktı (Output): $2.40
- Mevcut modellerle karşılaştırma
- Girdi: gpt-realtime: $4, GPT-5: $1.25, gpt-realtime-mini: $0.60 (en ucuz)
- Çıktı: gpt-realtime: $16, GPT-5: $10, gpt-realtime-mini: $2.4 (en ucuz)
- Ses token'ları
- Girdi (Input): $10
- Önbelleğe alınmış girdi (Cached input): $0.3
- Çıktı: $20
- Görüntü token'ları
- Girdi: $0.8
- Önbelleğe alınmış girdi: $0.08
GPT Image 1 Mini modeli
- GPT-Image-1-Mini, GPT Image 1'in düşük maliyetli sürümü olup metin ve görsel girdisi alarak görsel çıktı üreten bir multimodal model
- Yüksek kaliteden çok verimlilik ve düşük maliyet odağıyla tasarlanmış; büyük ölçekli görsel üretimi veya görsel prototipleme için uygun
- Metin ve görsel girişi alabiliyor, çıktı yalnızca görsel
- Hızı yavaş olsa da, performansına göre maliyet verimliliği yüksek
- Ücretlendirme (Pricing): 1 milyon token başına
- Metin token'ları
- Girdi (Input): $2.00
- Önbelleğe alınmış girdi (Cached input): $0.20
- Çıktı (Output): $8.00
- Mevcut modelle karşılaştırma
- Girdi: GPT Image 1: $5.00, GPT Image 1 Mini: $2.00 (yaklaşık %60 tasarruf)
- Çıktı: GPT Image 1: $20.00, GPT Image 1 Mini: $8.00 (yaklaşık %60 tasarruf)
- Görüntü token'ları
- Girdi (Input): $2.50
- Önbelleğe alınmış girdi (Cached input): $0.25
- Çıktı (Output): $8.00
- Görsel üretimi (1 adet bazında)
- Low kalite
- 1024×1024: $0.005
- 1024×1536: $0.006
- 1536×1024: $0.006
- Medium kalite
- 1024×1024: $0.011
- 1024×1536: $0.015
- 1536×1024: $0.015
1 yorum
HackerNews de öyle; düşündüğümden daha sessiz görünüyor. Sanırım bunun nedeni, duyuruların ve çıkışların küçük küçük ama sürekli gelmesi.