- Google'ın Gemini 3'ü, basit bir sohbet botunun ötesine geçerek kod yazma, web'de gezinme ve dosya işlemleri gibi gerçek işleri yerine getiren bir dijital iş arkadaşı tipi yapay zekaya dönüştü
- Birlikte tanıtılan Antigravity, kullanıcının bilgisayarına erişip otonom biçimde program yazan ve Inbox sistemi üzerinden onay ya da yardım isteyen ajan tabanlı bir araç
- Gemini 3, kullanıcının talimatlarına göre web sitesi kurma, veri analizi yapma, makale yazma gibi işleri yerine getiriyor ve PhD düzeyinde araştırma yapabilme yeteneği sergiliyor
- Hatalar hâlâ var, ancak bunlar daha çok muhakeme ve anlayış farkı düzeyinde; sistem, insanla birlikte çalışan bir "AI ekip arkadaşı" formuna daha yakın
- Yazı, "sohbet botları çağından dijital iş arkadaşları çağına geçildiğini" vurgularken, insanların artık AI'ın hatalarını düzelten kişiler değil, AI'ın işini yöneten yöneticiler hâline geldiğini söylüyor
Gemini 3'ün gelişi ve 3 yıldaki değişim
- ChatGPT'nin çıkışından yaklaşık 3 yıl sonra gelen Google Gemini 3, yapay zeka gelişiminin hızını gösteren bir örnek
- 2022'de GPT-3.5 döneminde sistemler yalnızca paragraf ya da şiir üretme düzeyindeydi
- 2025'te Gemini 3, etkileşimli oyunları doğrudan kodlayıp tasarlayabilecek seviyeye ulaştı
- Gemini 3, kullanıcının isteği doğrultusunda “Candy-Powered FTL Starship Simulator” adlı gerçekten oynanabilir bir oyun üretti
- Bu, geçmişte yalnızca metin açıklayan AI'ın, artık kodu ve arayüzü doğrudan hayata geçiren bir aşamaya evrildiğini gösteriyor
Antigravity ve ajan tipi AI
- Google, Gemini 3 ile birlikte geliştiricilere yönelik Antigravity adlı bir araç da tanıttı
- Bu araç, Claude Code veya OpenAI Codex benzeri şekilde kullanıcının bilgisayarına erişip otonom olarak kod yazan bir sistem
- Antigravity, Inbox kavramını devreye sokarak AI'ın çalışma sırasında onay ya da yardıma ihtiyaç duyduğunda kullanıcıya bildirim göndermesini sağlıyor
- Kullanıcı İngilizce komut veriyor, AI da bunları kod olarak uyguluyor
- Örneğin yazarın bülten yazısı dosyalarını analiz ederek AI ile ilgili öngörüleri derleyen bir web sitesini otomatik oluşturdu
- AI; web araması, kod çalıştırma ve tarayıcı testi yaptı, ardından sonucu Netlify'a dağıtılabilecek biçimde paketledi
İş birliğine dayalı AI olarak Gemini 3
- Gemini 3, çalışma sırasında kullanıcı onayı isteme yoluyla ilerleme durumunu şeffaf biçimde paylaşıyor
- Kullanıcı, AI'ın önerilerini gözden geçirip düzelterek birlikte çalışıyor
- Bu süreç, daha çok "AI yönetimi" deneyimine benziyor
- AI kusursuz değil, ancak hatalar çoğunlukla muhakeme farkı veya niyet yorumlama hatası düzeyinde; klasik halüsinasyon sorunu ise neredeyse yok
- Gemini 3 ile iş birliği, "ekip arkadaşı yönetmeye" benzetiliyor ve yalnızca prompt girmekten daha ileri bir etkileşim biçimi vurgulanıyor
Araştırma yürütme yeteneği ve 'PhD düzeyi' değerlendirmesi
- Gemini 3, araştırma veri setlerini analiz etme ve makale yazma görevlerini yerine getirdi
- Eski bir kitlesel fonlama veri dosyasını kurtarıp düzenledi ve yeni analizler yaptı
- "Girişimcilik ve iş stratejisi" konusunda 14 sayfalık bir makale yazdı
- AI, bağımsız hipotezler kurdu, istatistiksel analiz yaptı ve kendi ölçütünü (fikir özgünlüğü ölçümü) oluşturdu
- Ortaya çıkan çalışma lisansüstü öğrenci düzeyinde bir tamamlanmışlık gösterse de, bazı istatistiksel teknikler ve kuramsal akış zayıf kaldı
- Ek talimatlar verildiğinde kalite belirgin biçimde arttı
- Yazar, "PhD düzeyinde zekâ uzak değil" değerlendirmesini yaptı
Dijital iş arkadaşına dönüşüm
- Gemini 3, düşünen ve uygulayan bir ortak AI olarak dünya genelinde milyarlarca kişinin erişimine açık
- AI gelişiminde yavaşlama işareti yok; ajan tabanlı modellerin yükselişi ve AI yönetme becerisinin önemi öne çıkıyor
- Yazar bunu, "sohbet botları çağından dijital iş arkadaşları çağına geçiş" olarak tanımlıyor
- İnsanlar artık AI'ın hatalarını düzeltenler değil, AI'ın iş akışını yöneten yöneticiler hâline geliyor
- Son olarak Gemini 3, yalnızca kod kullanarak bir blog kapak görseli üretmek gibi, metnin ötesine geçen yaratıcı yetenekler de sergiledi
- Ancak AI'a bilgisayara erişim izni verildiğinde güvenlik riskleri bulunduğu için dikkatli olmak gerekiyor
1 yorum
Hacker News görüşleri
Bu tür yazıları her gördüğümde hep eksik kalan bir kısım oluyor — soru şu: "iyi mi, doğru mu"
edgeDetect(image)gibi bir Sobel filtresi kodu yazdırınca, modelden modele başarılı olup olmaması değişiyorduŞimdiye kadar AI ile etkileşim kurma biçimimizin çoğunlukla metin kutusu merkezli olması ilginç
“Halüsinasyon” sorunu hâlâ var
“PhD düzeyinde zekâ mı?” sorusuna gelirsek, yüksek lisans/doktora öğrencisi olarak benzer bir his alıyorum
Google'ın ilerleyişi yalnızca yazılımda değil, donanımda da gerçekleşiyor
Gemini 3 etkileyici, ama hâlâ mevcut literatürün sınırları içinde kaldığı hissini veriyor
GPT-3'ün çıkış tarihi 2020 Haziran'dı ve ChatGPT de 3.5 sürümüydü
“Human in the loop”un, AI'nin hatalarını düzelten insan modelinden AI'yi yöneten insan modeline evrildiği söyleniyor; bunu uzun zamandır duyuyorum
Claude Code ya da Antigrav gibi araçları doğrudan yerel sistemde çalıştırmanın güvenli olup olmadığı konusunda soru işaretlerim var