Ben de Osmani’nin anlattığına benzer her şeyi doldurup
uygulama yaparken bu konu açıldı diye biraz acele ettim ama,
Osmani de sadece konuşmakla kalmayıp
Google Antigravity’ye kendi söylediklerini ekleseydi daha iyi olmaz mıydı diye düşünüyorum.
Kapathy için de aynı şey geçerli; artık doğrudan bir şey yapmayı düşünmeyip sadece ortaya bir yazı atıp bırakma tavrı bana göre pek öyle değil!dir
Başarıyı modelden çok sistem (harness) belirliyor: Yapay zekanın performansı, GPT veya Claude gibi modelin kendisinden ziyade, onu çevreleyen promptlar, araçlar, sandbox, geri bildirim döngüleri gibi harness adı verilen çalışma ortamının tasarımına bağlıdır.
Hataları kurala dönüştüren Ratchet ilkesi: Yapay zekanın hatalarını basit birer kaza olarak görmek yerine, bunları kural belgelerine (AGENTS.md gibi) veya hook'lara hemen yansıtıp sistemin zamanla daha sağlam hale gelmesini sağlayacak şekilde yönetmek gerekir.
Sorun modelin değil, yapılandırmanın (Skill) meselesi: Yapay zekanın iyi çalışmaması çoğu zaman model zekasının yetersizliğinden değil, harness tasarımının zayıf olmasından kaynaklanır; bu yüzden istenen çıktıdan geriye doğru giderek gerekli bileşenleri ve kısıtları tasarlayan mühendislik yaklaşımı şarttır.
Eskiden prompt’a “A’yı yap” diye açıkça yazmama rağmen belirli bir olasılıkla bunu sürekli yerine getirmediği için mrkdwn bold ile vurgulamayı, iki kez yazmayı, İngilizce yazmayı, başı sonu birbirine bağlayarak yazmayı, XML olarak yazmayı akla gelen her türlü şeyi denedim ama yine de belirli bir olasılıkla prompt’u görmezden geliyordu...
Ama promptta “A’yı yap, B’yi yapma” dediğimizde bunu gerçekten iyi anlayabiliyorsa böyle bir yaklaşım geçerli gibi görünüyor; ancak yapay zeka sunucusunun durumuna göre promptu olasılıksal olarak yerine getiriyorsa böyle bir yaklaşım yine de geçerli olur mu?
Performansı gizli bir yamayla düşürseler de fark edilmeyeceğini sanıyorlar ama aslında insanların sezgileri düşündüğünüzden daha keskin; benim sezgimle topluluktaki insanların söylediklerini birleştirince cevap hemen ortaya çıkıyor.
"Eee, peki sen ne yapabiliyorsun ki haha" olduğu için mecburen kullanıyoruz....
codex odaklı 5.3 modelinde, gerçekten giriş cümlesi bile olmadan sadece kod yazmayı iyi bilen bir yardımcı çalışanla konuşuyormuşum gibi hissettiriyordu.
5.4’ten itibaren biraz biraz konuşmaya başladı, 5.5’ten sonra ise sanki yarı yarıya kendine gelmiş gibi.
Hâlâ bazen API’ye sözleşme diyor, arada İngilizceyle Koreceyi çılgınca karıştırıp konuşuyor; bu yüzden bazen "anlaması kolay olacak şekilde, mümkün olduğunca İngilizce kullanmadan anlat" diye yazmam gerekiyor.
Buna rağmen, kod üretme performansının benim hissiyatıma göre 5.4’le birlikte opus’u geçtiğini düşünüyorum. Opus 4.7 çıktı ama tadına bile bakmadım. Yine "Anthropic" tarzı bir pazarlama olacağı çok belli görünüyor.
Ama Harness geçen haftaya kadar deli gibi satıyordu, bu haftadan itibaren sessizleşti.. Sanırım Anthropic'in saçmalamaları ve Codex 5.5'in çok iyi olması yüzünden........
Bunu yıllardır kullanıyorum ama ajan tabanlı tarafa geçtikçe giderek gücünü kaybediyor gibi, haha.
Yine de kişisel doküman yazımı ya da elle kod yazdığım durumlarda fark etmeden epey yardımcı oluyor.
Kota artışı olmadan 27 kat çarpan gelirse, agentic coding kullanılabilir seviyenin altına inmez mi?
VibeVoice - Microsoft'un yeni nesil açık kaynak ses sentezi modeli
GeekNews'te daha en başta hemen paylaşılmıştı ama bir sorun olduğu için VibeVoice-TTS kodu kaldırılmış görünüyor.
TTS tarafında şu anda yalnızca VibeVoice-Realtime kullanılabiliyor gibi.
Son birkaç gündür VibeVoice-ASR nedeniyle yeniden popülerleşiyor gibi, burada burada görünüyor.
https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison test etmiş; Mac'te uv ve mlx-audio kullanarak tek satırlık bir komutla çalıştırılabiliyormuş ve
1 saatlik sesi 128GB M5 Max MacBook Pro'da yaklaşık 8 dakika 45 saniyede işlemiş.
Bunu konuşmacı ayrımı iyi yapan Whisper gibi düşünebilirsiniz
Pek de özü olmayan bir şeyi kulağa makul gelecek şekilde anlatan kıdemli bir geliştiricinin yazısını, üstelik analiz ederek ele alan bir içerik olmuş (kişisel olarak Google'dan hoşlanmadığım için kusura bakmayın). Elbette olguya dair bir anlayış geliştirmeye dönük yaklaşımın iyi bir deneme olduğunu düşünüyorum.
SDD gibi şeylerin hype’ı zaten çoktan söndü; şimdi sıra harness’e gelmiş gibi görünüyor.
Harness tarafında biraz ilginç olan kısım şu: eğitim verisinde açıkça yok ama model harness diye bir kavramı çok hızlı anlıyor.
Belki zaten var olan bir kelimenin anlamını aynen kullandığı içindir; ben hiç bahsetmemiş olmama rağmen önce harness’i güncelleyelim gibi ifadeler de kullanıyor.
Ben de Osmani’nin anlattığına benzer her şeyi doldurup
uygulama yaparken bu konu açıldı diye biraz acele ettim ama,
Osmani de sadece konuşmakla kalmayıp
Google Antigravity’ye kendi söylediklerini ekleseydi daha iyi olmaz mıydı diye düşünüyorum.
Kapathy için de aynı şey geçerli; artık doğrudan bir şey yapmayı düşünmeyip sadece ortaya bir yazı atıp bırakma tavrı bana göre pek öyle değil!dir
https://github.com/hang-in/tunaFlow
https://docs.github.com/ko/copilot/…
Evet
3 maddelik özet
harnessadı verilen çalışma ortamının tasarımına bağlıdır.Ratchetilkesi: Yapay zekanın hatalarını basit birer kaza olarak görmek yerine, bunları kural belgelerine (AGENTS.mdgibi) veya hook'lara hemen yansıtıp sistemin zamanla daha sağlam hale gelmesini sağlayacak şekilde yönetmek gerekir.Skill) meselesi: Yapay zekanın iyi çalışmaması çoğu zaman model zekasının yetersizliğinden değil, harness tasarımının zayıf olmasından kaynaklanır; bu yüzden istenen çıktıdan geriye doğru giderek gerekli bileşenleri ve kısıtları tasarlayan mühendislik yaklaşımı şarttır.Bunu referans alacağım. Teşekkürler.
Yol haritası https://tolaria.canny.io/
Eskiden prompt’a “A’yı yap” diye açıkça yazmama rağmen belirli bir olasılıkla bunu sürekli yerine getirmediği için
mrkdwnbold ile vurgulamayı, iki kez yazmayı, İngilizce yazmayı, başı sonu birbirine bağlayarak yazmayı, XML olarak yazmayı akla gelen her türlü şeyi denedim ama yine de belirli bir olasılıkla prompt’u görmezden geliyordu...Ama promptta “A’yı yap, B’yi yapma” dediğimizde bunu gerçekten iyi anlayabiliyorsa böyle bir yaklaşım geçerli gibi görünüyor; ancak yapay zeka sunucusunun durumuna göre promptu olasılıksal olarak yerine getiriyorsa böyle bir yaklaşım yine de geçerli olur mu?
27 kat mı? Vay canına, vay canına!
Performansı gizli bir yamayla düşürseler de fark edilmeyeceğini sanıyorlar ama aslında insanların sezgileri düşündüğünüzden daha keskin; benim sezgimle topluluktaki insanların söylediklerini birleştirince cevap hemen ortaya çıkıyor.
"Eee, peki sen ne yapabiliyorsun ki haha" olduğu için mecburen kullanıyoruz....
codexodaklı 5.3 modelinde, gerçekten giriş cümlesi bile olmadan sadece kod yazmayı iyi bilen bir yardımcı çalışanla konuşuyormuşum gibi hissettiriyordu.5.4’ten itibaren biraz biraz konuşmaya başladı, 5.5’ten sonra ise sanki yarı yarıya kendine gelmiş gibi.
Hâlâ bazen API’ye sözleşme diyor, arada İngilizceyle Koreceyi çılgınca karıştırıp konuşuyor; bu yüzden bazen "anlaması kolay olacak şekilde, mümkün olduğunca İngilizce kullanmadan anlat" diye yazmam gerekiyor.
Buna rağmen, kod üretme performansının benim hissiyatıma göre 5.4’le birlikte
opus’u geçtiğini düşünüyorum. Opus 4.7 çıktı ama tadına bile bakmadım. Yine "Anthropic" tarzı bir pazarlama olacağı çok belli görünüyor.Vay canına, çok güzelmiş. Paylaşım için teşekkürler.
tailscale bir nimet..
Ama Harness geçen haftaya kadar deli gibi satıyordu, bu haftadan itibaren sessizleşti.. Sanırım Anthropic'in saçmalamaları ve Codex 5.5'in çok iyi olması yüzünden........
‘Hı? Bunu daha önce görmüş gibiyim...’ diye düşündüm ama meğerse birlikte okunması iyi olacak yazılara doğrudan bağlantı veriyormuş haha
Bunu yıllardır kullanıyorum ama ajan tabanlı tarafa geçtikçe giderek gücünü kaybediyor gibi, haha.
Yine de kişisel doküman yazımı ya da elle kod yazdığım durumlarda fark etmeden epey yardımcı oluyor.
Kota artışı olmadan 27 kat çarpan gelirse, agentic coding kullanılabilir seviyenin altına inmez mi?
VibeVoice - Microsoft'un yeni nesil açık kaynak ses sentezi modeli
GeekNews'te daha en başta hemen paylaşılmıştı ama bir sorun olduğu için VibeVoice-TTS kodu kaldırılmış görünüyor.
TTS tarafında şu anda yalnızca VibeVoice-Realtime kullanılabiliyor gibi.
Son birkaç gündür VibeVoice-ASR nedeniyle yeniden popülerleşiyor gibi, burada burada görünüyor.
https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison test etmiş; Mac'te
uvve mlx-audio kullanarak tek satırlık bir komutla çalıştırılabiliyormuş ve1 saatlik sesi 128GB M5 Max MacBook Pro'da yaklaşık 8 dakika 45 saniyede işlemiş.
Bunu
konuşmacı ayrımı iyi yapan Whispergibi düşünebilirsinizPek de özü olmayan bir şeyi kulağa makul gelecek şekilde anlatan kıdemli bir geliştiricinin yazısını, üstelik analiz ederek ele alan bir içerik olmuş (kişisel olarak Google'dan hoşlanmadığım için kusura bakmayın). Elbette olguya dair bir anlayış geliştirmeye dönük yaklaşımın iyi bir deneme olduğunu düşünüyorum.
SDD gibi şeylerin hype’ı zaten çoktan söndü; şimdi sıra harness’e gelmiş gibi görünüyor.
Harness tarafında biraz ilginç olan kısım şu: eğitim verisinde açıkça yok ama model
harnessdiye bir kavramı çok hızlı anlıyor.Belki zaten var olan bir kelimenin anlamını aynen kullandığı içindir; ben hiç bahsetmemiş olmama rağmen önce
harness’i güncelleyelim gibi ifadeler de kullanıyor.Gittikçe sadece pazarlama terimleri aşırı çoğalıyormuş gibi geliyor.
Üniversite öğrencileri ne olacak?