- Birden fazla üretken yapay zeka görsel düzenleme aracının sonuçlarını karşılaştıran içerik biçimi
- Her aracın aynı girdi için ürettiği düzenleme sonuçlarını görsel olarak karşılaştıran bir yapı
- Sayfada “Loading editing comparisons...” ifadesi yer alıyor; bu da düzenleme karşılaştırmalarının yüklenmekte olduğunu gösteriyor
- Başlık dışında, belirli araç adları, karşılaştırma ölçütleri, sonuç açıklamaları vb. sağlanmıyor
- Genel olarak yapay zeka görsel düzenleme performansını karşılaştırmaya yönelik bir arayüz gibi görünüyor, ancak ayrıntılar özgün metinde yer almıyor
Sayfa özeti
- Başlık “Generative AI Image Editing Showdown”; bu da birden fazla yapay zeka görsel düzenleme modelinin karşılaştırıldığını ima ediyor
- Gövdede yalnızca “Loading editing comparisons...” ifadesi bulunuyor; karşılaştırma sonuçları veya açıklamalar yer almıyor
- Ek metin, veri, görsel, araç listesi, değerlendirme ölçütleri vb. özgün metinde bulunmuyor
Sağlanan bilginin sınırları
- Özgün metinde düzenleme sonuçları veya karşılaştırma içeriğine dair somut bir açıklama yok
- Bu nedenle karşılaştırmanın amacı, kullanılan yapay zeka modelleri, değerlendirme yöntemi gibi unsurlar açıkça belirtilmiyor
- Genel olarak içerik yüklenme aşamasında görünüyor; bu yüzden kayda değer bir bilgi sunulmuyor
1 yorum
Hacker News görüşleri
Herkes Gemini 2.5 Flash Image / Nano Banana'yı küçümsüyor
Diğer modellere kıyasla çok daha güçlü ama görsel başına fiyatı aynı ve metin kodlayıcısı sayesinde çok daha karmaşık ve nüanslı prompt'ları işleyebiliyor
Hazırladığım gemimg Python paketi ile örnekleri paylaştım, daha çeşitli vakaları içeren bir blog yazısı da yolda
Google'ın AI Studio platformunda en-boy oranı kontrolü de sunan ücretsiz üretim de var
Yine de Seedream 4.0'ın bu testte kazanması şaşırtıcıydı
ChatGPT'ye gömülü özellikler ya da Ghibli tarzı akımı hariç tutarsak, en bilinen görsel düzenleme modellerinden biri olduğunu düşünüyorum
Benim kullanımımda bu büyük bir sorun değil ama renk tutarlılığının önemli olduğu kişiler için Nano Banana daha iyi olabilir
Telif sınırında istekler de değildi ama bu tür hatalar sık oluyor
Yine de çalıştığında sonuçlar çok etkileyici oluyor
İkinci denemede önce görsel analiziyle dağınık eşyaların listesini çıkardım, sonra bunları prompt ile kaldırınca çok daha iyi sonuç aldım
Sonunda prompt engineering'in önemini yeniden hissettim
Flux şaşırtıcı derecede iyi ama çoğu insanın (ben dahil) sonunda varsayılan olarak ChatGPT ya da Gemini gibi alışık olduğu modellere yöneldiğini düşünüyorum
Bu tür karşılaştırmalar benchmark grafiklerinden çok daha pratik
Nano Banana'yı sık kullanıyorum ama dış cephe ya da peyzaj düzenlemelerinde zayıf
Kaldırım, drenaj kanalı, renk eşleme gibi şeyler neredeyse imkansız
Nano Banana da sınır işlemede hatalı davranıyor, bu yüzden fotoğraf kayıyor
2022'de çıtayı görmüş biri olarak bugünkü demolara bakınca, SD1·2·3 dönemleriyle kıyaslanamayacak kadar etkileyici olduklarını düşünüyorum
Artık modellerin prompt'ları ve görselleri gerçekten anladığı bir döneme gelmişiz gibi duruyor
Mühendislik ilerlemeye devam ettikçe yaratıcılık da patlayıcı biçimde genişliyor
Prompt'u ya da deneme sayısını değiştirip sadece en beğenilen sonucu göstermek, testin nesnelliğini zayıflatıyor
Tüm modeller için aynı prompt ve seed ile 5 üretim gibi standart koşullar gerekli
Örneğin Gemini 2.5 Flash, “Girl with Pearl Earring” testinde gereğinden fazla serbestlik kazanmıştı,
buna karşılık OpenAI gpt-image-1 çok daha az denemeyle çok daha iyi sonuç verdiği halde başarısız sayıldı
Replicate blog yazımda çeşitli modelleri doğrudan karşılaştırdım
Bunların içinde Qwen Image Edit en ucuz ve en hızlı olanıydı, ayrıca çoğu düzenleme işini de iyi yaptı
Bir görsel düzenleme uygulaması yapacak olsam muhtemelen bu modeli seçerdim
Karşılaştırmanın kendisi ilginçti ama sondaki zürafa görselinde aslında sadece gövde bükülmüş, kısalmamıştı
Yine de sık sık Gemini sonucunu seçtim ve pass/fail yerine 10 puanlık ölçekle değerlendirme olmasını isterdim
Böyle bir sergi gerçekten olsa kesin giderdim
Son zamanlarda neredeyse hiç AI görsel üretmiyorum
Yaklaşık bir buçuk yıl önce modelleri yerelde çalıştırmak modaydı ama artık çoğu şey bulut tabanlı hale geldi
Yine de gerçek fotoğraf düzenlemede hâlâ bir tür doğal olmayan doku hissi var
Mesela insan saçı gereğinden fazla parlak görünüyor ya da ağaçlar plastik gibi duruyor
Flux Kontext yerelde çalıştırılabiliyor ama kuantize modelle yavaş üretim yapmak gerektiği için verimsiz
Üstelik ChatGPT'de ücretsiz görsel üretilebildiğinden, yerelde ısrar etmek için güçlü bir neden de kalmadı
Saç testinde yalnızca Gemini 2.5 Flash renk ve dokuyu gerçekten doğru eşleştirdi,
Seedream 4 ise genel renk düzeltmesini değiştirdiği için tercih etmiyorum
Reve'nin de teste dahil edilmesi iyi olurdu diye düşünüyorum
Karakterin elindeki nesneyi kaldırdı, bakışı kameraya çevirdi ve pozu da doğal şekilde ayarladı
Üstelik çıkan 4 sonucun dördü de kullanılabilecek kadar yüksek kalitedeydi
Sonrasında Reve'nin model tanıtım yazısını okuyunca hemen kaydolmaya karar verdim
Deneme iyiydi ama “Resimdeki kule sağa eğik” gibi hatalı prompt'lar modeli daha da fazla eğmeye itiyor
Modele göre prompt'lar ayarlandığı için deneme sayıları da farklıydı
Genel olarak eğlenceli bir testti
Prompt'ların kusursuz olmadığı yönünde eleştiriler var ama bence tam da bu yüzden normal bir kullanıcının yazabileceği düzeyde ve gerçekçi
SSS'de açıklandığı gibi, modelin belirli kelimelere takılıp kalmaması için prompt'un farklı sürümlerini deniyorum
Örneğin “Turn on the lights” gibi emir cümleleri basit bir komuttan ibaret değil,
multimodal LLM'in anlama yetisini sınamak için kullanılan prompt'lardır
Bu tür cümleler SDXL gibi geleneksel modellerde asla işe yaramaz