13 puan yazan spilist2 2025-05-26 | 2 yorum | WhatsApp'ta paylaş

Yeni tanıştığım servisleri test etmek için, farklı güçlü yönlere sahip 4 ajanla vibe coding denedim. (Daha önce AI prototipleme servislerini (v0, Lovable, Replit, Bolt, Tempo, Mocha) derin araştırma + tek tek kullanarak karşılaştırmıştım; bu kez ise aynı prompt ile uygulayarak karşılaştırdım)

  1. Lovable: AI prototipleme servislerinde öne çıkanlardan biri. Şık bir UI’ı hızlıca oluşturuyor. Anında herkese açık dağıtım mümkün
  2. Gemini App Build: Google AI Studio içinde kullanılıyor. Gemini API çağıran uygulamaları ücretsiz oluşturabiliyorsunuz. Sohbet turu sınırı yok
  3. Rork: İlk kez mobil uygulama simülatörünü yerleşik sunan vibe coding servisi. Uygulamayı telefonda test etmek mümkün
  4. Flowith Neo: 24 saat çalışan süper ajan. Kodlama dahil çeşitli işleri çoklu ajan yapısıyla yapabiliyor

Hepsinde aynı şekilde, tanıdıklarımla birlikte kendi geliştirdiğimiz ve uyguladığımız yardım isteme becerisi eğitim atölyesinin handout’unu verip “tek başına pratik yapılabilecek bir simülasyon uygulaması oluştur” dedim

Her servisi aşağıdaki 7 ölçüte göre (toplam 70 puan üzerinden), tamamen öznel biçimde değerlendirdim

  • Uygulama süreci
    • Verimlilik: Çalışan bir uygulama çıkana kadar benim müdahalem az mı
    • Kullanım kolaylığı: Test ve debug etmek kolay mı
    • Hız: Geliştirme hızı yüksek mi
    • Maliyet: Uygulamanın maliyeti düşük mü
  • Uygulama sonucu
    • İşlevsellik: Özellikler beklentiyi karşılıyor ve yeterince zengin mi
    • Kullanılabilirlik: Ortaya çıkan uygulamanın UI/UX’i sezgisel ve güzel mi
    • Etkililik: Gerçekten yardım isteme becerisi eğitimine katkı sağlıyor mu

Değerlendirme sonuçlarının özeti

(Özet tablo görseli ve her servis için ayrıntılı çalışma ekranları blog yazısında yer alıyor)

Genel olarak:

  • Uygulama süreci: Lovable > Gemini >> Rork >>>> Flowith
  • Uygulama sonucu: Lovable ~= Flowith > Gemini = Rork

Kaç turda tamamlandı:

  • Lovable ve Gemini ikisi de ilk turda tamamlandı (Gemini bir hatayı kendi başına düzelterek tamamladı)
  • Rork, (hata mesajını yapıştırdıktan sonra) 2 kez bugfix sonrası 3. turda tamamlandı
  • Flowith, birkaç kez doğrudan müdahale etmeme ve kendi kendine düzeltmeye çalışmasına rağmen tamamlayamadı. Yine de süreç boyunca sürekli preview verdiği için ara sonuçlar görülebiliyordu

İzlenimler

  • Biraz kişisel tercih etkisi olabilir ama genel olarak Lovable ezici biçimde öndeydi. Yine de her birinin belirgin güçlü yanları vardı
    • Gemini: LLM çağrılarını doğrudan test edebilme deneyimi çok özel
    • Rork: Mobil uygulamayı doğrudan telefonda test etmek, uygulamaya özgü bir his veriyor
    • Flowith: Ek araştırmayı gerçekten iyi yapıyor. Keşke tamamlayabilseydi...
  • Beklenti yaratan Flowith’in ara sonuçları etkileyiciydi ama henüz vibe coding için ana araç olarak kullanmaya pek uygun olmadığını düşünüyorum. En önemlisi, sohbet mesajı bazlı değil kredi bazlı ücretlendiği için maliyet çok yükseliyor
  • Bu arada uygulama süreci yalnızca bu denemeye göre değil, genel deneyimimin tamamı düşünülerek puanlandı. Rork’u ilk kez kullandım; Lovable’ı birçok kez, Gemini ve Flowith’i ise üçer kez denedim

Ayrıntılı değerlendirme

🥇 1. Lovable - 63 puan (ilk turda tamamlandı)

Uygulama süreci

  • Verimlilik: 9
  • Kullanım kolaylığı: 9
  • Hız: 10
  • Maliyet: 7

Kısacası her şeyi iyi yapıyor. İlk turdaki üretim en hızlı ve en temiz olanıydı. Hata mesajı tabanlı otomatik bugfix kullanışlı. Ücretsiz görsel düzenleme ve bugfix çok iyi. Kod düzenleme de ücretli planda doğrudan, ücretsiz planda ise GitHub entegrasyonuyla mümkün. Anında herkese açık dağıtım da çok iyi.

Uygulama sonucu

  • İşlevsellik: 9
  • Kullanılabilirlik: 10
  • Etkililik: 9

UI her zamanki gibi güzel ve kusur bulmak zor. Özellikler çok zengin değil ama handout’u yaratıcı şekilde yorumladığı için sezgiseldi ve olması gereken her şey vardı.

Yardım istemenin 3 adımını her zaman takip etmek zorunda olmak bir dezavantaj. Simülasyon da basit bir kural tabanına dayanıyordu ama uygundu. Buraya LLM dahil diğer servislerde beğendiğim yanlar eklenirse çok iyi olur diye düşündüm.

🥈 2. Gemini App Build - 56 puan (ilk turda, kendi başına bugfix sonrası tamamlandı)

Uygulama süreci

  • Verimlilik: 7
  • Kullanım kolaylığı: 8
  • Hız: 8
  • Maliyet: 10

Ücretsiz sohbet ve Gemini’yi ücretsiz çağırabilme en büyük artısı. İlk turda oldukça iyi bir şey üretiyor ve oluşturduktan hemen sonra çıkan hatayı da kendi başına düzeltiyor.

Çok turlu kullanımda ise pek iyi değil. Hata mesajı tabanlı otomatik bugfix mümkün ama o hatayı sonuna kadar düzeltemediği için sonunda manuel müdahale ettim. Görsel düzenleme yok ama kod düzenleme en rahat olanı. Dağıtım için Cloud Run gerekmesi ise dezavantaj.

Uygulama sonucu

  • İşlevsellik: 8
  • Kullanılabilirlik: 6
  • Etkililik: 9

UI belirgin biçimde katı. Google araçlarını hatırlatıyor ve handout içeriğini yaratıcı biçimde yorumlamak yerine doğrudan aktarıyor. 3 adımın her zaman tamamlanması gerektiği için biraz kullanışsız olabiliyor.

Ama yine de simülasyon sırasında sohbet edip AI’dan yanıt alma deneyimi son derece benzersiz ve etkili olduğu için ekstra puan aldı. Bunu sadece bu araç sağlayabiliyor.

🥉 3. Rork - 46 puan (3. turda tamamlandı)

Uygulama süreci

  • Verimlilik: 7
  • Kullanım kolaylığı: 5
  • Hız: 7
  • Maliyet: 4

Mobil uygulamaya dönüşebilmesi en büyük artısı. Hem Android hem iPhone’da Expo Go uygulamasıyla telefona kurulup sorunsuz çalıştı. Claude Sonnet 4 dahil uygulama modeli seçilebiliyor. Otomatik bugfix var ve hataları gerçekten iyi düzeltiyor.

Kod düzenleme yapılamıyor, görsel düzenleme yok ve en önemlisi bugfix’in ücretli olması sorunlu. İnsan biraz, ilk turda kendi ürettiği hatalı uygulamayı düzeltmenin ücretsiz olması gerekmez mi diye düşünüyor.

Uygulama sonucu

  • İşlevsellik: 8
  • Kullanılabilirlik: 7
  • Etkililik: 8

Tek başına İngilizce üretim yaptı. UI katıydı ve pek güzel değildi. Handout içeriğinin önemli bir kısmı doğrudan yansıtılmıştı. Yine de olması gerekenler vardı ve 3 ayrı işlevi tek tek çalıştırabilmek kullanışlıydı.

Simülasyon çoktan seçmeli ilerleyip değerlendirme yaptığı için yeni başlayanların eğitiminde iyi olabileceğini düşündüm. Ama metinler biraz fazla uzundu.

4. Flowith Neo - 35 puan (n tur sonunda tamamlanamadı)

Uygulama süreci

  • Verimlilik: 1
  • Kullanım kolaylığı: 3
  • Hız: 3
  • Maliyet: 1

Web aramasıyla ek planlama yapması iyi. Ancak çok iş yapıyor gibi görünse de 3 uygulama boyunca bir kez bile tamamlayamadı. Kendi başına çalıştırıp sonra yeniden planlama yaparak bugfix denedi ama düzeltemedi. Mesaj başına ücretlendirme yok ama kendi kendine dene-başarısız ol döngüsünü tekrarlarken çok fazla kredi tüketmesi can sıkıcıydı.

Sürecin her ara aşamasında sürümü herkese açık bir URL’de dağıtıyor. Ama bazen eski sürüm daha iyi olabiliyor. Arada geliştirme başarısız olursa manuel yeniden çalıştırma gerekiyor. Kodu ancak indirince görebiliyorsunuz ve doğal olarak düzenleme de yalnızca prompt ile yapılabiliyor. Görsel düzenleme mümkün değil.

Uygulama sonucu

  • İşlevsellik: 9
  • Kullanılabilirlik: 10
  • Etkililik: 7

İlk planlama ve ara preview’lar çok etkileyiciydi. Sonunda tamamlayamasa da, ayrıca sürümler arasında değişiklik gösterse de diğer uygulamalara taşınabilecek birçok unsur vardı. Örneğin daha sıkı ön değerlendirme yapılması ya da farklı senaryolar ve zorluk seviyelerine göre eğitim verilmesi gibi. UI da bazı tuhaf kısımlar dışında güzeldi ve en özenli olanıydı.

2 yorum

 
princox 2025-05-28

Ben bolt.new kullanıyorum; bunun nasıl olduğunu da karşılaştırmak isterim.

 
spilist2 2025-05-29

Ben de haziranda Bolt hackathon’u yüzünden (toplam ödül 1 milyon dolar) https://www.stdy.blog/registered-at-vibe-coding-hackathon/ Bolt’u epey kullanacak gibi görünüyorum. Sonrasında karşılaştırmak gerekir sanırım haha