4 puan yazan GN⁺ 2026-03-13 | 2 yorum | WhatsApp'ta paylaş
  • En yeni MacBook Neo'nun veritabanı iş yüklerini ne kadar iyi işlediği, ClickBench ve TPC-DS SF300 benchmark'larıyla ölçüldü
  • Deneyde, 6 çekirdekli Apple A18 Pro çipli, 8GB bellek ve 512GB SSD'ye sahip model kullanıldı; testler DuckDB v1.5.0 ve v1.4.4 LTS sürümleriyle yapıldı
  • ClickBench'te cold run'da MacBook Neo'nun bulut instance'larından daha hızlı sonuç verdiği görüldü; bunun yerel NVMe SSD'nin hızlı erişiminden kaynaklandığı değerlendirildi
  • TPC-DS SF300 testinde bazı sorgularda 80GB'a kadar disk spilling yaşansa da, tüm sorgular 79 dakika içinde tamamlanarak kararlı bir çalışma sergilendi
  • Günlük büyük veri işleri için sınırları olsa da, DuckDB istemcisi için bir dizüstü bilgisayar olarak yeterince kullanılabildiği gösterildi

MacBook Neo'nun özellikleri ve testin amacı

  • Apple'ın çıkardığı MacBook Neo, öğrenci ve yazarlar için tanıtılmış olsa da, DuckDB ekibi bunu 'dizüstünde büyük veri' felsefesi doğrultusunda performans açısından doğruladı
    • Avrupa'da satılan modele şarj adaptörü dahil değil; yalnızca dizüstü bilgisayarın kendisi ve USB-C kablosu veriliyor
    • Seçilebilen seçenekler yalnızca 256GB veya 512GB SSD; testte 512GB model kullanıldı
  • Cihazda 8GB bellek ve Apple A18 Pro (6 çekirdek) bulunuyor
    • Aynı çipi kullanan iPhone 16 Pro, önceki testte TPC-H SF100'ü 10 dakikanın altında tamamlamıştı

ClickBench benchmark'ı

  • ClickBench, 100 milyon satırlık tek tabloda 43 sorgu çalıştıran analitik veritabanı benchmark'ıdır
    • Parquet formatında 14GB, CSV olarak 75GB boyutunda
  • DuckDB v1.5.0, macOS için port edilerek çalıştırıldı; swap bağımlılığını azaltmak için bellek sınırı 5GB olarak ayarlandı
  • Karşılaştırma yapılan sistemler:
    • MacBook Neo (2P+4E çekirdek, 8GB RAM)
    • AWS c6a.4xlarge (16 vCPU, 32GB RAM)
    • AWS c8g.metal-48xl (192 vCPU, 384GB RAM)

Sonuçlar ve analiz

  • Cold run sonuçları:
    • MacBook Neo tüm sorguları 1 dakikanın altında tamamladı ve 0.57 saniyelik medyanla en hızlı performansı gösterdi
    • Bulut instance'ları, ağ depolama gecikmesi nedeniyle daha yavaş kaldı
  • Hot run sonuçları:
    • MacBook Neo'nun toplam çalışma süresi yaklaşık %10 iyileşti
    • c8g.metal-48xl genel olarak en hızlıydı, ancak MacBook Neo medyan bazında c6a.4xlarge'dan daha iyi sonuç verdi
    • Toplam çalışma süresi ise c6a.4xlarge'dan yaklaşık %13 daha yavaştı

TPC-DS benchmark'ı

  • DuckDB v1.4.4 LTS sürümü kullanıldı, bellek sınırı 6GB olarak ayarlandı
  • SF100:
    • Medyan sorgu süresi 1.63 saniye, toplam süre 15.5 dakika
  • SF300:
    • Medyan sorgu süresi 6.90 saniye
    • En fazla 80GB disk spilling yaşandı
    • 67 numaralı sorgu 51 dakika sürdü, ancak tüm sorgular 79 dakika içinde tamamlandı

Satın alma açısından değerlendirme

  • Sürekli büyük veri işleme için disk I/O (1.5GB/s) ve 8GB bellek sınırlayıcı etkenler
    • Air ve Pro modelleri (3–6GB/s) veya başka işletim sistemlerine sahip dizüstüler daha uygun olabilir
  • Ancak DuckDB bulutta çalıştırılıp yerelde istemci olarak kullanıldığında, MacBook Neo yeterince kullanışlı
    • Ara sıra yapılan yerel veri işleme için de kararlı şekilde yanıt verebiliyor

Sonuç

  • MacBook Neo, düşük maliyetli bir dizüstü olmasına rağmen DuckDB tabanlı büyük ölçekli veri iş yüklerini tamamlayabiliyor
  • Bulut ortamlarıyla karşılaştırıldığında yerel SSD'nin avantajı açık biçimde ortaya çıkıyor
  • Geliştiriciler ve veri analistleri için taşınabilirlik ile deneysel performansı birlikte sunabilen minimum özellikli bir cihaz olarak değerlendiriliyor

2 yorum

 
GN⁺ 2026-03-13
Hacker News yorumları
  • Bu küçük MacBook Neo ile “gerçek geliştirme işi” yapmayı denemek istedim
    M1 MacBook Air ile birden fazla iOS uygulaması yaptım ve iki startup satın alma sürecinden geçtim
    FCP ile 30-45 dakikalık 4K yarış videolarını da sorunsuz düzenledim; Neo ise o Air'den daha iyi performans gösteriyor

    • Eskiden Norveççe klavyeli ikinci el bir dizüstünde PHP backend ve jQuery frontend geliştiriyordum
      Onunla yaptığım projeler ilk geliştirici işimi almamı sağladı ve o gün Hacker News'ü ilk kez öğrendim
      Sonuçta önemli olan donanım değil, işi hayata geçirme becerisi
    • Tatildeyken dizüstü yerine Galaxy S22 + HDMI adaptörü + Bluetooth klavye kombinasyonuyla geliştirme yaptım
      TV'ye bağlayıp neovim ve termux ile Elixir geliştirdim; testler 5 saniyede bitiyordu
      Rust build'leri yavaştı ama taşınabilirlik ve pil verimliliği sayesinde oldukça keyifli bir deneyimdi
    • Hâlâ 2019 model Intel MacBook Pro(16GB) kullanıyorum
      Xcode build'leri, Docker, Claude Code ve Codex'i aynı anda çalıştırsa da iyi dayanıyor
      Yalnız fan sesi jet motoru seviyesinde olduğu için yeni bir M5 Max 16" MBP(48GB) sipariş ettim
      7 yıllık döngülerle yükseltme yaptığım için bunu da uzun süre kullanırım gibi görünüyor
    • Bir yıl boyunca M1 Mac Mini(8GB) ile iOS uygulamaları build ettim
      Build sırasında biraz takılıyordu ve Firefox'a geçince sekme değişimi yavaşlıyordu ama gayet yapılabiliyordu
      Aynı işi Intel MacBook Pro(16GB) üzerinde yapınca çok daha akıcı ve rahattı
      Hissedilen en büyük fark OS'nin tepki süresi idi
    • İnsanlar sık sık 8GB belleği küçümsüyor
      Sıkıştırılmış bellek sayesinde pratikte 2-3 kat daha fazla veri sığabiliyor ve NVMe SSD sayesinde swap okuması da hızlı
      Hatta asıl eksik olan şey klavye arka aydınlatmasının olmaması
  • Ders anlatırken veriyi şöyle sınıflandırıyorum — tek bir makinenin belleğine tamamen sığıyorsa Small data, diske sığıyorsa Medium data, daha fazlası ise Big data
    Yakın zamanda 20 yıllık bir Python uygulamasını modernleştirirken backend'i polars veya duckDB ile değiştirilebilir hâle getirdim ve hız 40-80 kat arttı
    Bu iş sadece iki gün sürdü

    • Artık tek bir sisteme 64TB DDR5 RAM bile koyulabildiği için, data lake ölçeğinde değilse neredeyse her şey Small data sayılır
    • polars ile bu kadar büyük hız farkının nedeni merak konusu
      Doğru kullanıldığında hızlı ama yanlış ele alındığında performans ciddi şekilde düşebiliyor
    • Eski ama hâlâ geçerli bir bağlantı: Your Data Fits in RAM
      Pahalı olsa da çoğu problem hâlâ RAM'e sığıyor
    • NVMe sayesinde disk erişimi hızlandığı için “Medium data” tanımı da belirsizleşti
      2000'ler tarzı Big Data altyapısı artık demode olmuş gibi görünüyor
  • DuckDB'nin mobil benchmark yazısını görünce güvenim azaldı
    Swift uygulamasıyla CLI uygulamasını karşılaştırmak elma ile muz kıyaslamak gibi geldi

    • Ama o deney, akıllı telefonda yerel bir CLI uygulaması çalıştırıyordu
      Bu, iPhone ile Android karşılaştırması değil, vektörleştirilmiş sorgu işleme araştırma makalesi sistemi ile yapılan bir karşılaştırmaydı
  • Bu aynı zamanda AWS işlem performansına yönelik bir eleştiri

    • AWS, EBS ağ depolamasını kullandığı için gecikme yerel PCIe veri yoluna kıyasla çok daha yüksek
      Özellikle rastgele erişim yüklerinde bu büyük fark yaratıyor
    • Yine de AWS dizüstünden daha hızlı değil miydi?
      Ağ diskinin yavaş olması yüzünden AWS'nin tamamını eleştirmek zor
      AWS'de yerel SSD'li instance'lar da var
    • Ama bulut hâlâ aşırı pahalı
      Benim M1 Max dizüstüm çoğu bulut instance'ını eziyor
      Bant genişliği fiyatları 10 bin kata kadar farklılaşıyor ve artık geliştirici kuşağının büyük kısmı sadece bulut SaaS biliyor
      Bu akışı gerçek zamanlı izledim
    • Aslında yazının söylediği bunun tersi
      “Her gün dizüstünde Big Data işleri yapıyorsanız Neo uygun değil”
      “Ama DuckDB'yi bulutta çalıştırıp dizüstünü istemci olarak kullanıyorsanız harika” mesajı veriliyordu
  • Fakir bir ekoloğum ama bu küçük bilgisayarla bütün R ve Word işlerimi halledebiliyorum
    Fiyatına göre yüksek derleme kalitesinden çok memnunum

    • Yoksa kabuklu deniz canlıları araştırması mı yapıyorsunuz?
      Bizim bölgede devlet destekli kabuklu deniz canlıları araştırma programlarının çoğu sona erdi, bu üzücü
    • Ama şimdiden satın mı aldınız? Ben hâlâ ön sipariş aşamasında sanıyordum
  • DuckDB'yi gerçekten çok seviyorum
    AWS Lambda üzerinde S3'te GZ olarak saklanan veriyi işlemek için bir PoC yaptım ve
    400 satır C# kodunu 10 satıra indirdim
    İnanılmaz bir açık kaynak araç

    • Bence son yılların en harika açık kaynak armağanlarından biri
  • “2026'da 8GB ile ne yapılır?” diyenlerin böyle yazıları mutlaka okuması lazım

  • Daha fazla şirketin böyle genel donanım performansı vitrinleri yapmasını isterdim
    Gerçekte ne kadar yük taşıyabildiğini göstermek faydalı oluyor

  • Benchmark yapılırken yerel NVMe instance'ları (c8gd.4xlarge) kullanılmalıydı

    • İyi bir nokta; gerçekten de c8gd.4xlarge(950GB NVMe) ve c5ad.4xlarge(RAID 0 yapılandırması) ile yeniden test ettim
      Sonuçlara yerel MacBook M1 Max(64GB, 10 çekirdek) sonucumu da ekledim
      Sonuç olarak M1 Max hâlâ bulut instance'larından daha hızlı
      Güncel M5 Pro/Max ile fark muhtemelen daha da büyür
    • Ancak AWS'nin yerel NVMe'si uçucu depolama olduğu için veriyi her seferinde önceden yüklemek gerekiyor
      Yine de benchmark amacı için aslında daha da ideal
    • Ancak bölge genelinde yaşanacak bir elektrik kesintisinde veri kalıcılığı garantisi hâlâ belirsiz
      Tam dayanıklılık isteniyorsa yine de WAL streaming gerekiyor
  • Bulut instance'larının ağ diski kullandığını hemen fark etmiş olmaları iyiydi
    O hâlde neden yerel depolamalı instance'larla (c8id.2xlarge, c8id.4xlarge) yeniden benchmark yapmadıkları merak konusu

 
dkang 2026-03-14

Yoksul ekolojistin kullanıcı adı clamlady olduğu için, bir deniz kabuğu araştırmacısı olup olmadığını soran bir yorum yazılmış galiba ("clam"in yanlış çeviri olduğunu düşünüp orijinal metni merak ederek girdim).