33 puan yazan GN⁺ 26 일 전 | 5 yorum | WhatsApp'ta paylaş
  • macOS 26 ve üzeri Apple Silicon Mac’lerde bulunan Apple on-device LLM’yi doğrudan kullanmayı sağlayan açık kaynak araç
  • FoundationModels.framework tabanlı modeli CLI, HTTP sunucusu ve etkileşimli sohbet olarak açarak OpenAI API ile uyumlu hale getiriyor
  • Tüm işlemler yerelde yürütülüyor; bu sayede maliyet sıfır, veri sızıntısı riski yok, ayrıca 4096 token bağlamı ve çok dilli destek sunuyor
  • cmd, oneliner, explain, gitsum gibi çeşitli yardımcı araçlarla kod/komut özetleme ve otomasyon işlevleri sağlıyor
  • macOS’te zaten bulunan Apple Intelligence modelini tamamen erişilebilir kılarak geliştiricilerin kendi donanımlarında bağımsız biçimde yapay zeka çalıştırabilmesini sağlıyor

apfel genel bakış

  • apfel, macOS 26 (Tahoe) ve üzeri sürümlerdeki Apple Silicon Mac cihazlarda yerleşik gelen Apple on-device LLM’yi doğrudan kullanmayı sağlayan bir araçtır
  • Apple’ın yalnızca Siri ve sistem işlevlerinde sınırlı biçimde kullandığı FoundationModels.framework tabanlı dil modelini CLI, HTTP sunucusu ve etkileşimli sohbet biçiminde açar
  • %100 on-device çalışma, sıfır maliyet ve OpenAI API uyumluluğu sunar
  • Homebrew ile kurulabilir ve MIT lisanslı açık kaynak olarak dağıtılır

Başlıca özellikler

  • On-device yapay zeka kullanımı: macOS’e dahil olan LLM’yi doğrudan kullanır; ağ çağrısı veya API anahtarı gerekmez
  • Güvenlik: tüm token’lar yerelde işlenir, veriler dışarı gönderilmez
  • Performans özellikleri

    • Yaklaşık 3 milyar parametre
    • 4096 token bağlam penceresi
    • 2/4 bit karışık hassasiyetli nicemleme

      • Neural Engine tabanlı yürütme
      • İngilizce, Almanca, İspanyolca, Fransızca, İtalyanca, Japonca, Korece, Portekizce, Çince desteği

Kullanım biçimleri

  • CLI aracı

    • UNIX tarzı komut satırı aracı; stdin/stdout, JSON çıktı, dosya ekleme ve doğru çıkış kodları desteği sunar
    • jq, xargs ve kabuk betikleriyle birlikte kullanılabilir
    • Örnek:
      $ apfel "What is the capital of Austria?"  
      The capital of Austria is Vienna.  
      
  • OpenAI uyumlu sunucu

    • localhost:11434 üzerinde OpenAI API yerine geçebilen bir sunucu olarak çalışır
    • Streaming(SSE), Tool Calling, CORS, response_format: json_object gibi özellikleri destekler
    • OpenAI SDK’da yalnızca base_url değiştirilerek aynı kodla kullanılabilir
    • Örnek:
      client = OpenAI(base_url="http://localhost:11434/v1";, api_key="unused")  
      
  • Etkileşimli sohbet

    • Çok turlu konuşma, otomatik bağlam yönetimi, sistem prompt’u ve 5 kırpma stratejisi desteği sunar
    • Örnek:
      $ apfel --chat -s "You are a coding assistant"  
      > How do I reverse a list in Python?  
      

İç yapı

  • Apple’ın yerleşik LLM’sine FoundationModels.framework üzerinden doğrudan erişir
  • Apple’ın yalnızca Siri, Writing Tools vb. içinde kullandığı modeli apfel, Swift 6.3 ikili dosyası ile LanguageModelSession sarmalayarak doğrudan erişim arayüzü sunar
  • Hummingbird tabanlı HTTP sunucusu yerleşik gelir
  • 4096 token sınırını telafi etmek için 5 bağlam kırpma stratejisi ve doğru token sayımı özelliğini içerir
  • OpenAI Tool Schema’sını Apple’ın Transcript.ToolDefinition biçimine dönüştürür

Dahil edilen yardımcı araçlar

  • cmd

    • Doğal dili kabuk komutuna dönüştürür
    • Örnek: "find all .log files modified today" → gerçek komut çıktısı
  • oneliner

    • Doğal dille awk, sed, sort, uniq gibi boru hattı komutları üretir
  • mac-narrator

    • Mac’in sistem etkinliklerini anlatım biçiminde açıklar
  • explain

    • Komutları veya kod parçalarını düz metinle açıklar
  • wtd

    • Geçerli dizindeki kod tabanını özetleyip açıklar
  • gitsum

    • Son git commit’lerin özetini üretir

OpenAI API ile tam uyumluluk

  • /v1/chat/completions, /v1/models gibi başlıca endpoint’leri destekler
  • temperature, max_tokens, seed gibi parametreler kullanılabilir
  • Tarayıcı istemcileri için CORS desteği sunar
  • OpenAI SDK, LangChain, LlamaIndex vb. ile aynı şekilde entegre olabilir

GitHub popülerliği ve dağıtım

  • 1.030 yıldız, 27 fork
  • 3 Nisan 2026’da tek bir günde 818 yıldız artışı
  • Apple, Google, VMware, NVIDIA ve Grafana’daki mühendisler tarafından yıldızlandı
  • Kurulum komutu:
    $ brew install Arthur-Ficial/tap/apfel  
    $ apfel "Hello, Mac!"  
    
  • Kaynaktan derlemek için macOS 26.4 SDK gerekir

Genişletilmiş projeler

  • apfel-gui

    • SwiftUI tabanlı macOS GUI

      • Apple Intelligence ile sohbet, istek/yanıt günlükleri ve sesli giriş/çıkış özellikleri sunar
      • Yakında çıkacak
  • apfel-clip

    • Pano tabanlı yapay zeka eylem aracı

      • Dil bilgisi düzeltme, çeviri, kod açıklama ve özetleme gibi işlevleri menü çubuğundan tek tıkla çalıştırır
      • Geliştirme sürüyor

Teknik özet

  • Donanım: Apple Silicon (Neural Engine + GPU)
  • Model: macOS’e yerleşik Apple LLM
  • SDK: FoundationModels.framework
  • Dil: Swift 6.3, Xcode gerekmez
  • Lisans: MIT
  • Token penceresi: 4096 (girdi + çıktı toplamı)
  • Model sayısı: sabit 1 adet

Temel değer önerisi

  • macOS’te zaten bulunan Apple Intelligence modelini tamamen erişilebilir hale getirir
  • Maliyetsiz yerel yapay zeka ortamı sunarak geliştiricilerin ve kullanıcıların yapay zekayı doğrudan kendi donanımlarında çalıştırabilmesini sağlar
  • Güvenlik, hız ve bağımsızlığı bir araya getiren Mac’e özel açık kaynak yapay zeka arayüzü

5 yorum

 
xguru 26 일 전

Eğlenceli olacak gibi duruyor ama nedense Korece çok iyi çalışmıyor.
Kaynak kodu indirip Codex ile birlikte inceliyorum; Foundation Model’in yanıtlarının Korece tarafı baştan garip görünüyor.
Biraz daha deneyeceğim, başarı sağlayan olduysa lütfen yorumda haber versin haha

 
xguru 26 일 전

apfel "Bana Currywurst tarifi ver"
error: [guardrail] The request was blocked by Apple's safety guardrails. Try rephrasing.

Bir an olmadı mı? diye düşündüm ama bu çalışıyor.

apfel "Bana kimchi jjigae tarifi ver"
Kimchi jjigae, Kore'nin geleneksel yahni yemeklerinden biridir; basit ama derin bir lezzet sunan bir yemektir. Aşağıda kimchi jjigae tarifi yer alıyor:...

apfel "Merhaba. Bana kimchi jjigae hakkında bilgi verir misin?"
Merhaba! Kimchi jjigae, Kore'nin en temsili sulu yemeklerinden biridir ve kimchi ile et kullanılarak yapılır. Kimchi jjigae genellikle domuz eti, sığır eti veya tavuk eklenerek farklı tatların bir araya geldiği derin bir et suyu halinde pişirilir. Buna çeşitli sebzeler ve baharatlar da eklenerek lezzeti daha da derinleştirilir.

apfel "Merhaba? Korece konuşabiliyor musun?" veya apfel "Bana Avusturya'nın başkenti hakkında bilgi verir misin?"
Bu tür sorulara ise aşağıdaki gibi papağan gibi bir cevap veriyor:
Apple web sitesinde akıllı özellikler hakkında bilgi edinebilirsiniz.

Görünüşe göre guardrail biraz garip ayarlanmış.

 
xguru 26 일 전

Bunu konuşmanın içeriğine dayanarak Codex’e düzenlettim; hafifçe değiştirip gayet iyi çalıştı.

"Sorunun gereğini aynen yerine getir, ancak ayrıca belirtilmedikçe doğrudan Korece yanıt ver."

Böyle bir adaptör koyup bu tür akıllı özellik yanıtları geldiğinde yukarıdaki promptu ek olarak verirseniz cevap iyi geliyor. Sanırım hâlâ biraz eksik.

apfel "Merhaba? Korece konuşabiliyor musun?"
Merhaba! Evet, Korece de konuşabiliyorum. Nasıl yardımcı olabilirim?

apfel "Avusturya'nın başkenti hakkında bilgi verebilir misin?"
Avusturya'nın başkenti Viyana'dır. Viyana, Avusturya'nın siyasi, kültürel ve ekonomik merkezi olarak bilinir.

 
ilotoki0804 25 일 전

Açıkçası kullanmadan önce, ollama gibi diğer yerel LLM çalıştırma araçlarıyla karşılaştırıldığında ne gibi bir avantajı olabileceği konusunda biraz şüpheliydim; ama gerçekten bizzat deneyince halüsinasyonlar da çok fazla ve biraz aptalca davranıyor.

Buna karşılık diğer yerel LLM araçları GPU’yu kullanarak güçlü olsalar da çok fazla kaynak tüketiyor; bu modelin ise nispeten daha az kaynak tüketmesi ve Neural Engine’i iyi kullanarak daha az güç harcaması açısından bir avantajı var gibi görünüyor.

Apple Intelligence’ın, mobil cihazlar dahil çeşitli cihazlarda hafif yapay zeka çalıştırma konseptine sahip olduğunu biliyorum; bu açıdan bakınca bu konsepte oldukça uygun gibi duruyor.

Öte yandan, ne kadar hafif bir model olursa olsun performansının bundan daha iyi olması gerektiğini düşünüyorum ki az da olsa daha faydalı kullanılabilsin. Şu an fazla aptal.

 
GN⁺ 26 일 전
Hacker News yorumları
  • Her şeyi yerelde çalıştıran yaklaşım hoşuma gidiyor
    Gizlilik açısından yerel modellerin önemi giderek artacak diye düşünüyorum
    İnsanlar bulut modellere çok fazla bağlam bilgisi aktarıp olaylar yaşandıkça, yerelde çalıştırma ihtiyacı daha da güçlenecek

    • Bu yalnızca yarım bir çözüm
      Model kapalı biçimde eğitilirse, kullanıcının istemediği değer yargıları içine gömülebilir
      Örneğin Çin menşeli açık modellere Tiananmen olaylarını sorunca sansürlü yanıtlar vermesi gibi
      Bu yüzden gerçek çözüm, doğrulanabilir açık eğitim ile yerelde çalıştırma birleşimi
    • Başka bir açıdan bakınca, güvenilmeyen içerikleri AI hizmetlerine vermek de sorun yaratıyor
      Web tarama ya da spam tespiti gibi dış verilerle uğraşırken, ToS ihlali ya da hatta kolluk kuvvetlerine yanlış bildirim riski doğabiliyor
    • Acaba şifreli çıkarım (encrypted inferencing) hizmetleri var mı diye merak ediyorum
      Modelle gündelik konuşmalar yaparken bunları sunucuya düz metin olarak göndermek istemiyorum
      Bu yüzden yerelde çalıştırmayı tercih ediyorum
    • HN topluluğunda bu tür tartışmalar canlı ama genel kullanıcılar gizlilik konusuna pek ilgi duymuyor
    • Gizlilik için en iyi seçenek yerel olsa da, tek cevap mutlaka yerel değil
      Anthropic, Google, OpenAI gibi şirketler tüketiciye yönelik AI planlarında gizlilikten ödün verdi
      Bunun sebebi veri toplama ve moderasyon
      Ama AWS Nitro Enclaves gibi kriptografik güvence (cryptographic attestation) teknolojileri kullanılırsa, bulutta da kişisel bilgiler yeterince korunabilir
  • Asıl mesele Apple'ın sürekli yeni modeller dağıtıp dağıtamayacağı
    Mevcut model Qwen-3-4B seviyesinde ve 1 yıllık bir model
    Apple Foundation Models araştırma sayfasına bakınca, en yeni Qwen-3.5-4B ya da Gemma 4 ile arasında ciddi fark var
    İndirme yapmadan hemen kullanılabilmesi güzel ama güncel modelleri kullanmak isterim

    • Aslında bu sadece dosya indirme meselesi, yani Apple'ın yapamaması için bir neden yok
      Ama Apple hızlı hareket eden bir şirket değil ve AI özelliklerini sınırlı alanlarda (fotoğraf düzenleme, Siri soruları vb.) tutması muhtemel
      Bana göre Apple Intelligence'ı açmasanız bile kullanışlı birçok özellik var
  • Apple modelini ağ sunucusu gibi ortaya çıkaran projeler gördüm
    Sorun şu ki bu sunuculara tarayıcı gibi diğer uygulamalar da yerel portlar üzerinden erişebiliyor
    Kötü amaçlı bir web sayfasındaki JavaScript bu porta komut gönderebilir
    Bazı projeler CORS'u bile açıyor, bu da daha tehlikeli
    Apfel kodunu da denemeden önce inceliyorum

    • Varsayılan ayarın false olması sevindirici
      Hâlâ bir footgun seçeneği ama şimdiye kadar gördüklerim içinde en güvenlisi
    • Çoğu tarayıcı rastgele web sitelerinden 127.0.0.1'e POST isteği atılmasını engeller
      Bu yüzden gerçek tehdit modelinin ne olduğunu merak ediyorum
    • AI ya da MCP projelerinde bu tür güvenlik hatalarını sık görüyorum
      Deneyimli mühendisler bile bu saldırı vektörünü gözden kaçırıyor
    • Bearer token kimlik doğrulama seçeneği olduğunu da doğruladım
  • Yakın zamanda Claude'daki bir hata yüzünden tokenlar çok hızlı tükendiği için başka modeller denedim
    Çoğu birbirinin yerine geçebilir düzeydeydi
    Marka sadakatinin ve geçiş maliyetinin düşük olduğu bir pazarın nasıl şekilleneceğini merak ediyorum
    Yerel LLM'lerin yakında gerçekten pratik bir alternatif olmasını umuyorum

    • Gerçekten de modeller arasında neredeyse hiç fark yok
      Bu yüzden OpenAI ya da Meta'nın duygusal bağ (arkadaş/sevgili tipi chatbotlar) stratejisiyle farklılaşmaya çalıştığı anlaşılıyor
  • Bunu başka bir başlıkta görüp hemen kurdum
    LLM test istemi olarak “Tayvan'da saat 9:30, ABD Pasifik saatinde kaçtır” sorusunu kullandım,
    çıkan sonuçların hepsi farklıydı ve hepsi yanlıştı
    Apfel CLI ile çalıştırınca, modellerin her biri farkı 11 ila 13 saat arasında farklı hesapladı

  • Bu haftanın başından beri kullanıyorum
    Bulutta çalışan fiyat tahmini backtest aracı ile yerel modeli karşılaştırdım,
    Apple modeli 10 denemenin 6'sında en doğru sonucu verdi
    Hızı da yeterince yüksek, bu yüzden tüm iş akışının yerini alabilir gibi görünüyor
    Sonnet kullanınca aylık binlerce dolar, DeepSeek kullanınca yüzlerce dolar tutuyor; yerel ise neredeyse bedava
    Ama diğer yerel modeller hız ya da doğruluk açısından yetersiz kaldı

  • “Apple'ın Siri'nin arkasına kilitlediğini Apfel açıyor” ifadesi abartılı bir pazarlama dili gibi geliyor
    Gerçekte yaptığı şey, Apple Intelligence'ın FoundationModels framework'ünü CLI ve REST API olarak açığa çıkarmak
    Ayrıca “Neural Engine üzerinde çalışıyor” iddiası da belirsiz
    Test ettiğimde GPU (Metal) üzerinde çalıştı

  • Ben bir Linux kullanıcısıyım; aynı şeye ihtiyaç duyduğum için TalkType adında bir proje yaptım
    Whisper'ı yerelde çalıştırarak çevrimdışı konuşma tanıma yapıyor
    Kendi sesimi sunucuya göndermek istemediğim için en baştan yerel yaklaşımı seçtim
    Bu fikrin Mac tarafında da yaygınlaşmasını görmek sevindirici

  • Bunu açık kaynak olarak yayımladığın için teşekkürler
    macOS 15'te kuruluyor ama çalıştırınca çöküyor,
    bu yüzden yalnızca macOS 26 (Tahoe) ve üzeri sürümlerde kurulmasını sağlamak için PR gönderdim

  • Tüm uygulamalar ve tarayıcılarda dil bilgisi hatalarının altını çizen bir Grammarly alternatifi motor yapmak istiyorum
    LLM bile gerektirmeyen, tamamen gizlilik odaklı bir araç olurdu

    • Gerçekten çok iyi bir fikir
      Biri yaparsa kesinlikle denemek isterim