apfel - Mac’te zaten yerleşik gelen ücretsiz yapay zekayı kullanmanızı sağlayan araç
(apfel.franzai.com)- macOS 26 ve üzeri Apple Silicon Mac’lerde bulunan Apple on-device LLM’yi doğrudan kullanmayı sağlayan açık kaynak araç
- FoundationModels.framework tabanlı modeli CLI, HTTP sunucusu ve etkileşimli sohbet olarak açarak OpenAI API ile uyumlu hale getiriyor
- Tüm işlemler yerelde yürütülüyor; bu sayede maliyet sıfır, veri sızıntısı riski yok, ayrıca 4096 token bağlamı ve çok dilli destek sunuyor
- cmd, oneliner, explain, gitsum gibi çeşitli yardımcı araçlarla kod/komut özetleme ve otomasyon işlevleri sağlıyor
- macOS’te zaten bulunan Apple Intelligence modelini tamamen erişilebilir kılarak geliştiricilerin kendi donanımlarında bağımsız biçimde yapay zeka çalıştırabilmesini sağlıyor
apfel genel bakış
- apfel, macOS 26 (Tahoe) ve üzeri sürümlerdeki Apple Silicon Mac cihazlarda yerleşik gelen Apple on-device LLM’yi doğrudan kullanmayı sağlayan bir araçtır
- Apple’ın yalnızca Siri ve sistem işlevlerinde sınırlı biçimde kullandığı FoundationModels.framework tabanlı dil modelini CLI, HTTP sunucusu ve etkileşimli sohbet biçiminde açar
- %100 on-device çalışma, sıfır maliyet ve OpenAI API uyumluluğu sunar
- Homebrew ile kurulabilir ve MIT lisanslı açık kaynak olarak dağıtılır
Başlıca özellikler
- On-device yapay zeka kullanımı: macOS’e dahil olan LLM’yi doğrudan kullanır; ağ çağrısı veya API anahtarı gerekmez
- Güvenlik: tüm token’lar yerelde işlenir, veriler dışarı gönderilmez
-
Performans özellikleri
- Yaklaşık 3 milyar parametre
- 4096 token bağlam penceresi
-
2/4 bit karışık hassasiyetli nicemleme
- Neural Engine tabanlı yürütme
- İngilizce, Almanca, İspanyolca, Fransızca, İtalyanca, Japonca, Korece, Portekizce, Çince desteği
Kullanım biçimleri
-
CLI aracı
- UNIX tarzı komut satırı aracı; stdin/stdout, JSON çıktı, dosya ekleme ve doğru çıkış kodları desteği sunar
jq,xargsve kabuk betikleriyle birlikte kullanılabilir- Örnek:
$ apfel "What is the capital of Austria?" The capital of Austria is Vienna.
-
OpenAI uyumlu sunucu
localhost:11434üzerinde OpenAI API yerine geçebilen bir sunucu olarak çalışır- Streaming(SSE), Tool Calling, CORS, response_format: json_object gibi özellikleri destekler
- OpenAI SDK’da yalnızca
base_urldeğiştirilerek aynı kodla kullanılabilir - Örnek:
client = OpenAI(base_url="http://localhost:11434/v1", api_key="unused")
-
Etkileşimli sohbet
- Çok turlu konuşma, otomatik bağlam yönetimi, sistem prompt’u ve 5 kırpma stratejisi desteği sunar
- Örnek:
$ apfel --chat -s "You are a coding assistant" > How do I reverse a list in Python?
İç yapı
- Apple’ın yerleşik LLM’sine FoundationModels.framework üzerinden doğrudan erişir
- Apple’ın yalnızca Siri, Writing Tools vb. içinde kullandığı modeli apfel, Swift 6.3 ikili dosyası ile
LanguageModelSessionsarmalayarak doğrudan erişim arayüzü sunar - Hummingbird tabanlı HTTP sunucusu yerleşik gelir
- 4096 token sınırını telafi etmek için 5 bağlam kırpma stratejisi ve doğru token sayımı özelliğini içerir
- OpenAI Tool Schema’sını Apple’ın Transcript.ToolDefinition biçimine dönüştürür
Dahil edilen yardımcı araçlar
-
cmd
- Doğal dili kabuk komutuna dönüştürür
- Örnek:
"find all .log files modified today"→ gerçek komut çıktısı
-
oneliner
- Doğal dille awk, sed, sort, uniq gibi boru hattı komutları üretir
-
mac-narrator
- Mac’in sistem etkinliklerini anlatım biçiminde açıklar
-
explain
- Komutları veya kod parçalarını düz metinle açıklar
-
wtd
- Geçerli dizindeki kod tabanını özetleyip açıklar
-
gitsum
- Son git commit’lerin özetini üretir
OpenAI API ile tam uyumluluk
- /v1/chat/completions, /v1/models gibi başlıca endpoint’leri destekler
- temperature, max_tokens, seed gibi parametreler kullanılabilir
- Tarayıcı istemcileri için CORS desteği sunar
- OpenAI SDK, LangChain, LlamaIndex vb. ile aynı şekilde entegre olabilir
GitHub popülerliği ve dağıtım
- 1.030 yıldız, 27 fork
- 3 Nisan 2026’da tek bir günde 818 yıldız artışı
- Apple, Google, VMware, NVIDIA ve Grafana’daki mühendisler tarafından yıldızlandı
- Kurulum komutu:
$ brew install Arthur-Ficial/tap/apfel $ apfel "Hello, Mac!" - Kaynaktan derlemek için macOS 26.4 SDK gerekir
Genişletilmiş projeler
-
apfel-gui
-
SwiftUI tabanlı macOS GUI
- Apple Intelligence ile sohbet, istek/yanıt günlükleri ve sesli giriş/çıkış özellikleri sunar
- Yakında çıkacak
-
-
apfel-clip
-
Pano tabanlı yapay zeka eylem aracı
- Dil bilgisi düzeltme, çeviri, kod açıklama ve özetleme gibi işlevleri menü çubuğundan tek tıkla çalıştırır
- Geliştirme sürüyor
-
Teknik özet
- Donanım: Apple Silicon (Neural Engine + GPU)
- Model: macOS’e yerleşik Apple LLM
- SDK: FoundationModels.framework
- Dil: Swift 6.3, Xcode gerekmez
- Lisans: MIT
- Token penceresi: 4096 (girdi + çıktı toplamı)
- Model sayısı: sabit 1 adet
Temel değer önerisi
- macOS’te zaten bulunan Apple Intelligence modelini tamamen erişilebilir hale getirir
- Maliyetsiz yerel yapay zeka ortamı sunarak geliştiricilerin ve kullanıcıların yapay zekayı doğrudan kendi donanımlarında çalıştırabilmesini sağlar
- Güvenlik, hız ve bağımsızlığı bir araya getiren Mac’e özel açık kaynak yapay zeka arayüzü
5 yorum
Eğlenceli olacak gibi duruyor ama nedense Korece çok iyi çalışmıyor.
Kaynak kodu indirip Codex ile birlikte inceliyorum; Foundation Model’in yanıtlarının Korece tarafı baştan garip görünüyor.
Biraz daha deneyeceğim, başarı sağlayan olduysa lütfen yorumda haber versin haha
Bir an olmadı mı? diye düşündüm ama bu çalışıyor.
Görünüşe göre guardrail biraz garip ayarlanmış.
Bunu konuşmanın içeriğine dayanarak Codex’e düzenlettim; hafifçe değiştirip gayet iyi çalıştı.
"Sorunun gereğini aynen yerine getir, ancak ayrıca belirtilmedikçe doğrudan Korece yanıt ver."
Böyle bir adaptör koyup bu tür akıllı özellik yanıtları geldiğinde yukarıdaki promptu ek olarak verirseniz cevap iyi geliyor. Sanırım hâlâ biraz eksik.
Açıkçası kullanmadan önce, ollama gibi diğer yerel LLM çalıştırma araçlarıyla karşılaştırıldığında ne gibi bir avantajı olabileceği konusunda biraz şüpheliydim; ama gerçekten bizzat deneyince halüsinasyonlar da çok fazla ve biraz aptalca davranıyor.
Buna karşılık diğer yerel LLM araçları GPU’yu kullanarak güçlü olsalar da çok fazla kaynak tüketiyor; bu modelin ise nispeten daha az kaynak tüketmesi ve Neural Engine’i iyi kullanarak daha az güç harcaması açısından bir avantajı var gibi görünüyor.
Apple Intelligence’ın, mobil cihazlar dahil çeşitli cihazlarda hafif yapay zeka çalıştırma konseptine sahip olduğunu biliyorum; bu açıdan bakınca bu konsepte oldukça uygun gibi duruyor.
Öte yandan, ne kadar hafif bir model olursa olsun performansının bundan daha iyi olması gerektiğini düşünüyorum ki az da olsa daha faydalı kullanılabilsin. Şu an fazla aptal.
Hacker News yorumları
Her şeyi yerelde çalıştıran yaklaşım hoşuma gidiyor
Gizlilik açısından yerel modellerin önemi giderek artacak diye düşünüyorum
İnsanlar bulut modellere çok fazla bağlam bilgisi aktarıp olaylar yaşandıkça, yerelde çalıştırma ihtiyacı daha da güçlenecek
Model kapalı biçimde eğitilirse, kullanıcının istemediği değer yargıları içine gömülebilir
Örneğin Çin menşeli açık modellere Tiananmen olaylarını sorunca sansürlü yanıtlar vermesi gibi
Bu yüzden gerçek çözüm, doğrulanabilir açık eğitim ile yerelde çalıştırma birleşimi
Web tarama ya da spam tespiti gibi dış verilerle uğraşırken, ToS ihlali ya da hatta kolluk kuvvetlerine yanlış bildirim riski doğabiliyor
Modelle gündelik konuşmalar yaparken bunları sunucuya düz metin olarak göndermek istemiyorum
Bu yüzden yerelde çalıştırmayı tercih ediyorum
Anthropic, Google, OpenAI gibi şirketler tüketiciye yönelik AI planlarında gizlilikten ödün verdi
Bunun sebebi veri toplama ve moderasyon
Ama AWS Nitro Enclaves gibi kriptografik güvence (cryptographic attestation) teknolojileri kullanılırsa, bulutta da kişisel bilgiler yeterince korunabilir
Asıl mesele Apple'ın sürekli yeni modeller dağıtıp dağıtamayacağı
Mevcut model Qwen-3-4B seviyesinde ve 1 yıllık bir model
Apple Foundation Models araştırma sayfasına bakınca, en yeni Qwen-3.5-4B ya da Gemma 4 ile arasında ciddi fark var
İndirme yapmadan hemen kullanılabilmesi güzel ama güncel modelleri kullanmak isterim
Ama Apple hızlı hareket eden bir şirket değil ve AI özelliklerini sınırlı alanlarda (fotoğraf düzenleme, Siri soruları vb.) tutması muhtemel
Bana göre Apple Intelligence'ı açmasanız bile kullanışlı birçok özellik var
Apple modelini ağ sunucusu gibi ortaya çıkaran projeler gördüm
Sorun şu ki bu sunuculara tarayıcı gibi diğer uygulamalar da yerel portlar üzerinden erişebiliyor
Kötü amaçlı bir web sayfasındaki JavaScript bu porta komut gönderebilir
Bazı projeler CORS'u bile açıyor, bu da daha tehlikeli
Apfel kodunu da denemeden önce inceliyorum
Hâlâ bir footgun seçeneği ama şimdiye kadar gördüklerim içinde en güvenlisi
Bu yüzden gerçek tehdit modelinin ne olduğunu merak ediyorum
Deneyimli mühendisler bile bu saldırı vektörünü gözden kaçırıyor
Yakın zamanda Claude'daki bir hata yüzünden tokenlar çok hızlı tükendiği için başka modeller denedim
Çoğu birbirinin yerine geçebilir düzeydeydi
Marka sadakatinin ve geçiş maliyetinin düşük olduğu bir pazarın nasıl şekilleneceğini merak ediyorum
Yerel LLM'lerin yakında gerçekten pratik bir alternatif olmasını umuyorum
Bu yüzden OpenAI ya da Meta'nın duygusal bağ (arkadaş/sevgili tipi chatbotlar) stratejisiyle farklılaşmaya çalıştığı anlaşılıyor
Bunu başka bir başlıkta görüp hemen kurdum
LLM test istemi olarak “Tayvan'da saat 9:30, ABD Pasifik saatinde kaçtır” sorusunu kullandım,
çıkan sonuçların hepsi farklıydı ve hepsi yanlıştı
Apfel CLI ile çalıştırınca, modellerin her biri farkı 11 ila 13 saat arasında farklı hesapladı
Bu haftanın başından beri kullanıyorum
Bulutta çalışan fiyat tahmini backtest aracı ile yerel modeli karşılaştırdım,
Apple modeli 10 denemenin 6'sında en doğru sonucu verdi
Hızı da yeterince yüksek, bu yüzden tüm iş akışının yerini alabilir gibi görünüyor
Sonnet kullanınca aylık binlerce dolar, DeepSeek kullanınca yüzlerce dolar tutuyor; yerel ise neredeyse bedava
Ama diğer yerel modeller hız ya da doğruluk açısından yetersiz kaldı
“Apple'ın Siri'nin arkasına kilitlediğini Apfel açıyor” ifadesi abartılı bir pazarlama dili gibi geliyor
Gerçekte yaptığı şey, Apple Intelligence'ın FoundationModels framework'ünü CLI ve REST API olarak açığa çıkarmak
Ayrıca “Neural Engine üzerinde çalışıyor” iddiası da belirsiz
Test ettiğimde GPU (Metal) üzerinde çalıştı
Ben bir Linux kullanıcısıyım; aynı şeye ihtiyaç duyduğum için TalkType adında bir proje yaptım
Whisper'ı yerelde çalıştırarak çevrimdışı konuşma tanıma yapıyor
Kendi sesimi sunucuya göndermek istemediğim için en baştan yerel yaklaşımı seçtim
Bu fikrin Mac tarafında da yaygınlaşmasını görmek sevindirici
Bunu açık kaynak olarak yayımladığın için teşekkürler
macOS 15'te kuruluyor ama çalıştırınca çöküyor,
bu yüzden yalnızca macOS 26 (Tahoe) ve üzeri sürümlerde kurulmasını sağlamak için PR gönderdim
Tüm uygulamalar ve tarayıcılarda dil bilgisi hatalarının altını çizen bir Grammarly alternatifi motor yapmak istiyorum
LLM bile gerektirmeyen, tamamen gizlilik odaklı bir araç olurdu
Biri yaparsa kesinlikle denemek isterim