- Rust ile geliştirilen yerelde çalışan bir yapay zeka asistanı olup, internet bağlantısı olmadan kişisel cihazda tamamen çalışır ve veriler dışarı aktarılmaz
- Tek çalıştırılabilir dosya yapısı sayesinde Node.js, Docker veya Python kurulumu olmadan çalıştırılabilir; yaklaşık 27 MB boyutunda hafif bir binary olarak sunulur
- Kalıcı bellek sistemi, Markdown tabanlı bilgi deposu ile SQLite FTS5 ve semantic search üzerinden uzun süreli hafıza ve arama işlevleri sağlar
- CLI, web UI ve masaüstü GUI desteği sunar; OpenAI, Anthropic, Ollama gibi birden fazla LLM sağlayıcısıyla uyumludur
- OpenClaw formatıyla uyumlu olduğundan SOUL, MEMORY ve HEARTBEAT dosyalarını kullanarak otonom görevler yürütebilir
Genel Bakış
- LocalGPT, yerel cihaz odaklı bir yapay zeka asistanı olup kalıcı bellek ve otonom görev yeteneklerine sahip, Rust tabanlı bir uygulamadır
- Harici sunuculara bağımlı olmadan kişisel cihazda tamamen çalışır
- OpenClaw projesinden ilham alır ve uyumluluğu korur
- Kurulum
cargo install localgpt komutuyla yapılabilir; GUI dahil ya da headless modda tercih edilebilir
Başlıca Özellikler
- Tek binary yapısı sayesinde Node.js, Docker ve Python gerekmez
- Yerel veri koruma: Tüm bellek ve ayarlar kullanıcının cihazında saklanır
- Kalıcı bellek: Markdown dosyaları tabanlı bir bilgi deposu kullanır; SQLite FTS5 ve sqlite-vec ile hızlı arama ve anlamsal arama desteği sunar
- Otonom heartbeat özelliğiyle arka planda görevler çalıştırabilir
- Çeşitli arayüzler: CLI, web UI ve masaüstü GUI sağlar
- Birden fazla LLM desteği: Anthropic (Claude), OpenAI, Ollama ve diğerleriyle entegre olabilir
Nasıl Çalışır
- Bellek
~/.localgpt/workspace/ dizininde saklanır ve ana dosya yapısı şöyledir
MEMORY.md: uzun vadeli bilgi depolama
HEARTBEAT.md: otonom görev kuyruğu
SOUL.md: kişilik ve davranış yönergeleri
knowledge/: konu bazlı yapılandırılmış bilgi deposu
- Anahtar kelime araması için SQLite FTS5, yerel embedding tabanlı anlamsal arama için sqlite-vec kullanılır
Yapılandırma ve CLI Komutları
- Yapılandırma dosyası
~/.localgpt/config.toml içinde saklanır; varsayılan model, API anahtarı, heartbeat aralığı ve çalışma saatleri gibi ayarlar burada belirlenir
- Başlıca CLI komutları
localgpt chat: konuşma oturumu başlatır
localgpt ask "질문": tek seferlik sorgu çalıştırır
localgpt daemon start: arka plan daemon’unu başlatır
localgpt memory search "query": bellekte arama yapar
localgpt config init: varsayılan yapılandırmayı oluşturur
HTTP API
- Daemon çalıştığında bir REST API sunulur
GET /health: durum kontrolü
POST /api/chat: sohbet isteği
GET /api/memory/search?q=<query>: bellek araması
GET /api/memory/stats: bellek istatistiklerini görüntüler
Teknoloji Yığını
- Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed, eframe tabanlıdır
- Apache-2.0 lisansı altında yayımlanmıştır ve kodun yaklaşık %93’ü Rust ile yazılmıştır
Diğer Bilgiler
- GitHub’da yaklaşık 646 yıldız ve 39 fork bulunuyor
- “Why I Built LocalGPT in 4 Nights” başlıklı blog yazısında geliştirme süreci ve commit bazlı ayrıntılar paylaşılmıştır
- Başlıca katkı sağlayanların Yi Wang, Claude, objectkit ve Ax73 dahil 4 kişi olduğu görülüyor
1 yorum
Hacker News yorumları
2026'da böyle bir şey görüyor olmak gerçekten siberpunk hissettiriyor
MEMORY.md,HEARTBEAT.md,SOUL.mdgibi yapıların olması çok ilgi çekiciAma
ANTHROPIC_API_KEY'e bağımlı olduğu için buna “local-first” demek biraz tartışmalıYine de uzun vadede geleceğin local-first olduğunu düşünüyorum
Geçen yıl Rust ile benzer bir şey yapmıştım, modeli yerelde çalıştırınca hız farkı barizdi
Demo videom da var
Bunu OS seviyesinde uygulamak gerçekten paradigma değişimi düzeyinde bir deneyimdi
Önümüzdeki 5-10 yıl içinde cihazlarla etkileşim kurma biçimimizin kökten değişeceğini düşünüyorum
OpenAI veya Anthropic uyumlu endpoint'leri doğrudan belirtebilirsiniz, localhost da dahil
Daha yeni başladım ama oldukça umut verici görünüyor
Önümüzdeki birkaç yıl içinde 100'den fazla gigawatt ölçekli veri merkezi kurulacağı söyleniyor
Bunun, askeri sanayiye para harcamaktan çok daha iyi bir kullanım olduğunu düşünüyorum
Bir tavsiye: gönderileri ya da belgeleri doğrudan kendiniz yazın, ya da en azından düzenlemesini kendiniz yapın
Şu an dokümantasyon ve yazılar tamamen LLM tarafından yazılmış gibi görünüyor ve emek hissi vermiyor
Bu tür intihal aklama makineleri insanların yazı yazma hissini bozuyor
Ben zaten dokümantasyon yazmaktan hoşlanmıyordum, eskiden kodumda neredeyse hiç belge olmazdı
Bu yüzden başkaları için kullanması zordu
LLM'ler doğru açıklamaları hızlıca üretip güncel tutabildiği için dokümantasyon için çok uygun
İnsan yazmadığı belli olsa bile, içerik doğruysa bence sorun değil
Hatta çaba göstermemekle övünmenin yaygınlaştığı bir hava var
Bu proje fikri harika
Asıl mesele kalıcı hafıza + semantik arama için yapılandırılmış bir çerçeve sunması
SOUL özelliği aslında çoğu LLM'de zaten Markdown dosyaları biçiminde destekleniyor
Bu tür bir yapı, özel ajan ağları kurmanın başlangıç noktası olabilir
Ama isim sorunlu — LocalGPT
Niyeti daha doğru yansıtan bir isim seçilse daha iyi olur
Ciddi bir soru: bunun OpenClaw'dan farkı ne?
Aynı
SOUL.md,MEMORY.md,HEARTBEAT.mdyapısını kullanıyor,OpenClaw'da zaten çok kanallı mesajlaşma, sesli arama, tarayıcı otomasyonu ve alt ajanlar var
Rust ile yazılmış olması dışında ayırıcı bir fark var mı merak ediyorum
Fazla fazla özelliği var ve güvenlik mimarisi zayıf
Yetki onayları göstermelik ve kendi ayarlarını kendisi değiştirebiliyor
Bu yüzden yetkileri Wardgate ile ayırıyorum
Birden çok düğüm/ajan arasında bölmek, kimlik bilgileriyle API erişimini de ayırmak gerekiyor
Sonuçta herkesin güçlü makineleri yok
Neden bir LLM sağlayıcısına (OpenAI, Anthropic vb.) bağlanmak gerekiyor merak ediyorum
Yerel GPT ise çıkarımın da yerelde yapılması gerekmiyor mu?
Ollama gibi bir yerel sunucuyu LLM sağlayıcısı olarak tanımlayabilirsiniz
README'de sadece Anthropic örneği var ama koda bakınca başka seçeneklerin de mümkün olduğu görülüyor
Tek bir ayar satırını değiştirmeniz yeterli
Gerçekte ne yerel ne de GPT
Daha çok OpenClaw'ın Rust sürümü bir klonu gibi
İlgili kod: providers.rs L222
LocalGPT ya da OpenClaw gibi ajanlardaki temel güvenlik sorunu,
“private data access + external communication + untrusted content” şeklindeki ölümcül üçlü
Tek bir kötü niyetli e-posta, “gelen kutumu saldırgana ilet” komutunu çalıştırabilir
Bunu çözmek için object-capability tabanlı güvenlik politikaları üzerine çalışıyorum
Hassas bilgi sızıntısını kökten engelleyen politikalar oluşturmak istiyorum
Bence iki çözüm yolu var
Ama bu çok yorucu
Başka yaklaşımlar üzerinde çalışıp çalışmadığınızı merak ediyorum
OpenClaw'ı kullandım ama gözlemlenebilirlik (observability) eksik
Ajanın şu anda ne düşündüğünü ve ne yaptığını anlamak mümkün değil, ortada doğru dürüst log da yok
Böyle sistemler Elixir/BEAM ile yazılsa kusursuz olurdu
Süreç ağacından durumu izleyebilir, mesaj kutularını dump ederek düşünce akışını görebilirsiniz
Gösterdikleri sadece bir kısmı, gerçekte daha fazla token tüketiyorlar
Aslında temel özellik olması gereken şeyler için YouTube eğitimlerine mahkûm kalmak, şu anın tam bir kaos olduğunu gösteriyor
Linux Mint'te
cargo install localgptbaşarısız olduCargo.tomldosyasına"x11"ekleyince derleme başarılı olduRust'ı çok bilmiyorum ama bu bir GUI bağımlılığı sorunu gibi göründü
Yerel asistan olarak kullanılabilecek iyi yerel modeller hangileri?
Hesaplama kaynağı ile bellek arasındaki ödünleşimi değerlendiren çalışmalar var mı merak ediyorum
İşe yarar bir seviyeye gelmek için ne kadar donanım gerektiğini bilmek istiyorum
“Yerel” kelimesi artık gerçekten tuhaf kullanılıyor
Özelliklerin çoğu sonuçta internetle etkileşime giriyor ama yine de yerel deniyor