2 puan yazan GN⁺ 2026-02-09 | 1 yorum | WhatsApp'ta paylaş
  • Rust ile geliştirilen yerelde çalışan bir yapay zeka asistanı olup, internet bağlantısı olmadan kişisel cihazda tamamen çalışır ve veriler dışarı aktarılmaz
  • Tek çalıştırılabilir dosya yapısı sayesinde Node.js, Docker veya Python kurulumu olmadan çalıştırılabilir; yaklaşık 27 MB boyutunda hafif bir binary olarak sunulur
  • Kalıcı bellek sistemi, Markdown tabanlı bilgi deposu ile SQLite FTS5 ve semantic search üzerinden uzun süreli hafıza ve arama işlevleri sağlar
  • CLI, web UI ve masaüstü GUI desteği sunar; OpenAI, Anthropic, Ollama gibi birden fazla LLM sağlayıcısıyla uyumludur
  • OpenClaw formatıyla uyumlu olduğundan SOUL, MEMORY ve HEARTBEAT dosyalarını kullanarak otonom görevler yürütebilir

Genel Bakış

  • LocalGPT, yerel cihaz odaklı bir yapay zeka asistanı olup kalıcı bellek ve otonom görev yeteneklerine sahip, Rust tabanlı bir uygulamadır
    • Harici sunuculara bağımlı olmadan kişisel cihazda tamamen çalışır
    • OpenClaw projesinden ilham alır ve uyumluluğu korur
  • Kurulum cargo install localgpt komutuyla yapılabilir; GUI dahil ya da headless modda tercih edilebilir

Başlıca Özellikler

  • Tek binary yapısı sayesinde Node.js, Docker ve Python gerekmez
  • Yerel veri koruma: Tüm bellek ve ayarlar kullanıcının cihazında saklanır
  • Kalıcı bellek: Markdown dosyaları tabanlı bir bilgi deposu kullanır; SQLite FTS5 ve sqlite-vec ile hızlı arama ve anlamsal arama desteği sunar
  • Otonom heartbeat özelliğiyle arka planda görevler çalıştırabilir
  • Çeşitli arayüzler: CLI, web UI ve masaüstü GUI sağlar
  • Birden fazla LLM desteği: Anthropic (Claude), OpenAI, Ollama ve diğerleriyle entegre olabilir

Nasıl Çalışır

  • Bellek ~/.localgpt/workspace/ dizininde saklanır ve ana dosya yapısı şöyledir
    • MEMORY.md: uzun vadeli bilgi depolama
    • HEARTBEAT.md: otonom görev kuyruğu
    • SOUL.md: kişilik ve davranış yönergeleri
    • knowledge/: konu bazlı yapılandırılmış bilgi deposu
  • Anahtar kelime araması için SQLite FTS5, yerel embedding tabanlı anlamsal arama için sqlite-vec kullanılır

Yapılandırma ve CLI Komutları

  • Yapılandırma dosyası ~/.localgpt/config.toml içinde saklanır; varsayılan model, API anahtarı, heartbeat aralığı ve çalışma saatleri gibi ayarlar burada belirlenir
  • Başlıca CLI komutları
    • localgpt chat: konuşma oturumu başlatır
    • localgpt ask "질문": tek seferlik sorgu çalıştırır
    • localgpt daemon start: arka plan daemon’unu başlatır
    • localgpt memory search "query": bellekte arama yapar
    • localgpt config init: varsayılan yapılandırmayı oluşturur

HTTP API

  • Daemon çalıştığında bir REST API sunulur
    • GET /health: durum kontrolü
    • POST /api/chat: sohbet isteği
    • GET /api/memory/search?q=<query>: bellek araması
    • GET /api/memory/stats: bellek istatistiklerini görüntüler

Teknoloji Yığını

  • Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed, eframe tabanlıdır
  • Apache-2.0 lisansı altında yayımlanmıştır ve kodun yaklaşık %93’ü Rust ile yazılmıştır

Diğer Bilgiler

  • GitHub’da yaklaşık 646 yıldız ve 39 fork bulunuyor
  • “Why I Built LocalGPT in 4 Nights” başlıklı blog yazısında geliştirme süreci ve commit bazlı ayrıntılar paylaşılmıştır
  • Başlıca katkı sağlayanların Yi Wang, Claude, objectkit ve Ax73 dahil 4 kişi olduğu görülüyor

1 yorum

 
GN⁺ 2026-02-09
Hacker News yorumları
  • 2026'da böyle bir şey görüyor olmak gerçekten siberpunk hissettiriyor
    MEMORY.md, HEARTBEAT.md, SOUL.md gibi yapıların olması çok ilgi çekici
    Ama ANTHROPIC_API_KEY'e bağımlı olduğu için buna “local-first” demek biraz tartışmalı
    Yine de uzun vadede geleceğin local-first olduğunu düşünüyorum
    Geçen yıl Rust ile benzer bir şey yapmıştım, modeli yerelde çalıştırınca hız farkı barizdi
    Demo videom da var
    Bunu OS seviyesinde uygulamak gerçekten paradigma değişimi düzeyinde bir deneyimdi
    Önümüzdeki 5-10 yıl içinde cihazlarla etkileşim kurma biçimimizin kökten değişeceğini düşünüyorum

    • Bu local-first değil, adı yanlış gibi duruyor
    • Üçüncü taraf bir LLM kullanmak zorunlu değil
      OpenAI veya Anthropic uyumlu endpoint'leri doğrudan belirtebilirsiniz, localhost da dahil
    • İlgili kod: providers.rs L222
    • Ben de LAN üzerinde OpenClaw ve Qwen3 Coder Next'i local-first şekilde çalıştırmayı deniyorum
      Daha yeni başladım ama oldukça umut verici görünüyor
    • Yapay zekayı sevip sevmemekten bağımsız olarak, şu anki yatırım ölçeği bizim neslin Apollo programı gibi
      Önümüzdeki birkaç yıl içinde 100'den fazla gigawatt ölçekli veri merkezi kurulacağı söyleniyor
      Bunun, askeri sanayiye para harcamaktan çok daha iyi bir kullanım olduğunu düşünüyorum
  • Bir tavsiye: gönderileri ya da belgeleri doğrudan kendiniz yazın, ya da en azından düzenlemesini kendiniz yapın
    Şu an dokümantasyon ve yazılar tamamen LLM tarafından yazılmış gibi görünüyor ve emek hissi vermiyor

    • Artık birkaç cümleden uzun bir şey yazmaktan vazgeçen çok insan var
      Bu tür intihal aklama makineleri insanların yazı yazma hissini bozuyor
    • Katılıyorum, belgeleri kendin yazınca iş daha eğlenceli bile oluyor
    • Karşı çıkanlar da var
      Ben zaten dokümantasyon yazmaktan hoşlanmıyordum, eskiden kodumda neredeyse hiç belge olmazdı
      Bu yüzden başkaları için kullanması zordu
      LLM'ler doğru açıklamaları hızlıca üretip güncel tutabildiği için dokümantasyon için çok uygun
      İnsan yazmadığı belli olsa bile, içerik doğruysa bence sorun değil
    • Keşke bu tür düşük kaliteli gönderileri engelleyen bir caydırıcı olsa ama gerçekte öyle değil
      Hatta çaba göstermemekle övünmenin yaygınlaştığı bir hava var
  • Bu proje fikri harika
    Asıl mesele kalıcı hafıza + semantik arama için yapılandırılmış bir çerçeve sunması
    SOUL özelliği aslında çoğu LLM'de zaten Markdown dosyaları biçiminde destekleniyor
    Bu tür bir yapı, özel ajan ağları kurmanın başlangıç noktası olabilir
    Ama isim sorunlu — LocalGPT

    1. yerel değil,
    2. GPT modeli de değil
      Niyeti daha doğru yansıtan bir isim seçilse daha iyi olur
  • Ciddi bir soru: bunun OpenClaw'dan farkı ne?
    Aynı SOUL.md, MEMORY.md, HEARTBEAT.md yapısını kullanıyor,
    OpenClaw'da zaten çok kanallı mesajlaşma, sesli arama, tarayıcı otomasyonu ve alt ajanlar var
    Rust ile yazılmış olması dışında ayırıcı bir fark var mı merak ediyorum

    • Ben dahil birçok insan OpenClaw'dan çekiniyor
      Fazla fazla özelliği var ve güvenlik mimarisi zayıf
      Yetki onayları göstermelik ve kendi ayarlarını kendisi değiştirebiliyor
      Bu yüzden yetkileri Wardgate ile ayırıyorum
      Birden çok düğüm/ajan arasında bölmek, kimlik bilgileriyle API erişimini de ayırmak gerekiyor
    • Bu daha çok vibe coding için statik site üreticisi gibi duruyor
    • Küçük olması ve Node tabanlı olmaması bir avantaj
      Sonuçta herkesin güçlü makineleri yok
  • Neden bir LLM sağlayıcısına (OpenAI, Anthropic vb.) bağlanmak gerekiyor merak ediyorum
    Yerel GPT ise çıkarımın da yerelde yapılması gerekmiyor mu?

    • Dış servislere bağlanmak zorunlu değil
      Ollama gibi bir yerel sunucuyu LLM sağlayıcısı olarak tanımlayabilirsiniz
      README'de sadece Anthropic örneği var ama koda bakınca başka seçeneklerin de mümkün olduğu görülüyor
      Tek bir ayar satırını değiştirmeniz yeterli
    • Emek güzel ama isim yanıltıcı
      Gerçekte ne yerel ne de GPT
      Daha çok OpenClaw'ın Rust sürümü bir klonu gibi
    • Yerel yapılandırma yoksa çevrimiçi sağlayıcıya otomatik fallback yapıyor
      İlgili kod: providers.rs L222
    • Zorunlu değil
  • LocalGPT ya da OpenClaw gibi ajanlardaki temel güvenlik sorunu,
    “private data access + external communication + untrusted content” şeklindeki ölümcül üçlü
    Tek bir kötü niyetli e-posta, “gelen kutumu saldırgana ilet” komutunu çalıştırabilir
    Bunu çözmek için object-capability tabanlı güvenlik politikaları üzerine çalışıyorum
    Hassas bilgi sızıntısını kökten engelleyen politikalar oluşturmak istiyorum

    • Bu ölümcül üçlü, şu anda bu alanın en acil problemi
      Bence iki çözüm yolu var
      1. Tüm dış aktarımı manuel onayla sınırlamak (OTP vb.)
        Ama bu çok yorucu
      2. Tasarım aşamasında bu üçlüden tamamen kaçınmak — örneğin dış iletişimi engellenmiş iki faktörlü ajanlar
        Başka yaklaşımlar üzerinde çalışıp çalışmadığınızı merak ediyorum
  • OpenClaw'ı kullandım ama gözlemlenebilirlik (observability) eksik
    Ajanın şu anda ne düşündüğünü ve ne yaptığını anlamak mümkün değil, ortada doğru dürüst log da yok
    Böyle sistemler Elixir/BEAM ile yazılsa kusursuz olurdu
    Süreç ağacından durumu izleyebilir, mesaj kutularını dump ederek düşünce akışını görebilirsiniz

    • lemon projesi tam olarak buna benziyor
    • GPT veya Claude gibi modeller iç düşünceyi bilerek gizliyor
      Gösterdikleri sadece bir kısmı, gerçekte daha fazla token tüketiyorlar
    • Güzel fikir, bence doğrudan yapmalısınız
    • Ben de gözlemlenebilirlik eksikliğine katılıyorum
      Aslında temel özellik olması gereken şeyler için YouTube eğitimlerine mahkûm kalmak, şu anın tam bir kaos olduğunu gösteriyor
  • Linux Mint'te cargo install localgpt başarısız oldu
    Cargo.toml dosyasına "x11" ekleyince derleme başarılı oldu
    Rust'ı çok bilmiyorum ama bu bir GUI bağımlılığı sorunu gibi göründü

  • Yerel asistan olarak kullanılabilecek iyi yerel modeller hangileri?
    Hesaplama kaynağı ile bellek arasındaki ödünleşimi değerlendiren çalışmalar var mı merak ediyorum
    İşe yarar bir seviyeye gelmek için ne kadar donanım gerektiğini bilmek istiyorum

  • “Yerel” kelimesi artık gerçekten tuhaf kullanılıyor
    Özelliklerin çoğu sonuçta internetle etkileşime giriyor ama yine de yerel deniyor