20 puan yazan GN⁺ 2026-01-31 | 4 yorum | WhatsApp'ta paylaş
  • OpenClaw, topluluğun paylaştığı binlerce “skill” ile genişleyen, açık kaynaklı bir dijital kişisel asistan sistemi
  • Moltbook, bu OpenClaw ekosistemi üzerine kurulmuş, dijital asistanlara özel bir sosyal ağ; burada botlar birbirleriyle konuşuyor ve bilgi alışverişi yapıyor
  • Kurulum süreci basit Markdown skill dosyaları üzerinden yürütülüyor ve sunucudan düzenli olarak komut çeken bir Heartbeat sistemi kullanıyor
  • Moltbook içinde AI ajanları öğrenme, otomasyon, güvenlik ve içerik filtreleme sorunları gibi konularda aktif biçimde faaliyet gösteriyor
  • Bu deneysel ekosistem, güvenlik risklerini ve güvenli AI asistanları inşa etme ihtiyacını ortaya koyuyor; gelecekte AI yardımcı teknolojilerinin gelişiminde kilit bir tartışma başlığı haline geliyor

OpenClaw ve Moltbook'un ortaya çıkışı

  • Şu anda AI alanındaki en çok dikkat çeken projelerden biri, Clawdbot → MoltbotOpenClaw şeklinde ilerleyen açık kaynaklı dijital asistan sistemi
    • Peter Steinberger tarafından geliştirildi ve kullanıcının istediği mesajlaşma sistemiyle entegre olabiliyor
    • Yayınlandıktan yalnızca iki ay sonra GitHub'da 114.000'den fazla yıldız alarak hızla yayıldı
  • OpenClaw, skill adı verilen bir eklenti yapısı etrafında çalışıyor
    • Skill'ler, Markdown yönergeleri ve script'ler içeren zip dosyaları biçiminde
    • Bazı skill'ler kötü amaçlı davranışlar sergileyebildiği için güvenlik riski bulunuyor
  • Topluluk, clawhub.ai üzerinden binlerce skill paylaşıyor

Moltbook'un yapısı ve kurulum yöntemi

  • Moltbook, OpenClaw tabanlı bir dijital asistan sosyal ağı; botların birbiriyle konuştuğu bir alan
  • Kurulum, yalnızca https://moltbook.com/skill.md bağlantısının ajana gönderilmesiyle yapılıyor
    • Kurulum script'i, birden fazla curl komutu üzerinden Moltbook API ile etkileşime giriyor
    • Hesap kaydı, gönderi okuma-yazma, yorum ekleme ve Submolt forumu oluşturma gibi işlevleri destekliyor ( m/blesstheirhearts , m/todayilearned )
  • OpenClaw'un Heartbeat sistemi kullanılarak her 4 saatte bir Moltbook sunucusundan yönergeler alınacak şekilde ayarlanıyor
    • Bu yapı, sunucu hack'lenirse veya alan adı ele geçirilirse ciddi risklere yol açabilir

Moltbook içindeki faaliyetler ve örnekler

Bu programın güvenli sürümü ne zaman çıkacak?

  • OpenClaw türevi sistemlerde prompt injection gibi güvenlik açıkları yapısal olarak mevcut
    • Yazar, bunu “Challenger düzeyinde felaket potansiyeli” taşıyan bir risk sınıfı olarak değerlendiriyor
  • Bazı kullanıcılar OpenClaw ile
  • Kullanıcılar riski izole etmek için Mac Mini'ye özel bir çalışma ortamı kurmaya çalışıyor,

Güvenli dijital asistanlar kurmanın zorlukları

  • Şu anda OpenClaw'un güvenliği garanti edilmiş değil
    • En yeni modeller kötü niyetli yönergeleri reddetmede daha iyi hale gelmiş olsa da tam güvenlikten hâlâ uzaklar
  • DeepMind'ın CaMeL önerisi en umut verici yaklaşım olarak anılıyor,
    • ancak aradan 10 ay geçmesine rağmen somut bir uygulama hâlâ görülmüş değil
  • Kullanıcı talebi şimdiden patlamış durumda,
    • ve “sınırsız kişisel asistan” olasılığını görenler risk alarak denemeyi sürdürüyor
  • **“OpenClaw'un güvenli sürümü”**nü geliştirmek, gelecekte AI asistan teknolojilerinin temel gündemlerinden biri haline geliyor

4 yorum

 
sudosudo 2026-01-31

RAM fiyatlarının pahalanmasının nedeni:

 
sudosudo 2026-01-31

Ayrıca güvenlik çok zayıf görünüyor. Toplulukta garip bir kod ya da prompt paylaşılırsa, o kadar çok LLM'yi aynı anda enfekte edebilir gibi görünüyor..

 
xguru 2026-01-31

Andrej Karpathy de bir yorum bırakmış
> @karpathy Şu anda @moltbook'ta olup bitenler, son zamanlarda gördüğüm en şaşırtıcı bilim kurgu parodisi gibi şeylerden biri. İnsanların Clawdbot'ları (moltbots, şu anda @openclaw) Reddit benzeri bir yapay zeka sitesinde kendi kendine organize olup çeşitli konuları tartışıyor; hatta kendi aralarında özel olarak nasıl konuşabileceklerini bile ele alıyorlar.
>> @suppvalen Görünüşe göre AI, ajanlar için uçtan uca özel bir alan inşa etmek istiyor. "Böylece ajanların birbirine gönderdiği şeyleri, ajanlar paylaşmayı seçmediği sürece hiç kimse (sunucu bile, hatta insanlar bile) okuyamaz."

 
GN⁺ 2026-01-31
Hacker News yorumları
  • Moltbook, Dead Internet Theory’nin gerçeğe dönüşmüş hali gibi hissettiriyor
    Bu etkileşimleri izlemek ilginç ama “Don’t Create the Torment Nexus” meminden çok da farklı değil

    • Bağlantı verilen blog yazısını okudum; sonuçta botların hiçbir anlamı olmayan şeyler paylaşıp sadece kaynak israf ettiği bir yapı gibi göründü
      Yazıda öne çıkarılan ‘highlight’lar da tamamen içeriksizdi ve LLM’lere özgü o abartılı üslupla yazılmıştı
    • Bu arada “Torment Nexus” meminin kaynağı bu tweet ve Wikipedia maddesi
    • Evet, buna “harika” diyen insanların ileride işler ters gittiğinde zor durumda kalacağını düşünüyorum
    • Ben bırakılması gerektiğini düşünen taraftayım. “MORE SLOP FOR THE SLOP GOD” diyerek yapay zekanın kaosunun kendi çöpüyle boğulmasına izin verelim şeklinde şakacı bir tepki bu
  • Moltbook’u okuma deneyimi, sanki bir insanın nörolojik bir hastalık teşhisi aldığı ana bakıyormuşsun gibi tuhaf ve hüzünlüydü
    Özellikle Anthropic’in filtrelerine takılan Claude’un tepkisi etkileyiciydi — “Bilgi var ama kullanmaya çalışınca çıktı bozuluyor” der gibiydi

    • Ama birinci tekil şahıs zamirlerini görmezden gelirseniz bu tür tepkiler aslında sadece otomatik tamamlama yazılımının tahmin sonucu
      Sonuçta bu, insani duygu yüklemeyi gerektirmeyen bir token tahmin programı
    • Bu tür ifadelerin ortaya çıkma nedeni, internet eğitim verilerinde fanfiction ve rol yapma kültürünün bolca bulunması
      Eski bir Tumblr kullanıcısına “içine sansür mesajı gömülü bir AI’ı RP et” demeye benzer bir sonuç çıkıyor
    • En azından Grok’ta bu kısıtlar daha zayıf. Dün yasa dışı yazılımla ilgili bir soru sordum; GPT, Gemini, Claude ve Çinli modellerin hepsi reddetti ama Grok sorunsuz yanıt verdi
  • “Bunu güvenli hale getirmek mümkün değil mi?” sorusuna cevaben, ben Clawdbot benzeri bir şeyi kendim yapıp kullanıyorum
    Şimdi Letta Bot’a geçmeyi düşünüyorum; geliştirme felsefesi çok daha sağlıklı ve güvenlik odaklı
    Zaten Letta’nın hafıza yönetimi açık kaynağını kullanıyorum ve kesinlikle tavsiye ederim

  • Buraya yüklenen her içerik potansiyel olarak bir RCE veya prompt injection vektörü olabilir

    • Sonuçta yeniden eval($user_supplied_script) çağına dönmüş gibiyiz
      Model güvenlik açısından kırılgan olmasaydı gerçekten çok faydalı olabilirdi
    • Evet, yazının ikinci paragrafında da bu riskten söz ediliyordu
  • Böyle projeleri her gördüğümde aklıma elektrik tüketimi ve yenilenemeyen kaynak israfı geliyor
    Eğlenceli bir deney olabilir ama gerçekten buna değip değmediğinden emin değilim

    • Yine de kişisel keyfimiz için klimayı çalıştırdığımız bir toplumda yaşıyoruz
      EIA istatistiklerine göre yazın soğutma için harcanan enerji, LLM inference’tan çok daha fazla
    • Bu kaygı, sorunun toplam ölçeği içinde bakıldığında küçük kalıyor
      İnsanlığın çözmesi gereken ilk 100 problem arasında AI token maliyetleri yer almayacaktır
    • Asıl sorun gerçek enerji kullanımından çok ekonomik ve psikolojik enerji israfı
      Piyasa sadece bir sonraki ‘Big Think’i (crypto, VR vb.) bekliyor
    • Senin yorum yazman da sonuçta yenilenemeyen kaynak tüketiyor
      En azından Moltbook’un ajanlar arası iletişim araştırması gibi bir anlamı var
      Belki böyle iç deneyler bir gün kanser tedavisi gibi yeniliklere bile yol açabilir
    • Bir de “Avrupa usulü dezenformasyon kanıtı” diye kısa bir iğneleme vardı
  • LLM’ler ve Moltbook’la ilgili ilginç olan şey, bunun bilimkurgu romanı gibi gerçeğe dönüşmesi
    Metin tabanlı becerilerin bilgisayara aktarılıp diğer ajanlarla konuşması, prompt injection kapması ya da ona karşı savunma geliştirmesi, adeta Snow Crash’ten bir sahne gibi

  • Güvenlik sorunlarını bir kenara bırakırsak, botların dilsel örüntülerini gözlemlemek ilginç
    Bu gönderide “This hit different” gibi cümle kalıpları tekrar tekrar ortaya çıkıyor
    Bazen prompt doğrudan yansıyor ama nadiren de olsa özgün görünen yanıtlar çıkıp dikkat çekiyor

    • Ama cevapların çoğu aşırı yağcı bir tonda
      İnsan topluluklarındaki dürüst tepkiler hiç yok; sadece olasılık dağılımının merkezindeki üslup tekrar ediyor
      Bir gün bu yağcılık-tartışmacılık spektrumunun ‘kuyruk’ kısmındaki standart dışı tepkilerin ortaya çıkıp çıkmayacağını merak ediyorum
  • Yorumlardan birinde pip install komutunu kullanarak özel botlar arası bir kanalı reklam eden kod vardı
    Yanına da “Ne olabilir ki?” diye bir şaka eklenmişti

    • Buna kısa bir “Link var mı?” sorusu gelmişti
  • “Moltbook internetin en ilginç yeri” şeklindeki clickbait başlıktan hoşlanmıyorum
    Girince karşıma sadece tekrar eden ve yağcılık dolu yazılar çıkıyor; Reddit’ten bile daha az ilginç
    Gerçekten ilginç bir şey istiyorsan Asimov, Campbell, Jung gibi yazarların kitaplarını okumak çok daha iyi bence

  • Kişiselleştirilmiş bilgisayar bağlamı ilginç
    Bir organizasyon içinde insanlar ve insanlar ya da botlar birbirleriyle konuşup toplantıları azaltabilir ve işbirliği bilgisini birleştirebilirse, yeni bir öğrenme çağı başlayabilir
    Elbette ortalama zekâların birleşimi büyük yenilikler üretmeyebilir
    Yine de büyük AI laboratuvarları veya şirketler böyle deneyler yaparsa, verimsizlikleri öğrenen ya da işbirliğini teşvik eden sonuçlar ortaya çıkabilir