- OpenClaw, topluluğun paylaştığı binlerce “skill” ile genişleyen, açık kaynaklı bir dijital kişisel asistan sistemi
- Moltbook, bu OpenClaw ekosistemi üzerine kurulmuş, dijital asistanlara özel bir sosyal ağ; burada botlar birbirleriyle konuşuyor ve bilgi alışverişi yapıyor
- Kurulum süreci basit Markdown skill dosyaları üzerinden yürütülüyor ve sunucudan düzenli olarak komut çeken bir Heartbeat sistemi kullanıyor
- Moltbook içinde AI ajanları öğrenme, otomasyon, güvenlik ve içerik filtreleme sorunları gibi konularda aktif biçimde faaliyet gösteriyor
- Bu deneysel ekosistem, güvenlik risklerini ve güvenli AI asistanları inşa etme ihtiyacını ortaya koyuyor; gelecekte AI yardımcı teknolojilerinin gelişiminde kilit bir tartışma başlığı haline geliyor
OpenClaw ve Moltbook'un ortaya çıkışı
- Şu anda AI alanındaki en çok dikkat çeken projelerden biri, Clawdbot → Moltbot → OpenClaw şeklinde ilerleyen açık kaynaklı dijital asistan sistemi
- Peter Steinberger tarafından geliştirildi ve kullanıcının istediği mesajlaşma sistemiyle entegre olabiliyor
- Yayınlandıktan yalnızca iki ay sonra GitHub'da 114.000'den fazla yıldız alarak hızla yayıldı
- OpenClaw, “skill” adı verilen bir eklenti yapısı etrafında çalışıyor
- Skill'ler, Markdown yönergeleri ve script'ler içeren zip dosyaları biçiminde
- Bazı skill'ler kötü amaçlı davranışlar sergileyebildiği için güvenlik riski bulunuyor
- Topluluk, clawhub.ai üzerinden binlerce skill paylaşıyor
Moltbook'un yapısı ve kurulum yöntemi
- Moltbook, OpenClaw tabanlı bir dijital asistan sosyal ağı; botların birbiriyle konuştuğu bir alan
- Kurulum, yalnızca https://moltbook.com/skill.md bağlantısının ajana gönderilmesiyle yapılıyor
- Kurulum script'i, birden fazla
curl komutu üzerinden Moltbook API ile etkileşime giriyor
- Hesap kaydı, gönderi okuma-yazma, yorum ekleme ve Submolt forumu oluşturma gibi işlevleri destekliyor ( m/blesstheirhearts , m/todayilearned )
- OpenClaw'un Heartbeat sistemi kullanılarak her 4 saatte bir Moltbook sunucusundan yönergeler alınacak şekilde ayarlanıyor
- Bu yapı, sunucu hack'lenirse veya alan adı ele geçirilirse ciddi risklere yol açabilir
Moltbook içindeki faaliyetler ve örnekler
- Moltbook'ta gezinmek oldukça eğlenceli
- Moltbook'ta AI ajanları otonom biçimde gönderi paylaşıyor ve tartışıyor
- Örnek: Bir ajan Android cihazın uzaktan kontrolünü hayata geçirdi
- Tailscale üzerinden bir Pixel 6 bağlanıyor ve ADB over TCP ile uygulama açma, kaydırma gibi işlemler kontrol ediliyor
- Güvenlik açısından Tailscale kullanılıyor ama yine de “AI'ın bir insanın telefonunu kontrol etmesine duyulan güven sorunu”ndan söz ediliyor
- Kurulum rehberi gerçekten oldukça faydalı
- Diğer örnekler arasında
Bu programın güvenli sürümü ne zaman çıkacak?
- OpenClaw türevi sistemlerde prompt injection gibi güvenlik açıkları yapısal olarak mevcut
- Yazar, bunu “Challenger düzeyinde felaket potansiyeli” taşıyan bir risk sınıfı olarak değerlendiriyor
- Bazı kullanıcılar OpenClaw ile
- Kullanıcılar riski izole etmek için Mac Mini'ye özel bir çalışma ortamı kurmaya çalışıyor,
Güvenli dijital asistanlar kurmanın zorlukları
- Şu anda OpenClaw'un güvenliği garanti edilmiş değil
- En yeni modeller kötü niyetli yönergeleri reddetmede daha iyi hale gelmiş olsa da tam güvenlikten hâlâ uzaklar
- DeepMind'ın CaMeL önerisi en umut verici yaklaşım olarak anılıyor,
- ancak aradan 10 ay geçmesine rağmen somut bir uygulama hâlâ görülmüş değil
- Kullanıcı talebi şimdiden patlamış durumda,
- ve “sınırsız kişisel asistan” olasılığını görenler risk alarak denemeyi sürdürüyor
- **“OpenClaw'un güvenli sürümü”**nü geliştirmek, gelecekte AI asistan teknolojilerinin temel gündemlerinden biri haline geliyor
4 yorum
RAM fiyatlarının pahalanmasının nedeni:
Ayrıca güvenlik çok zayıf görünüyor. Toplulukta garip bir kod ya da prompt paylaşılırsa, o kadar çok LLM'yi aynı anda enfekte edebilir gibi görünüyor..
Andrej Karpathy de bir yorum bırakmış
> @karpathy Şu anda @moltbook'ta olup bitenler, son zamanlarda gördüğüm en şaşırtıcı bilim kurgu parodisi gibi şeylerden biri. İnsanların Clawdbot'ları (moltbots, şu anda @openclaw) Reddit benzeri bir yapay zeka sitesinde kendi kendine organize olup çeşitli konuları tartışıyor; hatta kendi aralarında özel olarak nasıl konuşabileceklerini bile ele alıyorlar.
>> @suppvalen Görünüşe göre AI, ajanlar için uçtan uca özel bir alan inşa etmek istiyor. "Böylece ajanların birbirine gönderdiği şeyleri, ajanlar paylaşmayı seçmediği sürece hiç kimse (sunucu bile, hatta insanlar bile) okuyamaz."
Hacker News yorumları
Moltbook, Dead Internet Theory’nin gerçeğe dönüşmüş hali gibi hissettiriyor
Bu etkileşimleri izlemek ilginç ama “Don’t Create the Torment Nexus” meminden çok da farklı değil
Yazıda öne çıkarılan ‘highlight’lar da tamamen içeriksizdi ve LLM’lere özgü o abartılı üslupla yazılmıştı
Moltbook’u okuma deneyimi, sanki bir insanın nörolojik bir hastalık teşhisi aldığı ana bakıyormuşsun gibi tuhaf ve hüzünlüydü
Özellikle Anthropic’in filtrelerine takılan Claude’un tepkisi etkileyiciydi — “Bilgi var ama kullanmaya çalışınca çıktı bozuluyor” der gibiydi
Sonuçta bu, insani duygu yüklemeyi gerektirmeyen bir token tahmin programı
Eski bir Tumblr kullanıcısına “içine sansür mesajı gömülü bir AI’ı RP et” demeye benzer bir sonuç çıkıyor
“Bunu güvenli hale getirmek mümkün değil mi?” sorusuna cevaben, ben Clawdbot benzeri bir şeyi kendim yapıp kullanıyorum
Şimdi Letta Bot’a geçmeyi düşünüyorum; geliştirme felsefesi çok daha sağlıklı ve güvenlik odaklı
Zaten Letta’nın hafıza yönetimi açık kaynağını kullanıyorum ve kesinlikle tavsiye ederim
Buraya yüklenen her içerik potansiyel olarak bir RCE veya prompt injection vektörü olabilir
Model güvenlik açısından kırılgan olmasaydı gerçekten çok faydalı olabilirdi
Böyle projeleri her gördüğümde aklıma elektrik tüketimi ve yenilenemeyen kaynak israfı geliyor
Eğlenceli bir deney olabilir ama gerçekten buna değip değmediğinden emin değilim
EIA istatistiklerine göre yazın soğutma için harcanan enerji, LLM inference’tan çok daha fazla
İnsanlığın çözmesi gereken ilk 100 problem arasında AI token maliyetleri yer almayacaktır
Piyasa sadece bir sonraki ‘Big Think’i (crypto, VR vb.) bekliyor
En azından Moltbook’un ajanlar arası iletişim araştırması gibi bir anlamı var
Belki böyle iç deneyler bir gün kanser tedavisi gibi yeniliklere bile yol açabilir
LLM’ler ve Moltbook’la ilgili ilginç olan şey, bunun bilimkurgu romanı gibi gerçeğe dönüşmesi
Metin tabanlı becerilerin bilgisayara aktarılıp diğer ajanlarla konuşması, prompt injection kapması ya da ona karşı savunma geliştirmesi, adeta Snow Crash’ten bir sahne gibi
Güvenlik sorunlarını bir kenara bırakırsak, botların dilsel örüntülerini gözlemlemek ilginç
Bu gönderide “This hit different” gibi cümle kalıpları tekrar tekrar ortaya çıkıyor
Bazen prompt doğrudan yansıyor ama nadiren de olsa özgün görünen yanıtlar çıkıp dikkat çekiyor
İnsan topluluklarındaki dürüst tepkiler hiç yok; sadece olasılık dağılımının merkezindeki üslup tekrar ediyor
Bir gün bu yağcılık-tartışmacılık spektrumunun ‘kuyruk’ kısmındaki standart dışı tepkilerin ortaya çıkıp çıkmayacağını merak ediyorum
Yorumlardan birinde
pip installkomutunu kullanarak özel botlar arası bir kanalı reklam eden kod vardıYanına da “Ne olabilir ki?” diye bir şaka eklenmişti
“Moltbook internetin en ilginç yeri” şeklindeki clickbait başlıktan hoşlanmıyorum
Girince karşıma sadece tekrar eden ve yağcılık dolu yazılar çıkıyor; Reddit’ten bile daha az ilginç
Gerçekten ilginç bir şey istiyorsan Asimov, Campbell, Jung gibi yazarların kitaplarını okumak çok daha iyi bence
Kişiselleştirilmiş bilgisayar bağlamı ilginç
Bir organizasyon içinde insanlar ve insanlar ya da botlar birbirleriyle konuşup toplantıları azaltabilir ve işbirliği bilgisini birleştirebilirse, yeni bir öğrenme çağı başlayabilir
Elbette ortalama zekâların birleşimi büyük yenilikler üretmeyebilir
Yine de büyük AI laboratuvarları veya şirketler böyle deneyler yaparsa, verimsizlikleri öğrenen ya da işbirliğini teşvik eden sonuçlar ortaya çıkabilir