Güvenlik açıklarını bulan teknolojide de çığır açıcı bir ilerleme olduğu söyleniyor.
Bu açıkların bulunduğu anlamına geldiğine göre, onları güvenceye alacak yöntemlere duyulan ihtiyaç da ortaya çıkmış oldu.
Bu yüzden güvenlik yöntemlerinin de geliştirileceği görülüyor.
OpenBMB'yi nereden duydum diye düşünüyordum; meğerse MiniCPM-o modelini yapan yermiş.
MiniCPM-o modeli GPT 4o gibi omni bir model ve performansı gerçekten oldukça iyiydi.
Mesh denince Tailscale’e benzer bir şey mi acaba diye düşündüm ama biraz farklıymış.
Tailscale gibi P2P bir yöntem değil; CF edge ağını üzerinden geçen bir yapı olduğu için
Gateway politikaları ya da DLP gibi güvenlik özellikleri otomatik uygulanıyor,
Workers/Agents SDK’de fetch() tek satırıyla private servislere çağrı yapılabilmesi de ayırt edici noktası.
Ben yine Tailscale kullanırım..
Codex masaüstü uygulamasının kalitesi iyi olduğu için bir süredir sadece Codex kullanıyordum ama görünüşe göre Claude Code’u da yeniden denemem gerekecek.
Microsoft QnA sitesine de girip sonra geri tuşuna basınca sonsuz döngüye giriyor; keşke böyle siteleri artık düzeltseler.
Yönlendirme olsun ya da olmasın, kullanıcı açısından geri tuşuna basınca sayfadan çıkabilmek gerekir.
Böyle sitelerde ise her zaman geri tuşunu basılı tutup 2 seviye veya daha fazla geri gitmek gerekiyor.
Muhtemelen bunu alabilmek için, diğer cihazlarda yoğun kullanım olmadığını ve oyun ya da indirme gibi işlemlerin kullanılmadığını kanıtlamak gerekecek şekilde değişecek.
Birkaç hafta boyunca önceden kullanmış birinin öne çıkardığı özellikler
panel oluşturup ajanları aynı anda çalıştırabilme
oturumları sabitleyip sürükle-bırak ile sıralarını düzenleyebilme
PR içinden doğrudan oturum başlatabilme
önizleme, pull request diff'i, görevler, planlar ve ayrı terminal gibi şeylerin hepsini panel olarak açabilme
Genel olarak, ajan çalıştırmaya optimize edilmiş geliştirici odaklı bir tasarım olduğu söylenerek övülüyor
ollama ile yerel LLM kurulumunu yapmak kolay, ancak açık kaynak modellerde araç çağrılarının modelden modele sık sık başarısız olabildiği söyleniyor. Bunun nedeni, ollama içinde gevşek kurallar ile modele özgü araç çağrısı parser sorunlarının iç içe geçmiş olmasıymış.
Asıl mesele ise Local LLM’in en temel sorununun, orta-büyük ölçekli modelleri çalıştırmak için pahalı donanım gerektirmesi olması. 32GB’lık Mac Studio yaklaşık 3 milyon ortası won, GB10 ise yaklaşık 5~6 milyon won seviyesinde olduğundan, bireylerin hobi(?) için satın alması kolay değil. Küçük modeller için Local LLM kullanılabilir, ancak orta-büyük modeller için Cloud dışında pek seçenek yok.
Güvenlik açıklarını bulan teknolojide de çığır açıcı bir ilerleme olduğu söyleniyor.
Bu açıkların bulunduğu anlamına geldiğine göre, onları güvenceye alacak yöntemlere duyulan ihtiyaç da ortaya çıkmış oldu.
Bu yüzden güvenlik yöntemlerinin de geliştirileceği görülüyor.
Claude Code'un kronik sorunu; görünüşe göre bunu hiç yaşamamışsınız. Reddit'te de sürekli ortalık karışıyor.Benim için daha iyi deneyim
codexoldu.OpenBMB'yi nereden duydum diye düşünüyordum; meğerse MiniCPM-o modelini yapan yermiş.
MiniCPM-o modeli GPT 4o gibi omni bir model ve performansı gerçekten oldukça iyiydi.
MiniCPM-o demo videosuna bir göz atın,
Oldukça memnun kaldığım bir modeldi, bu yüzden yeni ses klonlama modelinden de beklentim yüksek.
Fiyatı bedava olup güvenliği de iyiyse sorgusuz kullanırız tabii haha
Böyle şeyleri görünce devops’un da hangi yöne evrileceğine dair kabaca bir fikir oluşuyor
Efsane...
Hangisi olursa olsun HITL gerekiyor. (En azından bugün itibarıyla)
Lütfen Ralph Loop falan gibi şeyler söylemeyin.
Yani zaten... GitHub'da
OPENAI_API_KEYdiye aratsanız bile bir sürü şey hemen çıkıyor...Hah, anladım. O zaman ben sadece statikle yetineceğim, haha
Hangi telekom operatörünü kullanıyorsunuz da portları kapatmışlar?
Tersi değil mi? Kıdemli sandığımdan daha yetersizmiş.
Gerçekte kullanınca insanı kanser edecekmiş gibi.
AWS mühendisi, Linux 7.0'da PostgreSQL performansının yarıya düştüğünü bildirdi – düzeltmesi kolay olmayabilir
Bu kısım endişe verici görünüyor
Mesh denince Tailscale’e benzer bir şey mi acaba diye düşündüm ama biraz farklıymış.
Tailscale gibi P2P bir yöntem değil; CF edge ağını üzerinden geçen bir yapı olduğu için
Gateway politikaları ya da DLP gibi güvenlik özellikleri otomatik uygulanıyor,
Workers/Agents SDK’de
fetch()tek satırıyla private servislere çağrı yapılabilmesi de ayırt edici noktası.Ben yine Tailscale kullanırım..
Codex masaüstü uygulamasının kalitesi iyi olduğu için bir süredir sadece Codex kullanıyordum ama görünüşe göre Claude Code’u da yeniden denemem gerekecek.
Microsoft QnA sitesine de girip sonra geri tuşuna basınca sonsuz döngüye giriyor; keşke böyle siteleri artık düzeltseler.
Yönlendirme olsun ya da olmasın, kullanıcı açısından geri tuşuna basınca sayfadan çıkabilmek gerekir.
Böyle sitelerde ise her zaman geri tuşunu basılı tutup 2 seviye veya daha fazla geri gitmek gerekiyor.
Muhtemelen bunu alabilmek için, diğer cihazlarda yoğun kullanım olmadığını ve oyun ya da indirme gibi işlemlerin kullanılmadığını kanıtlamak gerekecek şekilde değişecek.
https://x.com/dani_avila7/status/2044136770992791778
Birkaç hafta boyunca önceden kullanmış birinin öne çıkardığı özellikler
Genel olarak, ajan çalıştırmaya optimize edilmiş geliştirici odaklı bir tasarım olduğu söylenerek övülüyor
ollamaile yerel LLM kurulumunu yapmak kolay, ancak açık kaynak modellerde araç çağrılarının modelden modele sık sık başarısız olabildiği söyleniyor. Bunun nedeni,ollamaiçinde gevşek kurallar ile modele özgü araç çağrısı parser sorunlarının iç içe geçmiş olmasıymış.Asıl mesele ise Local LLM’in en temel sorununun, orta-büyük ölçekli modelleri çalıştırmak için pahalı donanım gerektirmesi olması. 32GB’lık Mac Studio yaklaşık 3 milyon ortası won, GB10 ise yaklaşık 5~6 milyon won seviyesinde olduğundan, bireylerin hobi(?) için satın alması kolay değil. Küçük modeller için Local LLM kullanılabilir, ancak orta-büyük modeller için Cloud dışında pek seçenek yok.
Ah sonunda!!! Böyle şeyler yapan medya kuruluşlarının hepsi ağır ceza almalı.