Güvenlik açıklarını bulan teknolojide de çığır açıcı bir ilerleme olduğu söyleniyor.
Bu açıkların bulunduğu anlamına geldiğine göre, onları güvenceye alacak yöntemlere duyulan ihtiyaç da ortaya çıkmış oldu.
Bu yüzden güvenlik yöntemlerinin de geliştirileceği görülüyor.

 

Claude Code'un kronik sorunu; görünüşe göre bunu hiç yaşamamışsınız. Reddit'te de sürekli ortalık karışıyor.

 

Benim için daha iyi deneyim codex oldu.

 

OpenBMB'yi nereden duydum diye düşünüyordum; meğerse MiniCPM-o modelini yapan yermiş.
MiniCPM-o modeli GPT 4o gibi omni bir model ve performansı gerçekten oldukça iyiydi.

MiniCPM-o demo videosuna bir göz atın,

Oldukça memnun kaldığım bir modeldi, bu yüzden yeni ses klonlama modelinden de beklentim yüksek.

 

Fiyatı bedava olup güvenliği de iyiyse sorgusuz kullanırız tabii haha

Böyle şeyleri görünce devops’un da hangi yöne evrileceğine dair kabaca bir fikir oluşuyor

 

Hangisi olursa olsun HITL gerekiyor. (En azından bugün itibarıyla)
Lütfen Ralph Loop falan gibi şeyler söylemeyin.

 

Yani zaten... GitHub'da OPENAI_API_KEY diye aratsanız bile bir sürü şey hemen çıkıyor...

 

Hah, anladım. O zaman ben sadece statikle yetineceğim, haha

 

Hangi telekom operatörünü kullanıyorsunuz da portları kapatmışlar?

 

Tersi değil mi? Kıdemli sandığımdan daha yetersizmiş.

 

Gerçekte kullanınca insanı kanser edecekmiş gibi.

 
cafedead 16 일 전 | üst yorum | konuda: Linux çekirdeği 7.0 resmen yayımlandı (9to5linux.com/linux-kernel-7-0-officially-released-this-is-whats-new)
 

Mesh denince Tailscale’e benzer bir şey mi acaba diye düşündüm ama biraz farklıymış.
Tailscale gibi P2P bir yöntem değil; CF edge ağını üzerinden geçen bir yapı olduğu için
Gateway politikaları ya da DLP gibi güvenlik özellikleri otomatik uygulanıyor,
Workers/Agents SDK’de fetch() tek satırıyla private servislere çağrı yapılabilmesi de ayırt edici noktası.
Ben yine Tailscale kullanırım..

 

Codex masaüstü uygulamasının kalitesi iyi olduğu için bir süredir sadece Codex kullanıyordum ama görünüşe göre Claude Code’u da yeniden denemem gerekecek.

 

Microsoft QnA sitesine de girip sonra geri tuşuna basınca sonsuz döngüye giriyor; keşke böyle siteleri artık düzeltseler.

Yönlendirme olsun ya da olmasın, kullanıcı açısından geri tuşuna basınca sayfadan çıkabilmek gerekir.
Böyle sitelerde ise her zaman geri tuşunu basılı tutup 2 seviye veya daha fazla geri gitmek gerekiyor.

 

Muhtemelen bunu alabilmek için, diğer cihazlarda yoğun kullanım olmadığını ve oyun ya da indirme gibi işlemlerin kullanılmadığını kanıtlamak gerekecek şekilde değişecek.

 

https://x.com/dani_avila7/status/2044136770992791778

Birkaç hafta boyunca önceden kullanmış birinin öne çıkardığı özellikler

  • panel oluşturup ajanları aynı anda çalıştırabilme
  • oturumları sabitleyip sürükle-bırak ile sıralarını düzenleyebilme
  • PR içinden doğrudan oturum başlatabilme
  • önizleme, pull request diff'i, görevler, planlar ve ayrı terminal gibi şeylerin hepsini panel olarak açabilme
    Genel olarak, ajan çalıştırmaya optimize edilmiş geliştirici odaklı bir tasarım olduğu söylenerek övülüyor
 

ollama ile yerel LLM kurulumunu yapmak kolay, ancak açık kaynak modellerde araç çağrılarının modelden modele sık sık başarısız olabildiği söyleniyor. Bunun nedeni, ollama içinde gevşek kurallar ile modele özgü araç çağrısı parser sorunlarının iç içe geçmiş olmasıymış.
Asıl mesele ise Local LLM’in en temel sorununun, orta-büyük ölçekli modelleri çalıştırmak için pahalı donanım gerektirmesi olması. 32GB’lık Mac Studio yaklaşık 3 milyon ortası won, GB10 ise yaklaşık 5~6 milyon won seviyesinde olduğundan, bireylerin hobi(?) için satın alması kolay değil. Küçük modeller için Local LLM kullanılabilir, ancak orta-büyük modeller için Cloud dışında pek seçenek yok.

 

Ah sonunda!!! Böyle şeyler yapan medya kuruluşlarının hepsi ağır ceza almalı.