RTX Pro 6000 (96GB, fiilen 94GB) sahibiyim ama 122B modeli ollama ile yükleyemiyorum. Görsel bir model olduğu için sanırım içindeki vision transformer bölümünden kaynaklanıyor. GPT OSS 120b modeli ise gayet rahat yükleniyor.
Teşekkür ederim. Sadece PC’yi açık bırakınca sunucu rolüne kadar üstlenen cowork ortaya çıktığı için korkmuştum ama biraz içim rahatladı ve bundan sonra nasıl değişeceğini kafamda canlandırabiliyorum haha
Artık EADDRINUSE hatasına bay bay mı?
Bu aralar ajanlarla oradan buradan bir sürü şey geliştirip durunca her şeyi rastgele ayağa kaldırıyorlar, sonra da kendi aralarında çakışıp ortalık karışıyor haha
Ama modelin kendisi birkaç ay içinde değişiyor
ve modele göre agent’ları güncellemek gerekiyor...
Uygun bir agent yapısı oluşturmaya harcanan zamandan daha hızlı değişen şey modelin kendisi değil mi?
İnsan araca alışamadan araç değişip gidiyor yani...
Tamamen geliştirici olmayan biriyim ama... sadece yapay zekayla oynamanın keyfiyle biraz kod yazdırıyorum; ben istemediğim halde bir sürü test kodu üretip saklıyordu, meğer bunun böyle bir sebebi varmış.
Buna niye ihtiyaç olduğunu sorduğumda, kod yazarken kendisine gerekli olduğunu, o yüzden silmememi söyledi.
Gemini de engellendi. Claude da engellenmiş.
Ama API’yi para ödeyip kullanırsanız sorun olmuyor.
Yabancıların, OAuth ile üçüncü taraflarda kimlik doğrulayıp ucuz abonelik ücretiyle daha ucuza kullanmanın sorun olmayacağını düşünmesini anlayamıyorum.
İnsanlar da rastgele seçim yapmakta pek iyi değildir. Ortada bir desen olmaması gerekir, ama deseni bilinçli olarak kaçınmak da başlı başına bir desen sayılabilir.
Gerçek token kullanımına dair tek bir görev için ölçülmüş sonuç yok; sadece magpie kullanılırsa yeniden denemelerin bu kadar azalacağı yönünde bir tahmin gibi görünüyor.
Bununla ilgili içeriğin zaman çizelgesi şeklinde düzenlenmesi gerekiyor gibi görünüyor. OpenAI tarafında sözleşme görüşmelerinin sürdüğüne dair iddialar da var, değil mi?
Vay be haha
Aynen.. görsel encoder kullanıldığında 1B model bile 9G VRAM tüketiyordu.
Sam Altman'ın sosyopat bir sürüngen olabileceğini düşünüyorum.
"Ellerinle fiziksel nesneler üretme eylemi, içsel bir dönüşüm getirir"
RTX Pro 6000 (96GB, fiilen 94GB) sahibiyim ama 122B modeli
ollamaile yükleyemiyorum. Görsel bir model olduğu için sanırım içindeki vision transformer bölümünden kaynaklanıyor. GPT OSS 120b modeli ise gayet rahat yükleniyor.Performans alabilmek için bunu CUDA tabanlı
llama.cppsunucusuyla çalıştırmanız gerekiyor.Teşekkür ederim. Sadece PC’yi açık bırakınca sunucu rolüne kadar üstlenen cowork ortaya çıktığı için korkmuştum ama biraz içim rahatladı ve bundan sonra nasıl değişeceğini kafamda canlandırabiliyorum haha
X'te konuşuluyordu; Docker'da kullanılıyorsa Docker daemon PID'si zorla verilirse onun da çalıştığı söyleniyor.
https://github.com/vercel-labs/portless/issues/61
Faydalı bir yazı olmuş.
Artık EADDRINUSE hatasına bay bay mı?
Bu aralar ajanlarla oradan buradan bir sürü şey geliştirip durunca her şeyi rastgele ayağa kaldırıyorlar, sonra da kendi aralarında çakışıp ortalık karışıyor haha
Ama modelin kendisi birkaç ay içinde değişiyor
ve modele göre agent’ları güncellemek gerekiyor...
Uygun bir agent yapısı oluşturmaya harcanan zamandan daha hızlı değişen şey modelin kendisi değil mi?
İnsan araca alışamadan araç değişip gidiyor yani...
Tamamen geliştirici olmayan biriyim ama... sadece yapay zekayla oynamanın keyfiyle biraz kod yazdırıyorum; ben istemediğim halde bir sürü test kodu üretip saklıyordu, meğer bunun böyle bir sebebi varmış.
Buna niye ihtiyaç olduğunu sorduğumda, kod yazarken kendisine gerekli olduğunu, o yüzden silmememi söyledi.
Gemini de engellendi. Claude da engellenmiş.
Ama API’yi para ödeyip kullanırsanız sorun olmuyor.
Yabancıların, OAuth ile üçüncü taraflarda kimlik doğrulayıp ucuz abonelik ücretiyle daha ucuza kullanmanın sorun olmayacağını düşünmesini anlayamıyorum.
Oh... bence de doğru gibi.
İnsanlar da rastgele seçim yapmakta pek iyi değildir. Ortada bir desen olmaması gerekir, ama deseni bilinçli olarak kaçınmak da başlı başına bir desen sayılabilir.
Gerçek token kullanımına dair tek bir görev için ölçülmüş sonuç yok; sadece magpie kullanılırsa yeniden denemelerin bu kadar azalacağı yönünde bir tahmin gibi görünüyor.
Derleme süresi karşılaştırması garip görünüyor. Neden ms/token karşılaştırılıyor?
Bununla ilgili içeriğin zaman çizelgesi şeklinde düzenlenmesi gerekiyor gibi görünüyor. OpenAI tarafında sözleşme görüşmelerinin sürdüğüne dair iddialar da var, değil mi?
Her zaman ilgiyle takip ediyorum, teşekkür ederim.
Görünüşe göre x'in taraması biraz zorlaştığı için böyle durumlar yaşanabiliyor. İyileştirmeye çalışacağız.