İnsanların dış kaynaklı yazıları sanki kendileri yazmamış gibi paylaştığını görmemiş değilim,
ancak bu durumda, kendiniz değilmişsiniz gibi yaparak kişisel bilgi toplamışsınız; bu yüzden ortada bir sorun var gibi görünüyor.
Sanırım latpeed bağlantısındaki 505studio = mobeah (https://x.com/mobeahmi). Bence çeviriyi kendisinin yaptığını diye paylaşsa da çok büyük bir sorun olmazdı.
React ya da Vue gibi şeyler olmadan
aynı işlevi uygulasanız bile kodu daha karmaşık yazmak gerekiyor, değil mi?
Özellikle popup yönetirken tek bir props bile saf JavaScript ile geçirilecekse kod çok daha karmaşık hale geliyor.
Böyle basit bir şeyi yaparken bile kod karmaşıklaşıyorsa gerçekten
karmaşık özellikleri uygulamak zorlaşıyor.
Sadece basit çıkarım için kullanılan bir CPU runtime ise durum biraz daha iyi, ama bugünlerde gereken LLM servisleri yüzünden hem trafik hem de kapasite arttıkça maliyet hesabı yaparken kahkaha atasım geliyor lol
Empati kurulacak çok şey var.
Yorumlar da güzel; ama biri bunları böyle derleyip anlattığında, yani bunun için bir zemin hazırladığında, buna yönelik karşı çıkışlar, destekler ve eklemelerle birlikte daha da olgunlaştığını düşünüyorum.
Not: Son zamanlarda "sıkıcı teknoloji" ifadesini sık görüyorum; İngilizcesi de boring technology imiş.
> Tersine, iş ‘sadece çalışsın yeter’ yaklaşımıyla yapılacak türdense, yapay zekadan yararlanmak verimli olabilir.
Bu sadece geliştiricilere özgü değil ama farklı eğilimlere sahip insanlar olduğu için, tesadüfen geliştiricilik yapıyor olup kod yazmaktan ya da koda bakmaktan hoşlanmayan veya bundan çekinen, sistematik yapı ya da bakım perspektifli yorumlardan ziyade sadece çalışmasının yeterli olduğunu düşünen kişilerde yapay zekaya bağımlılığın ya da körü körüne güvenin daha güçlü olduğu hissine kapılıyorum. Ya da değildir.
pytorch+cuda bağımlılıkları nedeniyle yalnızca sürümü farklı olan paketler var... tam bir felaket.
Pek bir işlevi de olmayan şeyler ama her küçük daemon için neredeyse 2 GB bağımlılık kuruluyor..
Ben de ihtiyaç nedeniyle o nadir bulunan H100 GPU’lardan 4 tane kullanarak bir RAG çözümü geliştiriyorum ama yalnızca donanıma doğrudan yatırım değil, elektrik faturası ve çeşitli soğutma çözümü maliyetleri gibi kalemleri de hesaba katınca, sadece API çağırmanın çok daha iyi olacağı düşüncesi aklımdan çıkmadı.
Ben de ilk başta testlere Ollama ile başladım; eşzamanlı 3 kullanıcıyı bile düzgün karşılayamadığını görünce hemen vLLM’e geçip bir şekilde RAG çözümünü kurdum, ama (10 eşzamanlı kullanıcı varsayımıyla) yalnızca bunun için bile şimdiden H100 GPU’lardan 2 tanesini neredeyse tam kapasite kullanmak gerekiyor. Embedding işleri ve arama işlemlerini de vLLM üzerinden açıp kullanıyorum; bu durumda H100 4 kart gerçekten çok kısıtlı kalıyor. Her kartta yaklaşık 90 GB VRAM olmasına rağmen durum böyle.
Elbette ben yapay zekadan çok anlamıyorum; departmanın ihtiyaçlarını ve şirket içi güvenlik kurallarını bir şekilde uydurmaya çalışırken biraz bodoslama ilerliyorum... Ama bunun doğru yaklaşım olup olmadığından emin değilim. ChatGPT Enterprise mıydı? Onu gerçekten fiyatına göre çok avantajlı buluyorum.
Ben de benzer bir düşünceye sahiptim ama bunu nasıl ifade edeceğim biraz belirsizdi.
Mental model gerçekten yerinde bir adlandırma. Ara sıra kullanmam gerekecek.
İnsanların dış kaynaklı yazıları sanki kendileri yazmamış gibi paylaştığını görmemiş değilim,
ancak bu durumda, kendiniz değilmişsiniz gibi yaparak kişisel bilgi toplamışsınız; bu yüzden ortada bir sorun var gibi görünüyor.
Teşekkürler~
Sanırım latpeed bağlantısındaki 505studio = mobeah (https://x.com/mobeahmi). Bence çeviriyi kendisinin yaptığını diye paylaşsa da çok büyük bir sorun olmazdı.
React ya da Vue gibi şeyler olmadan
aynı işlevi uygulasanız bile kodu daha karmaşık yazmak gerekiyor, değil mi?
Özellikle popup yönetirken tek bir
propsbile saf JavaScript ile geçirilecekse kod çok daha karmaşık hale geliyor.Böyle basit bir şeyi yaparken bile kod karmaşıklaşıyorsa gerçekten
karmaşık özellikleri uygulamak zorlaşıyor.
https://godotengine.org/article/godot-showcase-dogwalk/
Godot blogundaki röportaj ve
https://studio.blender.org/blog/our-workflow-with-blender-and-godot/
Blender geliştiricilerinin Godot ile iş akışını nasıl kurduğunu ve kaynakları nasıl yönettiğini anlattığı yazı çok ilgi çekici, kesinlikle tavsiye ederim.
https://drive.google.com/file/d/…
Burada numara girmeden doğrudan görüntüleyin.
Bu yazıyı yazan kişi ThreeBlocks.ai adlı şirketin CEO'su Ahn Kwang-seop mu?
Cep telefonu numaralarını toplamalarının nedeni ne?
Bakmak istiyorum ama almak için numara girilmesi gerektiğini öğrenince tereddüt ediyorum.
Amerika'nın yüzölçümü çok büyük olduğu için sanırım böyle girişimler de mümkün olabiliyor. İlginçmiş.
Güzel haber :) Bir an önce CUDA desteği gelsin de Mac’te de yüksek hızlı eğitim mümkün olsun~!
Sonuçta dallanmış branch'leri nasıl birleştireceği sorununu en baştan doğru şekilde fark edip geliştirmeyi tamamlıyor.
Temelleri kadar
prototypebulunup bulunmaması da ...Oluşturulan üst düzey fonksiyonların referans yöntemi de ...
Kaçınılmaz bir karmaşıklık. Eskisi gibi basit şablon HTML değil çünkü.
Sadece basit çıkarım için kullanılan bir CPU runtime ise durum biraz daha iyi, ama bugünlerde gereken LLM servisleri yüzünden hem trafik hem de kapasite arttıkça maliyet hesabı yaparken kahkaha atasım geliyor lol
Empati kurulacak çok şey var.
Yorumlar da güzel; ama biri bunları böyle derleyip anlattığında, yani bunun için bir zemin hazırladığında, buna yönelik karşı çıkışlar, destekler ve eklemelerle birlikte daha da olgunlaştığını düşünüyorum.
Not: Son zamanlarda "sıkıcı teknoloji" ifadesini sık görüyorum; İngilizcesi de boring technology imiş.
> Tersine, iş ‘sadece çalışsın yeter’ yaklaşımıyla yapılacak türdense, yapay zekadan yararlanmak verimli olabilir.
Bu sadece geliştiricilere özgü değil ama farklı eğilimlere sahip insanlar olduğu için, tesadüfen geliştiricilik yapıyor olup kod yazmaktan ya da koda bakmaktan hoşlanmayan veya bundan çekinen, sistematik yapı ya da bakım perspektifli yorumlardan ziyade sadece çalışmasının yeterli olduğunu düşünen kişilerde yapay zekaya bağımlılığın ya da körü körüne güvenin daha güçlü olduğu hissine kapılıyorum. Ya da değildir.
pytorch+cudabağımlılıkları nedeniyle yalnızca sürümü farklı olan paketler var... tam bir felaket.Pek bir işlevi de olmayan şeyler ama her küçük daemon için neredeyse 2 GB bağımlılık kuruluyor..
Ben de ihtiyaç nedeniyle o nadir bulunan H100 GPU’lardan 4 tane kullanarak bir RAG çözümü geliştiriyorum ama yalnızca donanıma doğrudan yatırım değil, elektrik faturası ve çeşitli soğutma çözümü maliyetleri gibi kalemleri de hesaba katınca, sadece API çağırmanın çok daha iyi olacağı düşüncesi aklımdan çıkmadı.
Ben de ilk başta testlere Ollama ile başladım; eşzamanlı 3 kullanıcıyı bile düzgün karşılayamadığını görünce hemen vLLM’e geçip bir şekilde RAG çözümünü kurdum, ama (10 eşzamanlı kullanıcı varsayımıyla) yalnızca bunun için bile şimdiden H100 GPU’lardan 2 tanesini neredeyse tam kapasite kullanmak gerekiyor. Embedding işleri ve arama işlemlerini de vLLM üzerinden açıp kullanıyorum; bu durumda H100 4 kart gerçekten çok kısıtlı kalıyor. Her kartta yaklaşık 90 GB VRAM olmasına rağmen durum böyle.
Elbette ben yapay zekadan çok anlamıyorum; departmanın ihtiyaçlarını ve şirket içi güvenlik kurallarını bir şekilde uydurmaya çalışırken biraz bodoslama ilerliyorum... Ama bunun doğru yaklaşım olup olmadığından emin değilim. ChatGPT Enterprise mıydı? Onu gerçekten fiyatına göre çok avantajlı buluyorum.
Ben de benzer bir düşünceye sahiptim ama bunu nasıl ifade edeceğim biraz belirsizdi.
Mental model gerçekten yerinde bir adlandırma. Ara sıra kullanmam gerekecek.