Windows 11'de Explorer'ın kararlılığını biraz artırmalarını isterdim.
Sekmeleri ayırma işi de Chromium tabanlı tarayıcılardaki gibi hızlı ve akıcı olsa güzel olurdu..
Java ekosistemi ve nesne yönelimli kültürde özellikle anlamsız açıklama cümleleriyle biçimsel dokümantasyon çoktu; o havayı devralan Python ekosistemindeki framework'lerde de örnekler özellikle zayıf.
Anlamsız dokümantasyona örnek
add(left, right) - sol ve sağ girdiyi toplar
Asıl önemli olan parametrelerin veri tipi, dönebilecek istisnalar, sonuç değerinin biçimi ya da çalışma yapısı gibi şeyler ise açıklanmıyor.
C dilindeki man page'ler gibi olsa, sadece kısa bir açıklamayla bile fonksiyon ve parametre adlarından çıkarım yaparak kullanılabilir.
Ben her iki aracı da seviyorum. Bu iki aracın ekosistemleri ve amaçları bazı noktalarda kesişiyor; yani tamamen aynı araçlar değiller ve zorluk düzeyine göre değerlendirilmemeliler. vite ile yazarsanız scriptleri geniş kapsamlı ve ayrıntılı biçimde kurgulayabilirsiniz. Stimulus ya da Hotwire ise script geliştirmeyi en aza indirmek için daha uygundur.
Yakın zamanda taşınacağım için çöp kutularını temizlemem gereken bir durumdayım. Arka bahçede yapayım dedim ama fazla pis olduğu için tereddüt ettim; sonra evin yakınında ilginç bir iş modeli gördüm.
Temizlik aracı evin önüne kadar geliyor; siz sadece çöp kutusunu içine yerleştiriyorsunuz, içerideki ekipman da otomatik olarak baştan sona yıkıyor.
Yıkama sonrası çıkan suyu işletmeye götürüp son işlemden geçirerek deşarj ettikleri için, çevre şirketi olarak kayıtlı olup vergi avantajlarından da iyi faydalanıyor gibi görünüyor.
Şirketin adı happy cans. Burası San Diego merkezli yerel bir işletme ama her şehirde buna benzer en az bir yer vardır herhalde.
Gerçekten kullanmış başka kişilerin görüşlerini merak ediyorum ama kişisel olarak haberlerde yazım hatalarını çok sık görüyorum (örneğin bir kelime eksik olduğu için cümlenin öylece bitmesi gibi), bu kalite düzeyindeyse kullanmaya devam edeceğimi sanmıyorum. Çok beklentiyle beklediğim bir hizmetti..
Ben de biraz daha kaynak aramak istedim ama orijinal metinde referans olarak verilen Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions makalesi kaldırılmış mı bilmiyorum; içeriğini doğrulayamıyorum.
Metinde kafama takılan nokta şu: “Reddit gönderilerini ya da topluluk tartışmalarını, uzmanların açtığı başlıkları düşünün. Bu tür içerikler ticari arama terimlerinde Google’ın ilk 10 sonucuna girer mi? Neredeyse hiç girmez. Ama 15–40. sıralar Reddit tarafından domine ediliyordu.” denmiş; fakat hemen altında yer alan Perplexity’nin Top 10 Websites grafiğinde Reddit %46,7 ile 1. sırada görünüyor. Bu biraz çelişkili hissettiriyor. Kişiselleştirilmiş önerilerin etkisi olabilir ama deneyimsel olarak da Google aramalarında Reddit sonuçlarının üst sıralarda çıktığı durumlar oldukça yaygındı.
Ek olarak, 12 Eylül’den itibaren Google arama sonuçlarında num=100 sorgu parametresinin yalnızca 10 sonuç döndürecek şekilde değiştiği doğru[^1]. Ancak bunun SEO araçları üzerinde yarattığı etkinin kısa süreli bir karışıklığa yol açmış olabileceği, fakat daha önce tek sorguda yapılan işlemin artık 10 sorgunun maliyetine katlanılarak ya da daha hassas sorgularla telafi edilebilecek bir alan olduğu yönünde görüşler de var[^2]. Hatta ChatGPT’de Reddit alıntı trafiğindeki düşüşün, 12 Eylül’de OpenAI’ın dahili model spesifikasyonunda yaptığı değişiklikten kaynaklanmış olabileceğini savunan görüşler de mevcut[^3].
Fikir iyi ama örnek görsellere bakınca gerçekten çok yavaş çalışıyor gibi görünüyor... node.js uygulaması sandım ama Rust ile yazılmış olmasına şaşırdım.
Bir de o uzun ve tuhaf kurulum betiğiyle kurdurmaya çalışmaları hoşuma gitmedi. Nasıl kaldırılacağını öğrenip tek tek silmeyi düşününce insanın kurası gelmiyor.
Şimdilik yalnızca biraz rahatsız edici bir düzeyde görünebilir ama böyle olursa yapay zekanın büyütüp yeniden ürettiği içeriklerin de tamamı sonuçta ilk 10’daki içerikler olacak; bu da sıralama dışında kalan verilerin erişilebilirlik açısından hızla geri plana itilmesine, çeşitliliğin zarar görmesine ve biraz abartılı ifade etmek gerekirse AI içeriğinin bir tür “akraba evliliğine” dönüşerek bir çeşit veri genetik hastalığı üretmesine yol açmaz mı.
Belki de fazla uçuk bir hayal ama çok sayıda insanın yapay zeka üzerinden yalnızca sınırlı bir veri alanına eriştiğini ve yine veriye dayanarak yapay zeka üzerinden üretilen verinin tekrar yapay zekanın eğitimine girdiğini düşününce, sezgisel olarak bunun daha iyi bir yöne gitmediğini düşünüyorum.
Elbette AI’ın yol açtığı aşırı trafik sorununu da tamamen görmezden gelmek mümkün değil.
OpenAI’nin hisse opsiyonu alma karşılığında (?) AMD çipi satın alacağı söylenince hisse senedi fırlamıştı; tersine, OpenAI’nin performansının kötüleştiği ya da büyümesinin yavaşladığına dair haberler çıkarsa bunun birlikte nereye kadar etki edeceğini kestiremiyorum. 2008’deki subprime mortgage döneminde olduğu gibi, büyük teknoloji şirketleri de yapay zeka şirketleri de sanki bütünüyle birbirine bağlanmış gibi görünüyor.
Bildiğim kadarıyla ekleyeyim: Google’da URL üzerinden arama yaparken, query param olarak num=100 girildiğinde bir seferde ilk 100 arama sonucunu almak mümkündü. Ancak Google bunu yakın zamanda kaldırdı; artık yalnızca ilk 10 sonuç alınabiliyor.
Bunun yarattığı sorun şu: SEO ile ilgili SaaS’ler bu özellik sayesinde, Google’da ilgili anahtar kelime aratıldığında hangi sırada çıktığını gösterebiliyordu; şimdi ise sadece 10. sıraya kadar göründüğü için sıralama gösterimi bozuldu. İkinci olarak da, yazıda söylendiği gibi, yapay zeka tarafında web araması yapıp içerik çekerken yalnızca ilk 10 sonuç görüldüğünden, karşımıza sadece Wikipedia ya da bizdeki karşılığıyla Namuwiki benzeri yazılar çıkıyor; Reddit gibi en önemli içerikler ise yakalanmıyor.
python, java, c#, go vb. gibi ortamlarda runtime’ın db driver arayüzü standardı oluşturması oldukça yaygındır.
Ama Node tarafında, aynı sqlite hedefi için olan driver’lar arasında bile statement çalıştırma execute() ya da exec() olarak değiştiği için, sadece driver’ı değiştirmek bile belli ölçüde kod düzenlemesi gerektiriyor.
Çok sık olan bir durum değil ama db değiştirmek gerektiğinde de bu rahatsız edici oluyor.
Örneğin mysql kullanırken Oracle’ın yaptıkları hoşunuza gitmez ya da postgresql uzantıları arasında mutlaka gerekli olan bir şey vardır da postgresql’e geçeceğinizi varsayarsak, jdbc gibi standart bir arayüz varsa sadece SQL’i doğrulamak yeterli oluyor ama Node ekosisteminde db çağrı mantığını baştan aşağı yeniden yazmak gibi bir yan etkisi var.
+Bir kütüphane yazmayı önermiştiniz ama ortak bir arayüz standardı olduğunda kütüphane geliştirmek daha kolay oluyor.
Şirket Java kullanıyor; şirket içi özel framework’te mysql, db2, oracle, mssql desteği gerektiği için, veritabanına özel adapter’ların bakımında jdbc standardının faydasını çok gördüm.
Google Reader kapatıldıktan sonra Feedly'ye geçmiştim; ardından yaklaşık 10 yıl boyunca kullanmadım, ama son zamanlarda yeniden biraz tozunu alıp kullanmaya başladım ve bugünlerde de çeşitli hizmetlerin çıkmaya devam ettiğini fark ettim. Bunu pek bilmiyordum.
Bu, ChatGPT gibi yapay zekaların web’de sonuç ararken önce Google Arama yapıp sonra sadece o sonuçları kullandığı anlamına mı geliyor..? Yani Google göstermiyorsa sonuçlardan da dışlanıyor...?
Windows 11'de Explorer'ın kararlılığını biraz artırmalarını isterdim.
Sekmeleri ayırma işi de Chromium tabanlı tarayıcılardaki gibi hızlı ve akıcı olsa güzel olurdu..
Java ekosistemi ve nesne yönelimli kültürde özellikle anlamsız açıklama cümleleriyle biçimsel dokümantasyon çoktu; o havayı devralan Python ekosistemindeki framework'lerde de örnekler özellikle zayıf.
Anlamsız dokümantasyona örnek
add(left, right) - sol ve sağ girdiyi toplar
Asıl önemli olan parametrelerin veri tipi, dönebilecek istisnalar, sonuç değerinin biçimi ya da çalışma yapısı gibi şeyler ise açıklanmıyor.
C dilindeki man page'ler gibi olsa, sadece kısa bir açıklamayla bile fonksiyon ve parametre adlarından çıkarım yaparak kullanılabilir.
Hâlâ akılları başlarına gelmiş değil.
NVMe içinse politika hâlâ yürürlükte..
Ben her iki aracı da seviyorum. Bu iki aracın ekosistemleri ve amaçları bazı noktalarda kesişiyor; yani tamamen aynı araçlar değiller ve zorluk düzeyine göre değerlendirilmemeliler.
viteile yazarsanız scriptleri geniş kapsamlı ve ayrıntılı biçimde kurgulayabilirsiniz. Stimulus ya da Hotwire ise script geliştirmeyi en aza indirmek için daha uygundur.Yakın zamanda taşınacağım için çöp kutularını temizlemem gereken bir durumdayım. Arka bahçede yapayım dedim ama fazla pis olduğu için tereddüt ettim; sonra evin yakınında ilginç bir iş modeli gördüm.
Temizlik aracı evin önüne kadar geliyor; siz sadece çöp kutusunu içine yerleştiriyorsunuz, içerideki ekipman da otomatik olarak baştan sona yıkıyor. Yıkama sonrası çıkan suyu işletmeye götürüp son işlemden geçirerek deşarj ettikleri için, çevre şirketi olarak kayıtlı olup vergi avantajlarından da iyi faydalanıyor gibi görünüyor.
Şirketin adı happy cans. Burası San Diego merkezli yerel bir işletme ama her şehirde buna benzer en az bir yer vardır herhalde.
Artık gerçekten Pi(3.14)thon
Gerçekten kullanmış başka kişilerin görüşlerini merak ediyorum ama kişisel olarak haberlerde yazım hatalarını çok sık görüyorum (örneğin bir kelime eksik olduğu için cümlenin öylece bitmesi gibi), bu kalite düzeyindeyse kullanmaya devam edeceğimi sanmıyorum. Çok beklentiyle beklediğim bir hizmetti..
Daha önce gördüğüm not by AI'da da benzer şeylerden bahsediyordu. Veri kalıtsal hastalığı ifadesi epey taze olmuş haha
Delirecek kadar korkutucu;
Ben de biraz daha kaynak aramak istedim ama orijinal metinde referans olarak verilen Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions
makalesi kaldırılmış mı bilmiyorum; içeriğini doğrulayamıyorum.
Metinde kafama takılan nokta şu: “Reddit gönderilerini ya da topluluk tartışmalarını, uzmanların açtığı başlıkları düşünün. Bu tür içerikler ticari arama terimlerinde Google’ın ilk 10 sonucuna girer mi? Neredeyse hiç girmez. Ama 15–40. sıralar Reddit tarafından domine ediliyordu.” denmiş; fakat hemen altında yer alan Perplexity’nin Top 10 Websites grafiğinde Reddit %46,7 ile 1. sırada görünüyor. Bu biraz çelişkili hissettiriyor. Kişiselleştirilmiş önerilerin etkisi olabilir ama deneyimsel olarak da Google aramalarında Reddit sonuçlarının üst sıralarda çıktığı durumlar oldukça yaygındı.
Ek olarak, 12 Eylül’den itibaren Google arama sonuçlarında
num=100sorgu parametresinin yalnızca 10 sonuç döndürecek şekilde değiştiği doğru[^1]. Ancak bunun SEO araçları üzerinde yarattığı etkinin kısa süreli bir karışıklığa yol açmış olabileceği, fakat daha önce tek sorguda yapılan işlemin artık 10 sorgunun maliyetine katlanılarak ya da daha hassas sorgularla telafi edilebilecek bir alan olduğu yönünde görüşler de var[^2]. Hatta ChatGPT’de Reddit alıntı trafiğindeki düşüşün, 12 Eylül’de OpenAI’ın dahili model spesifikasyonunda yaptığı değişiklikten kaynaklanmış olabileceğini savunan görüşler de mevcut[^3].AEO’nun önemli olduğu görüşüne katılıyorum ama “Google aramasında ilk 10’a giremezseniz ChatGPT başta olmak üzere yapay zeka motorlarında tamamen ortadan kaybolursunuz” iddiasının dayanağının zayıf olduğunu düşünüyorum.
[^1]: https://searchengineland.com/google-search-rank-and-position-tracking-…
[^2]: https://locomotive.agency/blog/…
[^3]: https://sherwood.news/markets/…
Fikir iyi ama örnek görsellere bakınca gerçekten çok yavaş çalışıyor gibi görünüyor...
node.jsuygulaması sandım ama Rust ile yazılmış olmasına şaşırdım.Bir de o uzun ve tuhaf kurulum betiğiyle kurdurmaya çalışmaları hoşuma gitmedi. Nasıl kaldırılacağını öğrenip tek tek silmeyi düşününce insanın kurası gelmiyor.
Şimdilik yalnızca biraz rahatsız edici bir düzeyde görünebilir ama böyle olursa yapay zekanın büyütüp yeniden ürettiği içeriklerin de tamamı sonuçta ilk 10’daki içerikler olacak; bu da sıralama dışında kalan verilerin erişilebilirlik açısından hızla geri plana itilmesine, çeşitliliğin zarar görmesine ve biraz abartılı ifade etmek gerekirse AI içeriğinin bir tür “akraba evliliğine” dönüşerek bir çeşit veri genetik hastalığı üretmesine yol açmaz mı.
Belki de fazla uçuk bir hayal ama çok sayıda insanın yapay zeka üzerinden yalnızca sınırlı bir veri alanına eriştiğini ve yine veriye dayanarak yapay zeka üzerinden üretilen verinin tekrar yapay zekanın eğitimine girdiğini düşününce, sezgisel olarak bunun daha iyi bir yöne gitmediğini düşünüyorum.
Elbette AI’ın yol açtığı aşırı trafik sorununu da tamamen görmezden gelmek mümkün değil.
OpenAI’nin hisse opsiyonu alma karşılığında (?) AMD çipi satın alacağı söylenince hisse senedi fırlamıştı; tersine, OpenAI’nin performansının kötüleştiği ya da büyümesinin yavaşladığına dair haberler çıkarsa bunun birlikte nereye kadar etki edeceğini kestiremiyorum. 2008’deki subprime mortgage döneminde olduğu gibi, büyük teknoloji şirketleri de yapay zeka şirketleri de sanki bütünüyle birbirine bağlanmış gibi görünüyor.
Bildiğim kadarıyla ekleyeyim: Google’da URL üzerinden arama yaparken, query param olarak
num=100girildiğinde bir seferde ilk 100 arama sonucunu almak mümkündü. Ancak Google bunu yakın zamanda kaldırdı; artık yalnızca ilk 10 sonuç alınabiliyor.Bunun yarattığı sorun şu: SEO ile ilgili SaaS’ler bu özellik sayesinde, Google’da ilgili anahtar kelime aratıldığında hangi sırada çıktığını gösterebiliyordu; şimdi ise sadece 10. sıraya kadar göründüğü için sıralama gösterimi bozuldu. İkinci olarak da, yazıda söylendiği gibi, yapay zeka tarafında web araması yapıp içerik çekerken yalnızca ilk 10 sonuç görüldüğünden, karşımıza sadece Wikipedia ya da bizdeki karşılığıyla Namuwiki benzeri yazılar çıkıyor; Reddit gibi en önemli içerikler ise yakalanmıyor.
python,java,c#,govb. gibi ortamlarda runtime’ın db driver arayüzü standardı oluşturması oldukça yaygındır.Ama Node tarafında, aynı
sqlitehedefi için olan driver’lar arasında bile statement çalıştırmaexecute()ya daexec()olarak değiştiği için, sadece driver’ı değiştirmek bile belli ölçüde kod düzenlemesi gerektiriyor.Çok sık olan bir durum değil ama db değiştirmek gerektiğinde de bu rahatsız edici oluyor.
Örneğin
mysqlkullanırken Oracle’ın yaptıkları hoşunuza gitmez ya dapostgresqluzantıları arasında mutlaka gerekli olan bir şey vardır dapostgresql’e geçeceğinizi varsayarsak,jdbcgibi standart bir arayüz varsa sadece SQL’i doğrulamak yeterli oluyor ama Node ekosisteminde db çağrı mantığını baştan aşağı yeniden yazmak gibi bir yan etkisi var.+Bir kütüphane yazmayı önermiştiniz ama ortak bir arayüz standardı olduğunda kütüphane geliştirmek daha kolay oluyor.
Şirket Java kullanıyor; şirket içi özel framework’te
mysql,db2,oracle,mssqldesteği gerektiği için, veritabanına özel adapter’ların bakımındajdbcstandardının faydasını çok gördüm.Birileri buna artırılmış kodlama (Augmented Coding) demişti ama hızla ortadan kayboldu.
Google Reader kapatıldıktan sonra Feedly'ye geçmiştim; ardından yaklaşık 10 yıl boyunca kullanmadım, ama son zamanlarda yeniden biraz tozunu alıp kullanmaya başladım ve bugünlerde de çeşitli hizmetlerin çıkmaya devam ettiğini fark ettim. Bunu pek bilmiyordum.
Bu, ChatGPT gibi yapay zekaların web’de sonuç ararken önce Google Arama yapıp sonra sadece o sonuçları kullandığı anlamına mı geliyor..? Yani Google göstermiyorsa sonuçlardan da dışlanıyor...?
Son zamanlarda tartışma konusu olan mesajlaşma şirketindeki birini hatırlatıyor gibi görünüyor ..
Yalnızca 7 oyunu destekleyen bir konsol için böyle bir çaba harcamaları gerçekten harika.