13 puan yazan GN⁺ 2025-09-29 | 3 yorum | WhatsApp'ta paylaş
  • Ollama, modellerin halüsinasyonlarını azaltmaya ve doğruluğu artırmaya yardımcı olmak için güncel web bilgisi arama özelliğini API olarak kullanıma sundu
  • Ücretsiz hesaplara da cömert bir ücretsiz arama kotası dahil edilirken, sık kullanım ihtiyacı olanlar Ollama Cloud üzerinden daha yüksek limitlere erişebiliyor
  • REST API tabanlı yapı, Python ve JavaScript kütüphaneleri ile entegre oluyor; böylece OpenAI’nin gpt-oss gibi modelleri uzun süreli araştırma işleri yürütebiliyor
  • web_search ve web_fetch özellikleri, binlerce token düzeyinde sonuçlar döndürüyor ve MCP sunucusu üzerinden Cline, Codex, Goose gibi çeşitli araçlarla entegrasyon desteği sağlıyor
  • Bu sayede doğrudan arama ajanları inşa etmek mümkün hale geliyor ve yapay zeka modellerinin güncel verilerle etkileşim kurma esnekliği büyük ölçüde genişliyor

Ollama web arama özelliğine giriş

  • Ollama, web arama API’sini yayımlayarak yapay zeka modellerine anında güncel web bilgisi sunulabilen bir ortam sağlıyor
  • Bu sayede halüsinasyon olgusunun azalması ile birlikte doğruluk artışı beklenebiliyor
  • Bireysel kullanıcılara cömert bir ücretsiz arama kotası sunuluyor; daha yüksek kullanım gerektiğinde Ollama Cloud aboneliği üzerinden kota genişletilebiliyor
  • REST API olarak sunuluyor ve Python ile JavaScript kütüphaneleri üzerinden gelişmiş araç entegrasyonları destekleniyor
  • Bu yapı sayesinde gpt-oss gibi çeşitli modeller uzun soluklu araştırma ve arama görevleri yürütebiliyor

API kullanım örnekleri

  • Ollama hesabından alınan API anahtarıyla cURL, Python’da ollama.web_search(), JavaScript’te client.webSearch() çağrıları yapılabiliyor
  • Sonuçlar, başlık, URL ve içerik özeti içeren bir JSON yapısı olarak dönüyor
  • web_fetch API’si kullanıldığında, URL bazında sayfa içeriği gövde metni ve bağlantı listesiyle birlikte alınabiliyor

Web arama tabanlı arama ajanı geliştirme

  • Ollama API, Qwen3, gpt-oss gibi modellerle birleştirilerek otomatik çok turlu arama ajanları geliştirmeye imkan veriyor
  • Örnek kodda Qwen3:4B modeli kullanılarak arama → çıkarım → sonuç özeti süreci otomatikleştiriliyor
  • Arama sonuçlarına dayanarak "Thinking" sürecinden geçiliyor ve arama/fetch araç çağrılarının sonuçları tekrar tekrar kullanılarak karmaşık araştırma ya da keşif senaryoları yürütülüyor
  • Ollama motorunun yeni güncellemesi; doğru bellek yönetimi, GPU/çoklu GPU optimizasyonu, performans artışı ve vision (multimodal) modellere yönelik kapsamlı desteği de içeriyor

Önerilen modeller ve performans notları

  • Güçlü araç kullanım yeteneğine sahip bulut modelleri öneriliyor: qwen3:480b-cloud, gpt-oss:120b-cloud, deepseek-v3.1-cloud
  • Arama ve fetch araçları binlerce tokenlık veri döndürebildiği için modelin bağlam uzunluğunun yaklaşık 32000 token seviyesine çıkarılması tavsiye ediliyor

Tekil web sayfası fetch özelliği

  • Web aramaya ek olarak, belirli bir web sayfasının metnini ve bağlantı yapısını doğrudan fetch edebilen API ve fonksiyonlar da sunuluyor
  • Python, JavaScript veya cURL ile url parametresi basitçe iletilerek sayfanın title, content ve bağlı bağlantıları çıkarılabiliyor
  • Daha ayrıntılı örnek kodlar resmi GitHub deposunda bulunabiliyor

Araç ve ajan entegrasyonu

  • web_search, web_fetch binlerce token düzeyinde veri döndürdüğü için model bağlamının 32K ve üzerine çıkarılması öneriliyor
  • MCP sunucusu desteğiyle Cline, Codex, Goose gibi yapay zeka geliştirme ortamlarıyla doğrudan entegrasyon mümkün
  • Python ve JavaScript örnek kodları resmi GitHub deposunda sunuluyor

Başlarken

  • Web arama, ücretsiz Ollama hesabı ile varsayılan olarak sunuluyor; daha yüksek kullanım için ücretli abonelik kullanılabiliyor
  • Ollama web sitesinde hesap oluşturup API anahtarı alarak hizmet hemen kullanılabiliyor

3 yorum

 
shakespeares 2025-10-06

Ücretsiz ollama ile bunun pratikte kullanılabilecek bir seviyede olacağını sanmıyorum..

 
slowandsnow 2025-09-30

Fiyatlandırma sayfasında da kota hakkında bir açıklama yok, bu yüzden buna değip değmeyeceğini kestiremiyorum.

 
GN⁺ 2025-09-29
Hacker News görüşleri
  • İçeride hangi arama motorunu kullandıklarını merak ediyorum, Twitter’dan da sormuştum https://twitter.com/simonw/status/1971210260015919488. Özellikle önemli olan kısım arama sonuçlarının lisansı. Saklanıp yeniden dağıtılabilir mi, kurallar sağlayıcıya göre değişiyor
    • Arama sağlayıcılarıyla çalışıyoruz ve hiçbir veri saklama politikası olmayan bir ortamı garanti ediyoruz. Arama sonuçları kullanıcının mülkiyetindedir ve serbestçe kullanılabilir. Yine de yerel yasalara mutlaka uyulmalı
    • Bunun yapay zeka model eğitimi olduğunu söylerseniz istediğiniz gibi kullanabilirsiniz
    • Arama sonuçları sadece bir bağlantı listesiyse, telif hakkının kendisinin doğup doğmadığı bile şüpheli
    • Gizlilik politikası bile olmadan böyle bir özelliği yayımlamış olmaları tuhaf. Acaba yakın zamanda yatırım aldıkları VC partneriyle iş birliği örneği ya da müşteri hikâyesi olarak mı kullanılıyor diye tahmin ediyorum. Benim tahminim Exa; erken dönemde YC destekledi ve Series B’de $85M topladı. Bing, Microsoft’la ortaklık olmadan serbestçe işletmek için fazla pahalı olurdu. Umarım Ollama kısa süre içinde gizlilik bildirimini günceller. Merkezleri CA’da olduğu için CCPA kapsamındalar; gelir olmasa bile yalnızca 50 bin Kaliforniya sakininin verisini işlemek yeterli https://oag.ca.gov/privacy/ccpa. Veri saklamayan backend sağlayıcısının Alibaba olduğu ortaya çıkarsa tepkinin ne olacağını merak ediyorum
  • Ollama’nın bir şirket olup olmadığını merak ediyordum, yatırım aldığını da bilmiyordum. Bunu açık kaynaklı bir yardımcı araç sanıyordum. İleride kullanıcıları nasıl gelir kaynağına dönüştürmeyi planladıklarını merak ediyorum, pek umutlu değilim
    • Son dönemde tamamen açık kaynak olarak çıkan proje neredeyse yok; çoğu bağış modeliyle ya da kurumsal sponsorlarla dönüyor, bence yapay zeka alanında bu daha da nadir
    • Ollama, Docker’dan gelen çalışanlar tarafından Docker tarzında işletiliyor
    • Kısa süre önce bir hosting platformu çıkardılar
    • Senin yanıtını görmeden önce bunun OpenAI’la ilgili bir gönderi olduğunu sanmıştım
  • Ollama’nın bunu nasıl uyguladığına dair daha fazla bilgi olmasını isterdim; onu açık kaynak ve platformdan bağımsız bir araç olarak görüyordum ama son dönemde havanın öyle olmadığını hissedip düşünüyorum
    • Ollama’ya headless browser vb. ile arama sonuçlarını ve web sitesi içeriğini getirme özelliği eklemeyi düşündük, ama sonuç kalitesi ve IP engeli alma riski (crawler gibi görünebilir) endişe vericiydi. Hosting API’si eklemek, sonuçları daha hızlı sunmanın yolu gibi görünüyordu, ama yerel seçeneği de araştırmayı sürdürüyoruz. İdeal olarak kullanıcı isterse bu tür arama özelliklerini tamamen yerel bir ortamda da kullanabilmeli
    • GUI açık kaynak değil. Kolay bir uygulama istiyorsanız LMStudio daha iyi olabilir (çünkü OSS’miş gibi davranmıyor), ramalama da LLM’leri container içine alması açısından ollama’ya benziyor. Ya da llama.cpp ya da vllm gibi “temellere” dönmek de bir seçenek
    • Ollama’nın çalışma biçimi giderek kötüleşiyor gibi geliyor, güvenimi kaybettim ve tüm sistemlerimden sildim
  • Ollama sanki giderek yerel olmayan bir yöne gidiyor ve performansı da vLLM’den düşük gibi geliyor. OpenAI uyumlu API üzerinden open-webui gibi bir şey çalıştırıp kullanıcıların birden çok LLM arasında seçim yapabildiği bir ortam kurmak istiyorum; RTX 3090’ları birden çok sayıda (1–5 adet) iyi kullanabilecek Ollama alternatifleri merak ediyorum
    • Llamaswap ya da vllm adını duymuştum
  • Ollama’nın kendi bulut hizmeti sunduğunu bilmiyordum. Ollama’nın asıl amacı yerel modeller değil miydi? Neden daha küçük ve düşük performanslı modeller kullanmak için ayda $20 ödeyeyim ki? OpenAI ya da Mistral gibi yapay zeka şirketlerini kullanmak daha mantıklı olmaz mı? Kendi bilgisayarımda model kullanmak için ayrıca hesap oluşturmam gereğini görmüyorum
    • Güzel soru. Desteklenen modeller arasında çoğu cihazda çalıştırılamayacak kadar büyük olanlar da var. Bu şu anda başlangıç aşaması ve model sağlayıcılarla kurduğumuz ilişkiler sayesinde Ollama’ya bulut tabanlı en yeni modelleri de getirebiliyoruz. Ollama geliştiricilerle birlikte hareket ediyor ve onların ihtiyaçlarını çözmeyi hedefliyor https://ollama.com/cloud
    • Hesap açma sebebi onların barındırdığı modelleri kullanmak ya da Ollama API üzerinden modelleri yerelde kullanmak. Şu anda Claude’a $100, GPT-5’e $200 ödüyorum; bu tür modelleri kullanmak için $20 gerçekten çok ucuz: Qwen3 235b, Deepseek 3.1 671b, Llama 3.1 405b, GPT OSS 120b gibi modeller kesinlikle “küçük ya da düşük performanslı” değil. Codex’i Ollama API’ye bağlayıp araçları birden fazla modelle kullanabilmek de gerçekten harika
    • Bunun, para kazanılabilir özelliklere doğru istikrarlı bir geçişin parçası olduğunu düşünüyorum. Açık kaynak ve ücretsiz emek üzerinden güven ve marka oluşturup sonra nakde çevirmeye dönüyorlar
    • Yerelde çalıştırılamayan modeller de var (gpt-oss-120b, deepseek, qwen3-coder 480b vb.). Bu, Ollama’nın başarısını paraya dönüştürmenin bir yolu
    • Birçok “yerel” model bile büyük indirme boyutlarına sahip ve sıradan donanımda yavaş. Bulutta ucuza önce değerlendirip ardından yerelde indirip indirmemeye karar verebilmek avantaj. Önemli olan, bir şeyi gerçekten yerelde çalıştırabiliyor olma ilkesinin kendisi. Birinin kolayca geri çekebileceği ya da engelleyebileceği teknolojiye bağımlı olmak istemiyorum
  • Biraz farklı bir konu ama kişisel kullanım için evde bir “mini Google” kurmayı düşünüyorum. Gerçekte arama ihtiyacımın çoğunun yaklaşık 1.000 web sitesi içinde çözüldüğünü fark ettim. Tüm web’i crawl etmek bana fazla geliyor. Kabaca tasarım şöyle: crawler (hafif scraper), indexer (metne dönüştürme ve ters indeks), storage (HTML ve metni sıkıştırarak saklama), arama katmanı (TF-IDF ya da embedding tabanlı skorlamayla), periyodik güncellemeler ve gezinmek için basit bir web UI. Bunu gerçekten kullanmış proje ya da benzer bir işe girişmiş biri var mı merak ediyorum
    • Common Crawl dump’larına bakmıştım; web’in %99,99’u reklam, porno, spam, anlamsız bloglar vb. gerçekten işe yaramaz şeylerden oluşuyordu. Tarihsel, kültürel ya da edebi bir değeri olabilir ama benim amacım için neredeyse hiç faydası yok. Bu yüzden sadece “gerçekten önemli web sayfalarını” seçerek indekslersen bunun dizüstü bilgisayar seviyesinde bile mümkün olacağına ikna oldum. Sadece Vikipedi bile yaklaşık 20GB (sıkıştırılmış), ama benim gerçekten merak ettiğim konuları seçersem 200MB bile tutmaz
    • YaCy (https://yacy.net) ile bunların çoğunu yapabilirsiniz. Yalnız çok crawl ederseniz Cloudflare IP’nizi hızlıca engelleyebilir
    • https://marginalia-search.com’u da gerçekten seviyorum
    • Drew DeVault bir zamanlar SearchHut adıyla benzer bir şey yapmaya çalışmış ama bırakmıştı. PostgreSQL RUM eklentisini anlamaya çalışırken sonunda vazgeçmişti SearchHut’tan bahseden HN başlıkları
    • Tam olarak aynı şey değil ama ben de alan adı bazlı Google CSE ile sonuçları yalnızca ilgi alanlarıma uygun sitelerle sınırlayarak kullanıyorum. Alfred’de kısayolla anında açıyorum, böylece ilgi alanlarımda rahatça arama yapabiliyorum https://blog.gingerbeardman.com/2021/04/20/interest-specific-search-engines/
  • Yerel/kurumsal arama konusunda ipuçları olsa iyi olur. Ollama’yı yerelde kullanırken kendi belgelerimi de doğrudan indeksliyorum. Belgeleri embedding yapmak ya da fine-tune etmek değil, Ollama’yı geleneksel tam metin arama sistemine nasıl bağlayabileceğimi merak ediyorum
    • solr öneririm. Çok iyi bir tam metin arama çözümü ve mcp entegrasyonu da var, bu yüzden kolayca kullanılabiliyor https://github.com/mjochum64/mcp-solr-search. Biraz daha uğraşarak belgeleri vektörize edip knn tabanlı anlamsal benzerlik aramasını da ekleyebilirsiniz. Hem anlamsal hem metin aramasını birlikte kullanabildiğiniz için kalite de iyi oluyor. chromadb ile solr’ı bağlayıp sonuçları birleştirmek de mümkün olabilir; ama ölçek büyürse chromadb daha verimli olur mu diye düşünüyorum
    • docling de iyi bir alternatif olabilir; Typesense gibi kendini kanıtlamış tam metin arama motorlarına da bakılabilir
  • Uzun süredir LLM’lere python DuckDuckGo paketini bağlayarak arama özelliği kullanıyordum. Ama Google’ın sonuçları daha iyi olduğu için developer console’da bir şeyler ayarlayıp Google’a geçtim (tam olarak ne yaptığımı hatırlamıyorum). DDG tarafı resmî değil, Google’ın resmî API’sinde ise sorgu sınırları var (bu yüzden derin araştırma için uygun değil). Genelde birkaç arama sonucunu GPT’ye verip kendi sorumu ekleyince çoğu zaman iyi yanıtlar çıkıyor. Ollama’da da elbette bu yapı kullanılabilir ama GPU’m iyi olmadığı için bağlam uzun olunca yavaşlıyor
    • Scraping API olmadan bunu anlamlı şekilde nasıl kullanabileceğimizi merak ediyorum. Çünkü resmî API’ler fazla kısıtlı
  • “Ollama hesabı” ifadesi beni şaşırttı; ilk başta Ollama’nın amacının modelleri self-host etmek olduğunu düşünmüştüm
    • Ek özellikler ya da Ollama’nın host ettiği bulut modelleri için hesap gerekiyor. Temelde bu gerçekten isteğe bağlı ve tamamen yerelde kendi modellerinizi oluşturup bunları ollama.com’da paylaşmanız da mümkün
  • Ben de az önce web aramasını bağlayıp farklı sağlayıcıları test ederek araç geliştiriyorum. openAI, xAI, gemini rakip sitelerde engellendiği için kullanılamıyor. YT videolarında bu aramanın basit testlerde iyi çalıştığı görülüyordu ve OpenAI web search’ten farklı olarak erişilebiliyor. X’te pek iyi çalışmadı ama bazen iyi sonuç verdi. Kusursuz değil ama ortalama olarak kullanılabilir sonuçlar veriyor