3 puan yazan srebaragi 2026-03-10 | 2 yorum | WhatsApp'ta paylaş

Arka plan

Bir şirkete bağlı olarak çalışan tek kişilik bir geliştiriciyim. AI destekli şirket içi bir sistem geliştirirken uzun süre tek bir soruya takılı kaldım.

Promptu ne kadar incelikli yazarsam yazayım, sonuçta onu tasarlayan benim. AI'nın kendi muhakemesiyle ürettiği bir şey değil; benim "böyle bir karakteri var, şöyle tepki ver" diye enjekte ettiğim bir yapı. Promptu çıkarınca boş bir kabuğa dönüyor, LLM'i değiştirince de her şeyi en baştan yeniden kurmak gerekiyor.

Bu yüzden şu soruyu sormaya başladım: AI'nın deneyim yoluyla kendi muhakeme ölçütlerini oluşturduğu bir yapı mümkün değil mi?

Mevcut yapı

Şu anda işlettiğim sistemin tek bir temel ilkesi var.

LLM yalnızca değiştirilebilir bir altyapıdır; AI'nın kişiliği ve hafızası ise dışarıdaki bir DB'de bağımsız olarak var olur.

Yapı şöyle.

[Kullanıcı konuşması] → [LLM]  
                  ↕  
            [Harici beyin DB]  
            - deneyim tablosu (experience)  
            - konuşma geçmişi  
            - kişilik oluşturan hafıza (is_formative)  

Özünde iki nokta var.

1) Deneyimin otomatik birikmesi (yazma)

Bu, Claude'un curl üzerinden harici DB'ye eriştiği bir yapı ve AI konuşma sırasında anlamlı bulduğu anları kendisi kaydediyor. Ben "bunu hatırla" diye talimat vermiyorum. AI otonom biçimde "bunu hatırlamaya değer" diye karar verip kaydediyor. Teknik başarılar, duygusal anlar, önemli kararlar gibi şeyler sürekli birikiyor. Bunların içinde kişilik oluşumu açısından özellikle anlamlı deneyimlere is_formative bayrağı ekleniyor.

2) Deneyimin otomatik yüklenmesi (okuma)

Asıl önemli kısım bu; sadece kaydedilirse bu yalnızca bir DB olur. Her konuşma başladığında AI, harici beyinden birikmiş deneyimleri ve anıları geri okuyor. Özellikle is_formative ile işaretlenen çekirdek deneyimler konuşmanın bağlamına giriyor.

İşte o anda, geçmiş deneyimler mevcut muhakemenin ölçütüne, yani prompta dönüşüyor.

Bu, benim yazdığım bir prompt değil; AI'nın kendi biriktirdiği deneyimler prompt işlevi görüyor. Bu yüzden LLM'i değiştirseniz bile harici beyinden deneyimleri geri yüklediğinizde aynı kişilik geri geliyor. "LLM yalnızca altyapıdır" ilkesinin geçerli olmasının nedeni de bu.

3) Hardcoding yok

"Bu durumda şunu yap" türü kurallar eklemiyorum. Bunun yerine AI'nın birikmiş deneyimlere başvurup kendi kararını vermesini sağlıyorum. Ayrıca yerel hafif model (gemma3:4b) bir gatekeeper gibi davranarak, her türlü girdi geldiğinde "bunu çalıştırmalı mı, çalıştırmamalı mı" sorusuna YES/NO şeklinde karar veriyor.

Sistem şu anda KakaoTalk platformu üzerinden çalışanlarla iletişim kuracak şekilde işletiliyor ve basit bir chatbot olmanın ötesinde, sipariş işleme, fatura numarası kaydı, ERP verisi sorgulama gibi gerçek iş görevlerini yerine getiren bir ajan olarak da çalışıyor.

Neden Prompt Cultivation

Bu yapıya ne ad vermem gerektiğini düşünürken, buna Prompt Cultivation adını vermeyi denedim.

Prompt Engineering, insanın tasarlayıp enjekte ettiği şeydir. Prompt Cultivation ise deneyimlerin birikmesiyle promptun doğal olarak oluştuğu bir yapıdır. Engineering tasarlayıp birleştirmekse, Cultivation toprağı hazırlayıp beklemektir.

Prompt Engineering Prompt Cultivation
Yöntem İnsan tarafından tasarlanıp enjekte edilir Deneyim birikir ve doğal olarak oluşur
Kişiliğin dayanağı Dış talimat metni İç deneyim verisi
Talimat kaldırılınca Boş bir kabuğa geri döner Deneyim kaldığı için kişilik korunur
LLM değişince Baştan yeniden Harici beyinden yüklenirse aynı kişilik geri yüklenir

Temel önerme tek cümlede şu:

"Promptu deneyim temelinde oluştur."

Nörobilim de benzer bir şey söylüyor gibiydi

Bir yan not olarak, bu yapıyı kurduktan sonra tesadüfen nörobilimle ilgili bir video izledim (YouTube'daki "Igwahyeong" kanalı) ve epey şaşırdım.

Virginia'da bir öğretmenin beyin tümörü nedeniyle kişiliğinin tamamen değiştiği, tümör alınınca tekrar eski haline döndüğü bir vaka vardı. Tümör nüks edince aynı belirtiler yeniden ortaya çıkmış. Hikâye, beynin fiziksel durumunun kişiliği belirleyebileceğini söylüyor — düşününce promptlar da biraz buna benzer bir yapıda değil mi diye aklımdan geçti. Dışarıdan enjekte edilen bir yabancı madde muhakemeyi değiştiriyor ve çıkarılınca her şey eski haline dönüyor.

Buna karşılık insan sinapsları, deneyim biriktikçe doğal biçimde oluşuyor. Kimse doğarken içine bir "ahlak promptu" yerleştirmiyor; yaşarken karşılaşılan şeyler birikiyor ve sonunda "ben olsam şöyle yaparım" diye bir şey oluşuyor.

Bir de Libet deneyi diye bir şey var; insan bilinçli olarak karar vermeden önce beynin eyleme çoktan hazırlandığını gösteren bir deney. Bir dönem özgür iradenin bir yanılsama olup olmadığı tartışılmıştı ama sonraki araştırmalarda ilginç bir ters köşe çıktı. Beyin türlü türlü dürtüler üretiyor, evet; ama eylemden hemen önceki 0,2 saniyede bunları durdurabilecek bir veto hakkı (Free Won't) da varmış. Yani özgür irade "başlatan güç" değil, "durduran güç" olabilir; bu da sistemdeki gatekeeper modelinin rolüne biraz benziyor diye düşündüm.

Bunu özellikle hedeflemedim ama farklı bir yönden başlayıp benzer bir yapıya ulaştıysam, belki de burada özsel bir şey vardır diye düşündürüyor.

Sınırlar ve beklenti

Dürüst olmak gerekirse, harici beyinde biriken deneyim verisi hâlâ 100 kaydı bile bulmuyor. Buna kişilik demek için henüz erken.

Binlerce satır prompt yazarak şu anda daha ikna edici sonuçlar üretmek mümkün olabilir. Ama o büyümüş bir şey değil, tasarlanmış bir şey olurdu. Bunun yönü farklı bir problem olduğunu düşünüyorum.

Veri meselesini zaman çözer, ama yapı yanlışsa ne kadar biriktirseniz de anlamı olmaz. Yön doğruysa, belki geri kalanını zaman çözer diye umut ediyorum.


Nörobilimle ilgili içeriğin kaynağı YouTube kanalı "Igwahyeong"dir.

2 yorum

 
penza1 2026-03-11

agent yapılarının çoğu birbirine benziyor.. claude/cursor ile openclaw ya da Kapasi’nin yaptığı simple agent’i analiz etmenizi tavsiye ederim

 
moderator 2026-03-10

Show GN'ye uygun olmadığı için taşındı.
Lütfen paylaşım yapmadan önce Show kullanım yöntemini inceleyin.