2 puan yazan GN⁺ 1 시간 전 | 1 yorum | WhatsApp'ta paylaş
  • Tim Gowers, ChatGPT 5.5 Pro ile yaklaşık 1 saat içinde kombinatorikte doktora düzeyinde bir araştırma sonucu elde ettiğini ve kendi matematiksel katkısının fiilen olmadığını düşünüyor
  • ChatGPT 5.5 Pro, Mel Nathanson’ın toplamsal sayı teorisi probleminde, verilen toplam küme büyüklüğüne sahip bir kümenin çapı için zorunlu olarak en iyi olabilecek ikinci dereceden bir üst sınır yapısını 17 dakika 5 saniyede sundu
  • Ardından kısıtlı toplam küme problemini de aynı yöntemle çözdü ve Isaac Rajagopal’ın mevcut üstel üst sınırını polinomsal bağımlılık düzeyine iyileştiren bir argüman da üreterek Rajagopal’a neredeyse kesin olarak doğru göründü
  • Temel fikir, Rajagopal’ın yapısındaki geometrik dizi bileşenlerini h-dissociated küme temelli bir yapıyla değiştirerek gerekli toplam küme büyüklüğü desenini polinomsal büyüklükte bir aralık içinde yeniden üretmekti
  • Yapay zekanın ürettiği sonuçlar yayımlanabilir düzeyde görünüyor; ancak dergide basılmaları ya da arXiv’e yüklenmeleri yerine, doğruluğun insan matematikçiler tarafından onaylandığı ayrı bir depo gerekebilir ve başlangıç seviyesindeki araştırmacıların eğitim ölçütü de LLM ile işbirliği yaparak LLM’in tek başına yapamadığı işleri kanıtlama yönüne kayabilir

LLM’nin değiştirdiği kombinatorik problem çözümü

  • Büyük dil modelleri artık araştırma düzeyindeki problemleri çözebilecek aşamaya ulaşmış görünüyor; Thomas Bloom’un Erdős problem sitesi üzerindeki çeşitli problemlerin de çözüldüğü biliniyor
  • İlk dönem LLM başarıları çoğunlukla literatürdeki mevcut yanıtları bulmak ya da bilinen sonuçlardan kolayca çıkan sonuçlara ulaşmak şeklindeydi; ancak artık insanların gözden kaçırdığı basit argümanları LLM’lerin bulma olasılığı artıyor
  • İnsan matematiğinde de mevcut bilgi ve ispat tekniklerini birleştirmek işin önemli bir bölümünü oluşturduğundan, LLM’lerin “yalnızca mevcut bilgiyi birleştirdiği” düşüncesi sınırlı bir teselli sunuyor
  • Kombinatorikte yeni kombinatorik parametreler ortaya koyan makaleler doğal olarak çok sayıda problem üretiyor ve bunlar eskiden başlangıç düzeyindeki araştırmacılar için iyi bir açık problem kaynağıydı; ancak artık yeni ölçüt, problemin LLM’in çözemeyeceği kadar zor olup olmadığı haline geliyor

Nathanson problemi ve ilk sonuç

  • Gowers, Mel Nathanson’ın Diversity, Equity and Inclusion for Problems in Additive Number Theory makalesindeki problemleri ChatGPT 5.5 Pro’ya denetti
  • Nathanson, sonradan popüler hale gelen problem ve teoremlere erken ilgi göstermiş, bunun sonucunda da zamanlaması iyi ve etkili ders kitapları yazmış biri olarak tanıtılıyor
  • Temel nesneler, tam sayı kümelerinin toplam kümesi (sumset), birden çok kez toplanmış toplam kümeleri ve verilen eleman sayılarında mümkün olan toplam küme büyüklükleri
  • Eleman sayısı verildiğinde, mümkün toplam küme büyüklükleri her zaman minimum ile maksimum arasındaki tüm değerleri almaz; bunların tam bir karakterizasyonu da hâlâ yok
  • Nathanson, verilen eleman sayısı ve toplam küme büyüklüğüne sahip bir küme oluşturmak için gereken çap (diameter) için bir üst sınır verdi ve bunun iyileştirilip iyileştirilemeyeceğini sordu
  • ChatGPT 5.5 Pro, 17 dakika 5 saniye düşündükten sonra, zorunlu olarak en iyi olan ikinci dereceden bir üst sınır veren bir yapı sundu
  • Gowers, bunu genel matematik preprint tarzında bir LaTeX dosyası olarak yeniden yazmasını isteyince, ChatGPT 2 dakika 23 saniye sonra bu biçimi sağladı ve Gowers da zamanını argümanın doğru olup olmadığını kontrol etmeye harcadı

Sidon kümeleri ve kısıtlı toplam kümeye genişleme

  • Hem Nathanson’ın argümanı hem de ChatGPT’nin argümanı, verilen büyüklükte bir küme ve verilen büyüklükte bir toplam küme üretmek için Sidon kümeleri ile aritmetik dizileri birlikte kullanma fikrine dayanıyor
  • Sidon kümesi burada, toplam küme büyüklüğünün maksimum olduğu küme anlamında sadeleştirilmiş bir biçimde kullanılıyor
  • İnce ayar için aritmetik dizinin yakınına bir ek nokta daha konabiliyor ve çeşitli parametreler ayarlanarak istenen büyüklükte kümeler elde edilebiliyor
  • Nathanson, bu makalede Theorem 5’te tümevarımsal bir argüman sundu; ancak ayrıntılı yazıldığında, özünde 2’nin kuvvetlerinden oluşan bir Sidon kümesi kullanan bir yapı gibi görünüyor
  • ChatGPT’nin iyileştirmesi, daha verimli bir Sidon kümesi kullanmasından kaynaklandı ve ikinci dereceden çapa sahip Sidon kümelerinin bulunabildiği gerçeği iyi biliniyor
  • Gowers daha sonra, toplam küme büyüklüğü yerine kısıtlı toplam küme (restricted sumset) büyüklüğüne bakan yakından ilişkili bir problemi de denetti ve ChatGPT aynı türden bir sonucu zorlanmadan üretti
  • İki sonucu tekrar etmeden tek bir notta birleştiren belge burada yayımlandı

Genel derece problemi ve Rajagopal makalesinin iyileştirilmesi

  • Gowers, daha genel durumda ChatGPT’nin neler yapabileceğini de sordu
  • Başlangıçta çok daha az iyimserdi; çünkü önceki ispat, Erdős ve Szemerédi’nin sonucuna, yani oluşturulması gereken büyüklüklerin tam olarak bilinmesine özünde bağlıydı
  • Nathanson’ın makalesinde MIT öğrencisi Isaac Rajagopal’ın çalışmasına yer veriliyor; Rajagopal sabit her derece için üstel bağımlılığı ispatlamıştı
  • Rajagopal açısından asıl zorluk, “mümkün büyüklükler kümesini bilmiyor olmak” değildi
    • Argümanı, yeterince büyük durumlar için tam bir karakterizasyon sağlıyor
    • Sabit bir derece için polinomsal bağımlılığı göstermek adına yalnızca yeterince büyük durumları varsaymak yeterli oluyor
    • Gerçek zorluk, verilen toplam küme büyüklüğüne sahip kümeyi kuran yapının çok daha karmaşık olması ve derece büyüdükçe polinomun derecesinin de artarak daha fazla parametre gerektirmesiydi
  • ChatGPT’nin görevi problemi sıfırdan çözmek değil, Rajagopal’ın argümanını sıkılaştırmaktı
  • Süreç şöyle ilerledi
    • 16 dakika 41 saniye sonra, mevcut üst sınırı üstel fonksiyondan herhangi bir pozitif sabit için daha küçük bir üs biçimine iyileştiren bir argüman sundu
    • Bunu preprint biçimine getirmesi ek olarak 47 dakika 39 saniye sürdü
    • Gowers bunu Nathanson’a gönderdi, Nathanson da Rajagopal’a iletti; Rajagopal’a doğru göründü
    • Hem ChatGPT hem de Rajagopal, bunu polinomsal üst sınıra kadar daha da zorlamak için ne gerektiğine dair bazı tahminlerde bulundu ve Gowers, ChatGPT’den bunu denemesini istedi
    • 13 dakika 33 saniye sonra ChatGPT, böyle bir argümanın var olma ihtimali konusunda iyimser olduğunu ancak doğrulanması gereken birkaç teknik önerme bulunduğunu söyledi
    • Doğrulaması istendiğinde 9 dakika 12 saniye sonra kontrolleri tamamladı ve yeniden preprint biçiminde yazması istendi
    • 31 dakika 40 saniye sonra preprint hazırdı ve belge burada yayımlandı
    • Rajagopal bunu neredeyse kesin olarak doğru gördü; bu yalnızca satır düzeyinde değil, fikir düzeyinde de böyle olduğu şeklinde yorumlandı

Yapay zekanın ürettiği matematik sonuçları nereye konmalı

  • Sonuç insan tarafından üretilmiş olsaydı yayımlanabilir düzeyde sayılacağından, buna AI slop demek uygun görünmüyor
  • Buna karşılık, bir dergide yayımlanmasının çok anlamlı olmadığı düşünülüyor
    • Sonuçlar ücretsiz olarak kamuya açılabilir
    • Hiç kimsenin “itibar” kazanmasına gerek yok
    • Yine de ChatGPT’nin inşa edebileceği çerçeveyi oluşturan Rajagopal büyük ölçüde takdiri hak ediyor
  • arXiv’in yapay zeka tarafından yazılmış içerikleri kabul etmeyen bir politikası olduğu anlaşılıyor ve bunun makul olduğu düşünülüyor
  • Yapay zekanın ürettiği sonuçlar için ayrı bir depo gerekebilir
    • Yalnızca doğruluğu insan matematikçiler tarafından onaylanmış sonuçları içeren bir düzenleme süreci tercih edilebilir
    • Daha iyisi, ispat yardımcısıyla biçimselleştirilmiş sonuçlar olabilir
    • Sonucun, insanlar tarafından yazılmış makalelerde sorulan sorulara cevap verip vermediği de bir ölçüt olabilir
  • Düzenleme sürecinin çok büyük bir iş yükü oluşturması sorun olur ve bu işi yeniden yapay zekaya devretmenin açık riskleri bulunuyor
  • Şimdilik ilgili sonuçlara açık bağlantılar üzerinden erişilebiliyor ve LLM’lerin literatür tarama yeteneği geliştiği için, Nathanson’ın probleminin çözülüp çözülmediğini araştıran biri bunları bulabilir

Isaac Rajagopal'ın değerlendirmesi ve teknik arka plan

  • ChatGPT'nin temel katkısı

    • ChatGPT, yalnızca birkaç prompt ile belirli bir üst sınırı üstel bağımlılıktan polinomsal bağımlılığa iyileştirdi
    • İlk iyileştirme, Rajagopal'ın çalışmasının görece rutin bir uyarlamasıydı, ancak polinomsal iyileştirme oldukça etkileyiciydi
    • ChatGPT'nin ortaya attığı fikir özgün ve zekiceydi; Rajagopal bunu 1-2 hafta düşündükten sonra bulmuş olsaydı muhtemelen bununla gurur duyardı
    • ChatGPT, Rajagopal'ın kendi ispatına benzer bir yöntem kullanarak fikri bir saatten kısa sürede bulup ispatladı
  • Problemin arka planı

    • Bu üst sınır problemi, Rajagopal'ın Duluth REU (Research Experience for Undergrads) programında ele aldığı problemle yakından ilişkili
    • Temel nesne, mümkün olan çeşitli çoklu toplam kümelerinin büyüklükleri ve bunların hepsini belirli sayıda elemana sahip tamsayı kümeleriyle gerçekleştirmek için gereken en küçük aralık
    • Rajagopal geçen yaz yeterince büyük durumlarda mümkün değerler kümesini açık biçimde karakterize etti
    • İmkansız olduğu dışlanamayan tüm büyüklükleri gerçekleştiren kümeler inşa etti ve buna göre söz konusu üst sınır bu inşanın optimize edilmesiyle elde edilebiliyor
  • Üstel büyüklükteki yapının yerine geçmesi

    • Rajagopal'ın özgün yapısı, analizi kolay birkaç küçük bileşen kümesini birleştirme yöntemine dayanıyordu
    • Bazı bileşenler, birden fazla parametre değeri için geometrik dizi biçimindeydi ve elemanları parametreye göre üstel olarak büyüyordu
    • Rajagopal, Tim aracılığıyla ChatGPT'ye, bu geometrik dizilerle benzer toplam küme büyüklüklerine sahipken eleman büyüklükleri polinomla sınırlı kalan kümeler olup olmadığını sordu
    • ChatGPT, sanki “bir geometrik dizinin yarısını polinomik bir aralığın içine sıkıştırmış” gibi davranan kümeler kurdu
    • Bu, sezgiye ters düşen bir yapı gibi görünüyor

Bₕ kümeleri, dissociated kümeler ve ChatGPT'nin yapı fikri

  • Bₕ kümelerinin rolü

    • Verilen bir derece için, bir taraftaki toplamın diğer taraftaki toplamın yalnızca yeniden sıralanması olduğu trivial çözümler dışında toplam ilişkisi bulunmayan kümeye Bₕ kümesi denir
    • Boyutu sabitlenmiş bir Bₕ kümesinde, tekrar serbest olacak şekilde eleman seçme yöntemi ile çoklu toplam kümesinin elemanları tam olarak eşleşir
    • “stars and bars” hesabıyla bu, aynı büyüklükteki kümeler arasında mümkün olan en büyük çoklu toplam kümesi büyüklüğüdür
    • Sidon kümeleri bu bakış açısından B₂ kümeleridir
  • Geometrik dizilerin yeniden ürettiği özellikler

    • Belirli bir geometrik dizi kümesi Bₕ kümesidir, ancak daha yüksek dereceli B kümeleri değildir
    • Sorun çıkaran ilişkiler, belirli bir biçimdeki toplam ilişkileri olarak ortaya çıkar
    • Bir kümede toplam kümesi büyüklüğü parametrenin doğrusal fonksiyonu, diğerinde ise ikinci dereceden fonksiyonu olur
    • ChatGPT, bu dört özelliği de sağlayan ama tüm elemanları parametreye göre polinom büyüklükte olan yeni kümeler buldu
  • h-dissociated kümelerinin kullanımı

    • ChatGPT'nin yapısı h-dissociated kümeleri kullanıyor
    • h-dissociated küme, sınırlı bir dereceye kadar olan toplam ilişkilerinde yalnızca trivial çözümlere izin veren kümedir
    • Büyüklüğü yaklaşık parametre kadar ve çapı polinom olan h-dissociated kümeleri kurulabilir
    • Bu tür yapılar, sonlu cisimleri kullanan Singer (1938) ve Bose–Chowla (1963) yapılarına kadar gider; Appendix 1'de açıklanır
  • İlişkilerin yalnızca yarısını kapsama sezgisi

    • ChatGPT'nin kurduğu iki küme, geometrik dizi karşılıklarıyla kıyaslandığında belirli toplam ilişkilerinin yaklaşık yarısını içerir
    • Aynı zamanda h-dissociated özelliği sayesinde diğer düşük dereceli ilişkiler neredeyse yoktur
    • Sonuç olarak, polinomik bir aralık içinde kalırken gerekli toplam kümesi büyüklüğü örüntüsünü yeniden üretirler
    • Rajagopal'a göre, ChatGPT'nin h-dissociated kümeleriyle belirli bir dereceye kadar olan ilişkileri kontrol etme fikri son derece ustaca ve tamamen özgün görünüyordu

ChatGPT ispatı ile Rajagopal ispatının karşılaştırılması

  • ChatGPT'nin ispatı, Rajagopal'ın özgün ispatındaki geometrik dizi bileşenlerinin ChatGPT'nin yeni bileşenleriyle değiştirilmiş hâline çok benziyor
  • Nihai yapı, çeşitli derece değerleri için yeni kümeleri birleştiriyor ve buna ek olarak aritmetik dizi ile tek bir noktanın toplam kümesinden oluşan başka bir küme ekleniyor
  • Sezgisel olarak yeni kümeler büyük toplam kümeleri, aritmetik dizi ise küçük toplam kümeleri ürettiği için, bunlar birleştirildiğinde aradaki tüm orta büyüklükte toplam kümelerinin elde edilebilmesi bekleniyor
  • Gerçek ispat oldukça karmaşık; Rajagopal'ın makalesinin 4. bölümü ile ChatGPT preprint'inin tamamını kaplıyor
  • Karşılaştırma için, söz konusu niceliğin alt sınırının en azından belirli bir derecenin kuvveti düzeyinde olduğu kolayca görülebilir, ancak gerçek değer bilinmiyor
  • Rajagopal, Tim'in ChatGPT 5.5 Pro'ya verdiği problemin tesadüfen kendi arXiv makalesine uzanmasına şaşırdığını belirtti

Matematik araştırması ve doktora eğitimi açısından anlamı

  • ChatGPT'nin 2 saat içinde bulduğu sonucun, kombinatorik alanında bir doktora tezinin gayet makul bir bölümüne denk geldiği değerlendiriliyor
  • Isaac'in fikrine büyük ölçüde dayanıyor olması nedeniyle bu bütünüyle şaşırtıcı bir sonuç değildi, ancak o fikrin önemsiz olmayan bir genişlemesiydi
  • Bir doktora öğrencisinin aynı genişlemeyi bulması için muhtemelen Rajagopal'ın makalesini özümsemesi, optimal olmayabilecek noktaları belirlemesi ve kullanılan çeşitli cebirsel tekniklere aşina hâle gelmesi için ciddi zamana ihtiyacı olurdu
  • Başlangıç düzeyindeki doktora öğrencilerine görece yumuşak açık problemler vererek yapılan araştırma eğitimi daha zor hâle gelebilir
  • Eğer LLM'ler “yumuşak problemleri” çözebiliyorsa, matematiğe katkı sunmanın alt sınırı “henüz kimsenin ispatlamadığı ve birilerinin ilginç bulduğu sonuç” olmaktan çıkıp “LLM'lerin ispatlayamadığı sonuç” yönüne kayar
  • Yeni başlayanlar da LLM kullanabildiğine göre, asıl görev LLM'nin tek başına yapamadığını LLM ile işbirliği içinde ispatlamak olabilir
  • Gowers, yakın zamanda LLM'lerle birkaç işbirliği yaptığını ve henüz oyunun kurallarını değiştiren fikirler olmasa da yararlı katkılar elde ettiğini düşünüyor

Alanlara göre farklar ve gelecekteki değişim

  • Bu değişimin diğer matematik alanlarına ne kadar genellenebileceği net değil
  • Kombinatorik, probleme odaklı olma eğilimi güçlü bir alan
    • Sorudan başlayıp geriye doğru akıl yürütür ya da ileri doğru akıl yürütse bile soruyu güçlü biçimde akılda tutar
  • Diğer alanlarda, bir fikirler uzayından başlayıp bunun nereye gittiğini görmek anlamındaki ileri yönlü akıl yürütme daha önemli olabilir
  • Böyle alanlarda ilginç gözlemleri ilginç olmayanlardan ayırabilme yeteneği gerekir ve LLM'lerin bu konuda ne kadar iyi olacağı belirsizdir
  • LLM'lere dair bugünkü değerlendirmeler, gelişim hızının yüksekliği nedeniyle birkaç ay içinde eskimiş olabilir
  • Matematik araştırmasının yapılış biçimi, özellikle de yeni araştırmacıların alana sokulma biçimi ciddi biçimde sarsılabilir
  • Gelecek akademik yılda doktora başlayacak biri en erken 2029'da mezun olur ve o zamana kadar matematik araştırmasının anlamı bugünkünden tanınmayacak kadar farklı olabilir

Matematik yapma nedeninin değişmesi

  • Matematik araştırmasını kariyer olarak sürdürmenin hâlâ anlamlı olup olmadığını soran e-postalar aldığını belirtiyor
  • Matematik problemleriyle boğuşmanın hâlâ büyük değeri var, ancak adınızın belirli bir teorem ya da tanımla sonsuza dek anılmasının verdiği haz döneminin sonuna yaklaşıyor olabiliriz
  • Eğer matematik yapmanın amacı bir tür ölümsüzlükse, bunun artık uzun süre mümkün olmayabileceğini kabul etmek gerekir
  • Bir düşünce deneyi olarak, bir matematikçi LLM ile uzun bir diyalog yürütüp faydalı bir yönlendirme rolü oynamış ama teknik çalışmanın ve temel fikrin tamamını LLM yaparak büyük bir problemi çözmüşse, bunun o matematikçinin önemli bir başarısı sayılıp sayılmayacağı kuşkuludur
  • Yanıtı zaten bilinen bir problemi çözmek de tatmin edici olabilir, ancak hayatınızdan birkaç yılı ayırmak için yeterli bir neden değildir
  • Daha iyi neden, zor problemleri çözerken kendi uzmanlık alanınızda problem çözme sürecinin kendisine dair içgörü kazanmaktır
  • Zor problemleri bizzat çözmüş kişiler, AI yardımıyla problem çözmede de daha iyi olma eğilimindedir
    • Bu, iyi bir programcının iyi olmayan birine göre vibe coding'i daha iyi yapmasına benzer
    • Temel aritmetiği iyi anlayan birinin hesap makinesini daha iyi kullanmasına, özellikle de cevap tuhaf olduğunda bunu daha kolay fark etmesine benzer
  • Matematik, aktarılabilirliği yüksek bir beceridir ve bu durum araştırma düzeyindeki matematik için de geçerlidir
  • Matematik araştırması yoluyla önceki kuşaklarla aynı ödülleri elde edemeyebilirsiniz, ancak bu sizi gelecekte gelecek dünyaya çok iyi hazırlayabilir

Eklerin teknik içeriği

  • Ek 1: h-dissociated küme inşası

    • Amaç, çapı kabaca polinomik düzeyde olan bir h-dissociated küme oluşturmaktır
    • Bu inşa, Bose–Chowla (1963) inşasının çok küçük bir varyasyonudur ve Rajagopal bunu bu makaleden öğrendiğini belirtir
    • ChatGPT preprint’inin Lemma 3.1’i moment curve kullanan farklı ve daha az verimli bir inşa kullanır
    • İnşa; asalları, sonlu cisimleri, sonlu cisim uzantılarının üreteçlerini ve her elemanı belirli üs alma gösterimleriyle eşleştirme yöntemini kullanır
    • Sınırlı derecenin altındaki toplamsal ilişkiler, üretecin üs alma ilişkilerine dönüştürülerek incelenebilir
    • Uzantı derecesi ve üreteç özellikleri nedeniyle düşük dereceli sıfır olmayan polinomları sağlamadığından, iki taraftaki polinomların aynı olması gerekir
    • Dolayısıyla söz konusu toplamsal ilişkiler yalnızca önemsiz ilişkilerdir ve küme h-dissociated olur
    • Gerekirse birkaç eleman çıkarılarak istenen boyuta indirilebilir
  • Ek 2: ChatGPT inşasının ayrıntılı yapısı

    • Sabit sabitler seçilir ve ChatGPT’nin oluşturduğu iki küme kullanılır
    • İstenen boyuta ulaşan küme inşası, dört tür bileşenin birleştirilmesiyle yapılır
      • İki parametre seçen bir tür
      • Her derece değeri için iki parametre seçen iki tür
      • Toplam eleman sayısını tutturmaya yarayan bir küme
    • Bu inşanın karmaşık olmasının nedenlerinden biri, yeterince çok sayıda farklı küme üretmek zorunda olmasıdır
    • Bunun için bir bölgedeki parametreler ile başka bir bölgedeki parametreler birlikte değiştirilir
    • Parametrelerden biri çıkarılıp geri kalanı aynı bırakılırsa, gereken sayıda küme üretmek artık mümkün olmaz
    • Derecesi 2 olan Nathanson inşası, bir Sidon kümesi, bir aritmetik dizi ve bir ek değeri birleştirir; ayrıca aritmetik dizinin boyutunu ve ek değeri belirli bir aralıkta değiştirerek gerekli kümeleri üreten daha basit bir yapıdır
    • Ek 1’deki inşa ile her derece için polinomik çapa sahip h-dissociated kümeler elde edilebilir
    • Birden fazla bileşen birleştirilirken, baz vektörleri olan kafes benzeri bir yapı kullanılır
    • Bu inşa, Rajagopal’ın Lemma 4.9’una benzer biçimde üreteç fonksiyonu çarpım özdeşliklerini garanti eder
    • ChatGPT preprint’inin standart Lemma 2.3’üne göre bu inşa, belirli bir derecenin Freiman izomorfizması aracılığıyla tamsayı aralığı altkümelerine taşınabilir
    • Yeterince büyük durumlar için tüm inşa çalışır
  • Ek 3: Rajagopal makalesi ile ChatGPT preprint’i arasındaki eşleşme

    • Rajagopal makalesinin Section 4.2’si, daha basit bir inşa kullanarak belirli değerleri gerçekleştiren kümeler oluşturur
    • Bu kümeler, elemanları polinomik büyüklükte olan bir aralığın altkümeleridir ve bu durum ChatGPT preprint’inin Section 5’inde gözlemlenir
    • Rajagopal makalesinin Section 4.3’ü, birden fazla bileşeni birleştiren temel inşayı gerçekleştirir ve ChatGPT preprint’inin Sections 2, 3, 4, 6 bölümlerine karşılık gelir
    • Rajagopal makalesinin Section 4.3.1’i, çok sayıda hareketli parçaya sahip bu bölümün genel bir görünümünü sunar
    • Rajagopal makalesinin Section 4.3.2’si, bileşenlerin nasıl birleştirildiğini açıklar; Rajagopal buna disjoint union der
    • Üreteç fonksiyonları, kümelerin birleşim boyutunu izlemek için bir muhasebe aracı olarak tanıtılır; bu da ChatGPT preprint’inin Section 2 ve Section 4 bölümlerine karşılık gelir
    • Rajagopal makalesinin Section 4.3.3’ü, her bileşen kümesinin üreteç fonksiyonunu hesaplar ve Lemma 4.15 ile Lemma 4.17’yi içerir
    • Bu, ChatGPT preprint’inin Section 3 ve Section 6.1 bölümlerine karşılık gelir; ChatGPT preprint’inde bir üreteç fonksiyonu Lemma 3.3’te, diğeri ise Lemma 3.4’te hesaplanır
    • Üreteç fonksiyonları hesaplandıktan sonra, kanıtın geri kalanı Rajagopal makalesi ile ChatGPT preprint’inde neredeyse aynıdır
    • Rajagopal makalesinin Section 4.3.4’ü, inşa edilen kümeler değiştirildiğinde birleşim boyutu değerlerinin mümkün olan tüm değerleri aldığını gösterir
    • Temel nokta, mümkün değerler kümesinin tek bir aralık oluşturması ve belirli bir eşik değerden küçük olan tüm sayıları ve o eşik değerin kendisini içermesidir

1 yorum

 
GN⁺ 1 시간 전
Hacker News yorumları
  • 5.5 Pro’yu kısa süre kullanmış biri olarak deneyimim bununla örtüşüyor. İlk kez, sıkıcı ama net bir problemi gerçekten çözmeye zorlayabildiğiniz bir LLM gibi hissettirdi
    Hâlâ çok hata yapıyor ve çok sıkı yönlendirilmesi gerekiyor ama diğer modellerden farklı olarak kendi akıl yürütmesini takip edip kendini düzeltme becerisi epey iyi
    Dezavantajı maliyet. Çılgın gibi token harcıyor ve token birim fiyatı da pahalı; büyük problemleri yüksek doğrulukla çözmeye çalışmak için alt ajan akışları kullanırsanız daha da pahalı oluyor
    Büyük ölçekli problemlerde bağlam sınırı yüzünden çok daha yavaş da olabiliyor. Her parçada bağlamı yeniden bulması gerekiyor ve doğruluk için bir sonraki küçük parçaya geçmeden önce bağlamı temizlemek ya da daha fazla ajan çalıştırmak gerekiyor
    Matematiksel ispatlar gibi, problem ve ispatı anlamak için gereken ek bağlamın küçük olduğu ve problemin “önemli” sayıldığı durumlarda işe yarayabilir ama büyük bir kod tabanında kod doğruluğunu kontrol etme ya da ince varsayımları doğrulama konusunda belirgin sınırları var
    Bu yüzden 5.5 Pro’yu sınırsız kullanabilecek kadar şanslı biri değilseniz, bu tür modellerin etkileyici yeteneklerinin programcıların günlük hayatına işlemesi biraz zaman alacak gibi görünüyor

  • Yazı uzun; teknik matematik bölümleriyle felsefi bölümler iç içe geçmiş ama özellikle etkileyici olan nokta, doktora başlangıç eğitiminin daha zor hâle gelmiş olması
    Eskiden nispeten yumuşak araştırma problemleri vererek başlanabiliyordu ama LLM’ler böyle “yumuşak problemleri” çözebiliyorsa artık o seçenek kalmıyor
    Matematiğe katkı için alt sınır artık “henüz kimsenin ispatlamadığı ve ilginç olan şey” değil, “LLM’in ispatlayamadığı şey” oluyor
    Yine de eğitim hâlâ temelden başlamak zorunda. Herkes küçük tamsayılarla toplamayı öğrenerek başlıyor ve hesap makineleri bunu hatasız şekilde çok uzun zamandır yapabiliyor
    Yazının başka bölümlerinde de söylendiği gibi, zor problemleri bizzat çözmek problem çözme sürecinin kendisine dair içgörü kazandırıyor; zaten zor problemleri çözmüş kişilerin yapay zekayı daha iyi kullanma ihtimali de yüksek
    Kodlama, insanların para kazanmak için kullanılacak şeyler üretmesi demek; bu yüzden yapay zekayla daha hızlı teslimat yapıp işte kalmak mümkün olabilir ama matematiğe de aynı gözle bakılabilir mi, emin değilim
    Eğer LLM temel fikirleri ve teknik işi yapıyor, matematikçi sadece faydalı yönlendirme sunuyorsa, bunu matematikçinin büyük bir başarısı sayıp saymayacağımız şüpheli

    • Zor problemleri bizzat çözmek sadece başka problemleri daha iyi çözmeyi sağlamaz; o problemin kendisini de çok daha derin anlamanızı sağlar
      Şirketlerde de insanlar işleri LLM’e devredince sonuç her zaman kötü olmayabiliyor, bazen kabul edilebilir de olabiliyor; ama o iş artık o kişinin işi olmuyor
      Bu yüzden yazar, o işi başkalarından daha iyi bilen ya da anlayan kişi olmuyor; ona sahip çıkamıyor, açıklayamıyor da. Kelimenin tam anlamıyla sadece bir geçiş noktası oluyor ve değeri kayboluyor
    • Belki de tam tersine, bunu da büyük bir başarı saymak gerekir
    • Bence iki ana nokta biraz kaçırılıyor. Temelden öğrenmek gerektiği doğru ama belli bir noktada, örneğin doktoraya başlarken, artık temel öğrenimi değil araştırma yapmanız gerekir
      LLM “kolay araştırmayı” çözerse bu süreç daha da zorlaşır
      Yavru aslanlar birbirleriyle dövüşüp oynayarak ileride avlanmayı öğrenir; birden TikTok çıkıp artık oynamazlarsa ilk av çok daha zor olur
      Yapay zekayla daha hızlı teslimat yapıp para kazanmak da doğru ama bu, iyi bir kodlayıcı olma meselesinden farklı. İyi bir kodlayıcı olmazsanız sürekli kötü vibe coder olarak kalırsınız
    • Bu gerçekten önemli mi? Ve felsefi olarak önceki bilgisayar destekli ispatlardan o kadar farklı mı?
  • Baez’in ilginç noktası, düşüncenin ve derin fikirlerin değerinin nereden geldiği sorusu
    Eğer bu değer esas olarak kıtlıktan, yani bazı fikirleri üretmenin zor olmasından geliyorsa, fikir üretimi otomatikleştiğinde değer sert biçimde düşebilir
    Ama değer fikirlerin faydasından, yani getirdikleri yarardan geliyorsa mesele değişir. Daha iyi fikirleri daha çok üretmek aslında daha iyi olabilir
    Matematikçilerin kıtlık ekonomisinden bolluk ekonomisine geçişe uyum sağlaması gerekebilir
    https://gowers.wordpress.com/2026/05/08/a-recent-experience-...

    • Üç tür matematikçi var. Birincisi saf problem çözücüler; Tao bunun temsilcisi ve bunların para birimi ilginç problemler ile çözümleri
      İkincisi saf teori kurucular; Conway bunun temsilcisi ve teoremlerden çok teori ve fikirlerle ilgilenip matematiğin sınırlarını genişletmeye çalışıyorlar
      Üçüncüsü uygulamalı matematikçiler; matematiği amaç için araç olarak görüyor, matematik dışındaki problemleri matematikle çözmek istiyorlar
      İlk grup olan problem çözücüler yapay zekadan en hızlı tehdit görecek grup gibi duruyor. Gerçi yapay zeka şimdilik yeni varsayımlar bulmaktan çok problem çözmede daha güçlü
      İkinci grup olan teori kurucular daha uzak gelecekte tehdit altında. Şu ana kadar yapay zekanın yeni ve ilginç matematiksel fikirler üretme becerisi sınırlı ve bunun nasıl eğitileceğini de kimse bilmiyor
      Üçüncü grup ise yapay zekadan en çok fayda sağlayabilir. Yapay zeka matematiksel soruları cevaplayabildiğinde, matematiğe daha az zaman harcayıp matematikle çözmek istedikleri dış problemlere daha çok odaklanabilirler
    • Yeni bir şeyi zorlayanlar sanki hep aynı çevrimiçi yorumcular oluyor. Büyük akademisyenler için bile bu böyle
      Buna karşılık Wiles ve Perelman internetten uzak durup gerçek problemleri çözdü
  • Bir fizik profesörü olarak Gemini’yi makale kontrolünde sık kullanıyorum ve güçlü bir araç
    Günlerce bulamadığım, karmaşık denklemlerde eksik kalan imajiner birim gibi bürokratik hataları yakaladı; ayrıca gözden kaçırdığım kavramlar ile fikirler arasındaki bağlantıları da sık sık gösteriyor
    Ama kavramsal hataları da çok oluyor; bunu da ancak konuyu iyi bildiğim için fark edebiliyorum. Mesela 3 boyutlu Clifford cebrinde bivector üstel ile pseudoscalar üstelini tekrar tekrar karıştırıyor
    ChatGPT 5.5 Pro’nun yayımlanabilir bir makale üretebileceğini anlıyorum ama şimdiye kadar Gemini’de gördüğüm kadarıyla LLM’leri, makale ve kitapları çok hızlı okuyabilen son derece verimli bir öğrenci gibi görüp yine de ciddi rehberlik gerektirdiğini kabul etmek daha doğru

    • Yukarıdaki deneyim, GPT-5.5 Pro’ya daha yakın olan Deep Think modu değil, “normal” Gemini 3.1 Pro ile yapılmış gibi görünüyor. Normal 3.1 Pro bir kademe daha aşağıda ve daha sık hata yapıyor
      Üstelik 3-4 yıl önce lise matematiğini bile istikrarlı biçimde çözemeyen LLM’lerin ilerlemesinin şimdi durması için bir neden yok
      CritPt benchmark’ı yayımlanmamış araştırma düzeyinde fizik problemlerinden oluşuyor; takip etmeye değer
      https://critpt.com/
      En öndeki modeller hâlâ çözümden uzak ama ilerleme hızlı. o3 high 1,5 yıl önce %1.4’tü, GPT 5.4 xhigh %23.4, GPT-5.5 xhigh %27.1, GPT-5.5 Pro xhigh ise %30.6
      https://artificialanalysis.ai/evaluations/critpt
    • “Mentorluk” ifadesi antropomorfik; insanı farkında olmadan modelin öğreneceğini düşünmeye itiyor. Oysa gerçekte öğrenmiyor ve LLM kadar zeki görünen bir şeyin öğrenmediğini sürekli akılda tutmak insanlar için epey zor
      Ben de aynı hatayı durmadan yapıyorum
      LLM’in hafızasını özel prompt’lar ve talimatlarla elle yönetmek zorunda olmanın sinir bozucu olmasının nedenlerinden biri de bu
      Uzun süreli hafıza özelliğini henüz düzgün kullanmadım ama prompt’tan bile daha az güvenilir olmasından endişe ediyorum. 1-2 yılda o kadar çok şey değişiyor ki o “hafıza”yı muhtemelen defalarca yeniden kurmak gerekecek
    • LLM’ler, çıktıyla ilgili bir beklentiniz olduğunda en iyi çalışıyor. Yani genel olarak doğru cevabın nasıl görünmesi gerektiğini biliyorsanız, satır satır değil sezgisel olarak değerlendirme yapabiliyorsunuz
      Beklentiniz yoksa her şeyi olduğu gibi kabul etmek zorunda kalıyorsunuz ve o anda kendinizi makinenin insafına bırakmış oluyorsunuz
    • Fizik profesörü değilim ama kıdemli mühendislik tarafında aracı kullanma biçimi buna benziyor
      Temelleri getirip aceleci ajanları sanity check’ten geçiriyor, başkalarının da aynı şeyi yapabilmesi için o temelleri onlara kazandırmaya çalışıyorum
      Sonunda bunun, şirketler bir gün yönetilebilir daha küçük yerel modellere geçmedikçe, işlerin yürümesinin tek yolu olduğu hissine kapılıyorum
    • LLM’ler işi hep pembe ve inandırıcı gösteriyor, devam ederseniz daha fazlasını da yapabileceklerini söylüyor
      Doğru çıkma ihtimaliyle sizi uçurumdan atma ihtimali yarı yarıya ama yolculuk her zaman güzel bir 5 yıldızlı deneyim gibi paketleniyor
      Hataları bulup LLM’e söylerseniz çoğu zaman daha da kötüleşiyor. Çünkü LLM memnun etmeye çalışırken özür diliyor ve yön değiştiriyor
      Böyle bir noktaya geldiğimde genelde oturumu kaydedip kapatıyor, baştan yeniden başlıyor ya da oldukça sert bir rota değişikliği yapıyorum
      Benim için Gemini en öngörülemez LLM; genel olarak en iyi anlaştığım ise GPT
      Yakın zamanda Gemini aynı soruya iki farklı cevap verdi. Bunu özellikle yeni bir sohbet açıp aynı prompt’u yapıştırarak test etmiştim
      Kodlama tarafında muhakeme özelliği çok yardımcı olmuyor. Çünkü LLM’in açıklamaları çok üst düzey oluyor ve biçimsel olarak doğru görünüyor
      Hatta LLM yüzünden daha çok Google’lama yapar oldum. Sonuçta biri, düğmeye basmadan önce benim doğrulamam gereken bir şey üretmiş oluyor; o parlak düğmenin çalışacağını mı yoksa beni cehenneme mi götüreceğini ancak biraz sonra anlıyorsunuz
  • Bir matematikçi LLM ile uzun bir konuşma yapıp faydalı yönlendirmeler sunmuş ama teknik işi ve temel fikirleri LLM üretmişse, bunu matematikçinin büyük başarısı sayıp saymamak kültürel bir tercih
    Mevcut matematik kültüründe bunun garip gelmesi doğal ama başka alanlarda ya da birçok bireysel bakışta, insanın da büyük bir katkı yaptığı düşünülebilir
    İnsan-AI işbirliği en iyi sonuçları verdiği sürece insanın anlamlı katkısı vardır; derin uzmanlığı olan ve LLM’i ustaca yöneten biri büyük katkı sunabilir
    Asıl değişim, saf AI hem insanı hem de insan-AI işbirliğini geçtiğinde gelir

    • Araba yarışlarında performansın çoğu araçtan gelir ama biz sürücüyü överiz. İki aracın performansı benzer olduğunda sürücünün becerisi ya da hatası fark yaratır. Binicilikte de benzer bir durum var
      Matematikte de insan LLM’i doğru yola sokabiliyor, belirli bir probleme ya da başka bir probleme yönlendirebiliyor; bu yüzden bir miktar övgüyü hak ediyor
      Arabayı yapan ekip, atla ilgilenen kişi ya da AI’yi geliştiren ekip daha büyük övgüyü hak ediyor olabilir ama biz genelde en görünür tek kişiye daha çok odaklanıyoruz
    • Bu tartışma bana AI görselleri ve komediyi hatırlatıyor
      Bir görsel insanları güldürüyorsa, prompt’u yazan kişi üretim işinin büyük kısmının kredisini almaz ama ilk fikir ve çeşitli taslaklar arasından belirli sonucu seçen zevk için kredi alabilir
      Bir matematikçi, LLM’in “ürettiği” şaşırtıcı bir sonuca ulaştıysa, prompt verme ve yönlendirme konusunda bir miktar kredi alabilir diye düşünüyorum
      Ama asıl soru, ilk kişiye sanatçı değil de komedyen denebilse bile, o matematikçinin hâlâ matematikçi mi yoksa başka bir şey mi olduğudur
    • Diyelim ki biri bir prompt buldu ya da konuşmayı otomatikleştirip tüm açık matematik problemlerini taradı; yine de yararlı sonuçlar üretip kimseye zarar vermediyse bunun değerli bir insan faaliyeti olduğunu ve ödüllendirilmesi gerektiğini düşünüyorum
      Diğer matematikçilere verilen ödül kadar verilmesi yeterli. Tabii bu durumda çok sayıda milyarder matematikçi olurdu; dolayısıyla o ödül epey büyük olurdu
    • Matematikçinin büyük başarısı olmayabilir ama yine de büyük bir sonuç olur
  • “Matematik yapmanın amacı bir tür ölümsüzlük kazanmaksa, bu artık çok uzun süre mümkün olmayabilir” cümlesi biraz hüzünlüydü

    • Dün YouTube’da ‘21’ (2008) filmini ücretsiz izledim
      Filmin girişinde MIT kampüsünde koşuşturan öğrenciler, yüksek öğrenimin vaatleri ve statüsü çok baskın biçimde gösteriliyordu
      Yapay zekaya ne kadar çok şeyin devredileceğini fark edince benzer bir hüzün hissettim
      [0] - https://youtu.be/0lsUsWdkk0Y?si=TJl7f_b1RcWcDqF8&t=278
    • Bu cümle denemedeki en ilginç şeydi. Akademik matematik kariyerinden hemen vazgeçtiğim zamanı hatırlattı; 19-20 yaşlarındayken o alanda dünya çapında olamayacağımı düşünmüştüm. Gerçekte de öyleymiş
      Sonraki düşüncem “Peki ben neyde iyiyim?” oldu ve bunun içinde en azından “Neyde dünya çapında olabilirim?” ya da “Neyi çok iyi yapabilirim?” soruları vardı
      Ben hiçbir zaman, bir sonuca adımı verip benden daha uzun yaşayacak bir şey bırakarak matematiksel ölümsüzlük kazanacak kadar başarılı olacağımı düşünmedim ama öyle düşünseydim bu kötü haber benzer bir sarsıntı yaratabilirdi
      Yine de sınırda şu varsayıma katılmıyorum: Ne kadar çok ispat yardımcısı ya da küme hesaplama kullanılırsa kullanılsın, Riemann hipotezini ispatlayan ekip ya da kişi ünlü olacaktır. En azından matematik dünyasında ünlü olur
    • Bunun o kadar da hayal kırıklığı yaratacak bir şey olduğundan emin değilim. Büyük matematikçilerin çoğunun bunu gerçekten ölümsüz olmak için yaptığını sanmıyorum
      Muhtemelen çoğu, matematik → fizik → mühendislik hattındaki dolaylı pratik uygulamaları hedefliyordu ya da sadece matematiğin güzelliği ve entelektüel haz için yapıyordu
      AI pratik uygulamaları da üstlenebilir ama diğer yönler hâlâ yaşanabilir
    • Aynı cümleyi her türlü insan başarısı için de tekrar edebilirsiniz
  • Bir yüksek lisans/doktora öğrencisi olarak bu yazı beni üzdü. Yaptığım işin, ben geçip gittikten sonra da, bu kozmik deneyimde bana verilmiş sınırlı sürenin ötesinde bir şey söyleyeceğine inanıyordum
    Böyle bir ölümsüzlük hissi, lisansüstü eğitime atılırken beklediğim küçük ve soyut bir bonus gibiydi; ama AI yüzünden kendimi daha az değerli hissediyorum

    • Yolda çok daha ilerlemiş biri olarak, nazikçe söylemek isterim ki bu düşünceyi bırakmanız daha iyi olabilir. Çok zeki ve çok hırslı insanların bu düşünce yüzünden depresyona sürüklendiğini fazla gördüm
      Bir işi yapabiliyor olmak, o işi yapmaya değer kılar. Umarım onu sevdiğiniz için ve gizemi sevdiğiniz için yaparsınız
      Onu yapabildiğiniz her anın tadını çıkarın. Tatmin vermeyen işlerde sürünen insanlardan farklı olarak, böyle bir işi yapabilecek kadar şanslı olmanın sevincini bulun
      Bazen sıkıcıdır ama bazen de başlı başına inanılmaz derecede ödüllendiricidir
      Ama ebedi şan ihtimali için çalışmayın. Böyle bir şey artık yok
    • Fazlasıyla değerli. Lisansüstü eğitimde becerilerinizi keskinleştirirseniz, uzun süre zor problemlerle boğuşmamış insanlara göre bu AI’leri daha iyi yönetebilirsiniz
    • “Eğer zekâyı diğer tüm insani niteliklerin üstünde değerlendiriyorsanız, zor zamanlar geçirirsiniz.” - Ilya Sutskever, 2023
    • Bu gerçeklikte, LLM’lerin kendi başına keşfedebileceğinden çok daha fazla öğrenilecek şey var. Özellikle gerçek, etik ve ahlak konusunda bu daha da doğru; ve bu dünyadan ayrılırken sonunda önemli olan da bunlar
      Bundan daha büyük bir meydan okuma yok
    • Bana göre cesaret, tuhaf bilimsel atılımlardan daha iyi şekilde zamanı aşar. Böyle atılımlar çoğu zaman tek bir kişiye yazılır ama kökleri çoğu kez adı bilinmeyen, “daha az önemli” insanlara dayanır
  • Doğu Avrupa’da teorik bilgisayar bilimi alanında yardımcı doçent olarak, matematik dünyasının büyük isimlerinin pahalı uzun muhakeme modellerine bu kadar kolay erişebilmesini hep biraz kıskandım
    Mevcut akademik bütçeyle burada Pro ödemek gerçekçi değil. Bütçeler kullanım amacıyla çok sıkı bağlı ve yazılım ödemeleri için uygun kalem neredeyse yok
    Pratikte yeni bir araştırma hibesi başvurusu yapmanız, kuralların büyük yazılım harcamalarına izin vermesini sağlamanız ve AI karşıtı hakemlere denk gelmemeniz gerekiyor. Bu süreç en az 1 yıl sürüyor
    Yetmezmiş gibi Microsoft son dönemde Copilot’un bireysel ve akademik kullanımını sıkılaştırınca Claude Opus erişimi de kesildi
    ChatGPT 5.5 Plus ise yeni araştırma konularına derin dalış yapmak için yeterli görünmedi; bunu bizzat denedim

    • @NotOscarWilde e-posta bırakırsanız size ulaşırım. OAI’de çalışıyorum ve birkaç ay boyunca 5.5 Pro kullanabilmeniz için bir Pro hesabı ayarlayabilirim
    • Bizim üniversitede ortak bir AI hizmeti yakın zamanda devreye girene kadar herkes AI aboneliklerini cebinden ödüyordu
      O sistemi kurmak 2 yıl sürdü ve sadece gpt-oss-120b sunduğu için herkes yine başka servisler kullanıyor
      Ama artık bazı yöneticiler üniversite sitesinin her yerine “AI” kelimesini serpiştirebiliyor ve “zaten AI var” diyerek yeni AI aboneliği taleplerini reddetmek için bahane bulabiliyor
    • En avantajlı konumdakilerin, ödülleri toplamaya devam etmek için de en avantajlı konumda olmasının tipik bir örneği bu
      Fakirle zenginin çizme satın alması örneği vardır. Fakirin çizmeleri çabuk yıpranır ve sürekli yenisini alması gerekir; zenginin çizmeleri ise daha kaliteli olduğu için yıllarca gider
      Zamanla fakir kişi çizmeye daha fazla para harcamış olur
    • OpenRouter abonelik olmadan token başına ücretlendirme sunuyor ve Opus 4.7 ile GPT-5.5 dahil çoğu frontier modeli sağlıyor
      Tutumlu kullanırsanız genelde oldukça ucuza geliyor
    • Bildiğim kadarıyla ChatGPT 5.5 Pro’ya erişim aylık 100 dolara mümkün; o konum ve bölgede bunun karşılanması gerçek dışı mı, merak ettim
      Üniversite ödemese bile kendi hedefleriniz için kullanmak isteyeceğinizi düşünürdüm
      Yargılamak için sormuyorum; sadece o bölgedeki araştırmacıların çoğu için tamamen erişilemez bir fiyat olup olmadığını merak ediyorum
  • Yaklaşık 10 yıl önce Seattle’daki AMS-MAA ortak toplantısında Tim Gowers’ın bir konuşmasını dinlemiştim; 100 yıl sonra insanların artık araştırma matematiği yapmayacağını öngörüyordu. Acaba şimdi takvimi revize etti mi
    O zamanlar bana göre kritik biçimde eksik olan araç, MathOverflow gibi çalışan doğal dil aramasıydı. Yani bir problemi ya da fikri kendi anladığınız şekilde anlatıp, kendi deneyiminiz ya da kelime dağarcığınız dışında kalan ilgili literatürü bulduran bir sistem

    • Teichmüller de Almanya’nın II. Dünya Savaşı’nı kazanacağını düşünüp doğu cephesine gönüllü gitmişti
      Büyük matematikçi olmak her konuda haklı olmak demek değil. Hatta matematikçilerin oldukça tuhaf teorileri olduğu da sık görülür
  • Bu sonbaharda yükseköğretime başlayacak öğrencilerin ezici çoğunluğu, araştırma yapsalar bile, bilime büyük katkı sağlayacak düzeye ancak 4-5 yıl sonra gelebilir. Doktora sürecinin gerçekten hızlandığı noktaya bakarsak bu pratikte 6-7 yıl demek
    5-7 yıl önceki model seviyelerine baktığınızda, o zamanlar doktora için varoluşsal tehdit gibi bir şey radarın bile yakınında değildi. Şimdi doktorasını bitirenler bu araçlardan gerçekten faydalanabilen ilk nesil
    Artık araştırmacı olmak isteyen öğrencilerin yenilmişlik hissine kapılıp vazgeçmesi ya da işi tamamen AI modellere yüklemesi sorun yaratacaktır
    Doktora pozisyonlarının finansmanı için de aynı şey geçerli. Destek “araştırmacı yetiştirme”den “sonuç üretme”ye kayarsa, doktora öğrencilerine giden para hesaplama kaynaklarına akabilir
    Alaycı bir bakışla, bazı araştırmacılar birkaç yıl öğrenci yetiştirmek yerine hesaba kitaba para yatırıp çok daha fazla makale çıkarabilir
    İlginç zamanlar ama belirsizlik fazla büyük. Şu anda ne yapacağına karar vermek zorunda olan öğrenciler için üzülüyorum

    • Bu zaten oluyor ve daha da hızlanacak. Lisansüstü eğitim dışında da artık diploma satın alabiliyorsunuz
      Özellikle daha yumuşak alanlarda doktora tezi ve iyi bir yayın geçmişi bugün bile satın alınabiliyor
      Akademide değilseniz, sanayide terfi de satın alınabilir. İşveren tüm çalışanlara AI bütçesi veriyorsa, siz terfi alana kadar sessizce kendi cebinizden bu bütçeyi ikiye katlar, sonra terfi gelince bunu kesip daha yüksek maaşın keyfini sürersiniz
    • Doktora öğrencileri zaten AI modelleri kullanarak iş yaptırıyor. Tanıdığım doktora adaylarının çoğu aylık 200 dolarlık Claude Max planını sonuna kadar kullanıyor
      Bunun daha önce mümkün olmayan araştırmaları mümkün kıldığını görüyorum
      AI kullanımının doğrudan kod yazma becerisini bir miktar aşındırdığını da görüyorum ama bunu scikit-learn ya da Pytorch ile makine öğrenimi modeli yazmaya benzetiyorum
      En alt düzey ayrıntılar soyutlanıyor ve AI olmadan çok şey yapılamıyor olabilir ama o araştırma yine de o kişi sayesinde oluyor; sadece AI ile kendi başına olmazdı
    • Kurumlar bugüne kadar doktora öğrencilerine zaten para saçmıyordu
      Sonradan eklenen bir bütçe kalemine daha yakın olan bu para, pahalı ve başka süreçler için çekip alınacak kadar cazip bir hedef değil