1 puan yazan GN⁺ 2026-01-08 | 1 yorum | WhatsApp'ta paylaş
  • "Sağlık ve wellness için tasarlanmış yeni ChatGPT"
  • Kişisel sağlık bilgileri ile ChatGPT'nin yapay zekasını güvenli biçimde bağlayarak sağlık durumunu anlamayı ve yönetmeyi destekleyen bir hizmet
  • Tıbbi bilgilerin korunması için şifreleme ve ayrıştırılmış mimari uygulanıyor; sağlıkla ilgili sohbetler model eğitiminde kullanılmıyor
  • Elektronik sağlık kayıtları (EHR) ile Apple Health, MyFitnessPal gibi wellness uygulamaları entegrasyonu üzerinden kişiselleştirilmiş sağlık önerileri sunuyor
  • Dünya genelinde 260'tan fazla sağlık çalışanıyla iş birliği yapılarak klinik ölçütlere dayalı HealthBench değerlendirme sistemiyle model kalitesi doğrulandı
  • Tıbbi hizmetlerin yerini almak yerine onları tamamlıyor; gizlilik ve güvenilirlik odaklı bir sağlık yönetim aracı olarak geliştirildi

ChatGPT Health genel bakış

  • ChatGPT Health, kişinin sağlık verilerini ChatGPT ile güvenli şekilde bağlayarak sağlık durumunu anlamaya ve sistemli biçimde yönetmeye yardımcı olan bir hizmet
    • ChatGPT'nin gizlilik, güvenlik ve veri kontrol çerçevesi temel alınarak tıbbi bilgilerin korunmasına yönelik ek önlemler uygulanıyor
    • Sağlıkla ilgili konuşmalar, şifreleme ve ayrıştırılmış yapı sayesinde özel olarak yönetiliyor
  • Kullanıcılar tıbbi kayıtlarını ve wellness uygulamalarını ChatGPT'ye bağlayarak test sonuçlarını yorumlama, randevuya hazırlık, beslenme ve egzersiz planlama gibi işlemleri yapabiliyor
  • Hizmetin amacı sağlık profesyonellerinin sunduğu bakımı tamamlamak; tanı veya tedavinin yerini almıyor

Sağlık bilgisinin kullanım durumu

  • ChatGPT hâlihazırda sağlık alanında en çok kullanılan hizmetlerden biri; her hafta 230 milyondan fazla kişi sağlıkla ilgili sorular soruyor
  • Sağlık bilgilerinin farklı platformlara dağılmış olması nedeniyle kullanıcıların genel durumu kavramakta zorlanması sorununu çözmeye yönelik bir girişim
  • ChatGPT Health bu yaklaşımı genişleterek kullanıcı bağlamını yansıtan yanıtlar sunuyor

Temel özellikler ve entegrasyonlar

  • Elektronik sağlık kayıtları (EHR), Apple Health, Function, MyFitnessPal ve diğer hizmetlerle entegre olabiliyor
    • ABD'de b.well ağı üzerinden güvenilir tıbbi veri entegrasyonu sağlanıyor
    • Tıbbi kayıtlara erişim yalnızca 18 yaş ve üzerindeki kullanıcılara sunuluyor
  • Uygulamaların ChatGPT Health'e dahil edilmeden önce güvenlik incelemesi ve minimum veri toplama gerekliliklerini karşılaması gerekiyor
    • Kullanıcılar istedikleri zaman uygulama bağlantısını kesebiliyor; bağlantı kesildiği anda veri erişim yetkisi sona eriyor
  • ChatGPT Health içindeki konuşmalar ve dosyalar, varsayılan sohbetlerden ayrı özel bir bellekte saklanıyor
    • Dış sohbetlerde Health verilerine erişilemiyor
    • Kullanıcılar Health arayüzünden veya ayarlardan verilerini görüntüleyip silebiliyor

Gizlilik ve güvenlik

  • ChatGPT Health, güçlendirilmiş gizlilik altyapısı uygulanan ayrı bir alan olarak işletiliyor
    • Sohbet içerikleri model eğitiminde kullanılmıyor
    • Hem depolama hem iletim aşamasında şifreleme uygulanıyor
  • OpenAI, genel ChatGPT deneyiminde geçici sohbet özelliği ve 30 gün içinde veri silme seçeneği sunuyor
  • Health sohbetleri, ChatGPT'nin genel sohbetlerinden farklı olarak tıbbi verilere özel şifreleme sistemi ve izole yapı ile yönetiliyor

Sağlık çalışanlarıyla iş birliği ve değerlendirme sistemi

  • OpenAI, 2 yılı aşkın süredir dünya genelinde 60 ülkeden 260'tan fazla sağlık çalışanıyla iş birliği yaptı
    • 30 odak alanda 600 binden fazla geri bildirim toplandı
    • Sağlık çalışanları, ChatGPT'nin yanıtlarının ne zaman faydalı ve ne zaman riskli olabileceğini inceledi
  • Bu iş birliğinin sonuçları model tasarımına ve yanıt biçimine yansıtılarak açıklık, güvenlik ve bakımla bağlantılılık güçlendirildi
  • Model, HealthBench değerlendirme çerçevesi üzerinden klinik ölçütlere göre doğrulandı
    • HealthBench, sağlık çalışanlarının doğrudan yazdığı değerlendirme ölçütlerine dayanarak gerçek klinik karar verme yaklaşımını yansıtıyor
    • Yanıt kalitesi; güvenlik, açık anlatım ve kişisel bağlama saygı gibi unsurlar üzerinden ölçülüyor

Kullanım örnekleri ve erişim yöntemi

  • Kullanıcılar, ChatGPT kenar çubuğundan Health'i seçerek erişebiliyor
    • Dosya yükleme, uygulama entegrasyonu, araçlar (+) veya ayarlardaki 'Uygulamalar' menüsü üzerinden veri bağlanabiliyor
  • Health sohbetleri, ChatGPT'nin genel özelliklerini aynen destekliyor; buna arama, sesli mod ve dikte de dahil
    • Örnek sorular: "Kolesterol seviyem nasıl değişiyor?", "Randevudan önce kan tahlili sonuçlarımı özetler misin?"
  • Kullanıcılar Health sohbetlerine kişiselleştirilmiş yönergeler ekleyerek ChatGPT'nin yanıt tarzını ve hassas alanları ayarlayabiliyor
    • Kişiselleştirilmiş yönergeler yalnızca Health sohbetlerine uygulanıyor ve istenildiği zaman düzenlenip silinebiliyor

Hizmet sunumu ve genişleme planları

  • Şu anda sınırlı sayıdaki erken kullanıcıya öncelikli olarak sunuluyor; bekleme listesine kaydolarak erişim mümkün
  • Önümüzdeki birkaç hafta içinde web ve iOS'ta geniş çaplı yayına açılması planlanıyor
  • Elektronik sağlık kaydı entegrasyonu ve bazı uygulamalar yalnızca ABD'de sunuluyor; Apple Health entegrasyonu için iOS gerekiyor
  • OpenAI, gelecekte veri entegrasyonunu ve içgörüleri genişleterek kullanıcıların sağlık durumlarını ve seçeneklerini daha iyi anlamalarına yardımcı olmayı planlıyor

1 yorum

 
GN⁺ 2026-01-08
Hacker News görüşleri
  • Amcam denge sorunları ve konuşma bozukluğu yaşıyordu. Doktorlar demans teşhisi koyup eve göndermişti ama durumu giderek kötüleşiyordu. Bunun üzerine semptomları ChatGPT'ye (ya da Gemini'ye) girip en olası 3 hipotezi sorduk; ilki demansla ilgiliydi, ikincisi ise başka bir hastalıktı. Bunu alıp aile hekimine gittik ve diğer iki olasılığı da incelemesini istedik; sonunda ikinci hipotezin doğru olduğu ortaya çıktı. Ameliyattan sonra tamamen iyileşti

    • Böyle anekdotları çok duydum. Kötü niyetli değilim ama bu tür vakaların aşı karşıtı hareket gibi irrasyonel inançları güçlendirmesinden endişe ediyorum. Tıp dünyası bu tür hikâyelere yanıt vermezse güven kaybedebilir. Yanlış teşhisin ne kadar sık yaşandığını ve LLM'lerin gerçekte ne kadar yardımcı olduğunu merak ediyorum
    • LLM kullanırken “ne yapmalıyım” diye sormaktan ziyade bu sorunun alternatifleri nelerdir diye sormak çok daha faydalı. En iyi k yanıtı alınca daha derin araştırma yapılabiliyor
    • Pratisyen hekimler problem çözmekten çok ezbere dayalı eğitim alıyor. Gerçek anlamda problem çözmede iyi olan doktorların çoğu uzman hekimlerdir
    • Acaba bu hastalık normal basınçlı hidrosefali (NPH) miydi diye düşündüm. Ameliyat da beyin omurilik sıvısını boşaltan bir VP şant olabilir. Semptomlar olan idrar kaçırma, denge bozukluğu ve bilişsel gerilemeyi “Wet, Wobbly, Wacky” diye ezberleten bir tıbbi mnemonik var
    • Amcanın iyileşmesine sevindim. Diğer iki hipotezi ve nihai tanıyı paylaşabilir misin diye merak ettim
  • Kuzenim psikiyatrist olarak kendi kliniğini açtı; bu tür yapay zeka tıbbi araçlarının onun geçimini tehdit edip etmeyeceğinden endişeliyim. Hastaların telefon, e-posta ve sigorta prosedürlerinden geçmesi gerekiyor ama yapay zeka anında konuşabiliyor. Reçete yazılması gereken durumlar dışında kolaylık açısından insan doktorların rekabet etmesi zor. ABD insanların bakımını üstlenmek istiyorsa sağlık sistemini tek ödeyicili sistemle sadeleştirmeli

  • Tıbbi yazılım geliştirme deneyimim var; olasılıksal sistemleri tıpta kullanmak alarm işareti. Hastanelerdeki ilaç etkileşimi denetleyicileri mutlaka deterministik olmalı. Aynı girdiye aynı sonucu vermeli ve başarısızlık durumunda insanların hayatı söz konusu

    • Ama tıbbın kendisi özünde deterministik değil. İlaçlara verilen yanıt hastadan hastaya değişiyor. ChatGPT'nin deterministik olmaması da doktor-hasta etkileşimi gibi daha üst bir seviyede yönetilmeli. Yapay zeka olasılıklar sunar, doktor ise bunları doğrulamalı
    • Yine de ABD'de sağlık maliyetleri devlet düzenlemeleri nedeniyle sürekli artarken, iyi kurulmuş deterministik sistemlerle maliyet düşüşü ve erişim artışı sağlanabilir belki
  • ChatGPT 9 ay boyunca bende ADHD olduğunu varsaydı. Oysa yok. Bu bilgiyi ne zaman edindiğini sorduğumda somut bir gerekçe gösteremedi. Sonunda özür diledi ve bu özelliği unutacağını söyledi ama bence bu durum toplu davalık

    • Muhtemelen tek bir sohbet içinde halüsinasyon sonucu ADHD'den söz etmiştir. ChatGPT oturumlar arasında hafızayı bağlayamaz
    • Reddit gibi yerlerde insanlar sık sık kendi kendine teşhis konusundan bahsettiği için bu tür veriler öğrenilmiş gibi görünüyor
    • Bu tür örnekler sağlık verisi gizliliği sorununu ortaya koyuyor. Yapay zeka kullanıcının hastalığını tahmin edip veri brokerlarına aktarırsa, o bilgi gerçekmiş gibi kalıcı hale gelir. Kişisel verileri kontrol edecek altyapımız yetersiz
    • Hukuken hizmet sağlayıcıyı sorumlu tutmak gerekir. İnsan doktor yanlış teşhis koyarsa hastane nasıl sorumluysa, yapay zeka teşhis hizmeti için de aynısı geçerli olmalı. Model yerelde çalışıyorsa sorumluluk kullanıcıda olmalı
    • Benim durumumda ChatGPT benim adıma var olmayan bir şirketten söz etti. Tüm kişisel veri toplamayı reddetmiş olmama rağmen bu oldu. OpenAI gizlilik politikasına baktım ama hâlâ tedirginim
  • 80'li yaşlardaki annemin kronik rahatsızlığının nedenini ChatGPT 5 dakikada buldu. Birkaç doktorun 3 yıldır bulamadığı sorundu bu. Doktorlar bu olasılığı doğruladı ve yüzde 100 doğru çıktı. Elbette her hastalığa uygulanamaz ama LLM'ler uzmanlık alanları arasında bütüncül düşünmeyi mümkün kılıyor

    • Sorun ChatGPT değil, muayene süresinin yetersizliği. Diğer ülkelerde doktorlar hastaya yeterince zaman ayırıyor ama ABD'de sistem bozuk
    • Acaba o konuşma kaydını paylaşabilir misin diye merak ettim
    • Yaşlı hastalarda bu tür tedaviler tekrarlandıkça sağlık harcamalarının patlamasına yol açması zaten gerçeğin kendisi
  • ABD sağlık sistemi berbat olduğu için böyle bir yapay zekanın iyi olduğunu söylüyorlar ama ücretsiz sağlık hizmetinin iyi çalıştığı ülkelerde de bu araçlar ortaya çıkıyor. Eğitimli bir doktora ücretsiz gidebildiği halde ChatGPT'yi seçecek insanlar da olacaktır. Sonuçta bu, dünyadaki insanların yüzde 95'i için daha çok zararlı olabilir. OpenAI'nin “biz yapmazsak başkası yapacak” mantığı, fentanil satıcılarının bahanesinden farklı değil

  • Diz ve dirsek ağrısı yüzünden onlarca doktor gördüm ama ChatGPT çok daha yardımcı oldu. Yapay zekanın dediğini doğrudan uygulamak tehlikeli ama test sonuçlarına dayanarak ek sorular veya yeni tetkik yönleri belirlemek için faydalı. Kod incelemesi yaptırmak iyi olabilir ama tüm kodu ona yazdırmak nasıl riskliyse bu da öyle

  • Yapay zeka benim için reçete yazma ya da robot muayenesi bile yapabilecekse belki, ama değilse doktorun yapay zeka analizini referans alması bence yeterli

  • Sağlık verilerime erişilmesini çok da dert etmiyorum. Hatta kişisel sağlıkta inovasyon beklentim var. Apple Health sadece veri topluyor, 23andMe ise pek işe yaramadı. Şu anda sağlık geçmişimi sistem prompt'una eklediğim bir ChatGPT projesi kullanıyorum ve makale temelli analizle görselleştirme yapabilmesi beni şaşırttı

    • Eğer bu analiz yanlış teşhise yol açar ve engelli kalırsan, bunun sorumlusu kullanıcı mı doktor mu olur diye sormak isterim
    • Hangi bilgileri verdiğini merak ettim. Aynı soruları doktora sorsaydın aynı yanıtları alır mıydın? Benim gibi sağlık anksiyetesi olan biri için bu araçlar tersine zararlı olabilir
    • Aslında doktorlar da zaten gizlice yapay zeka kullanıyor olabilir
    • Yine de bu kadar biyometrik veriyi Sam Altman'a vermekte gerçekten rahat mısın? Hangi cihazları kullandığını merak ettim
    • Sağlık verisi en hassas bilgi türlerinden biri olduğu için sıkı biçimde düzenlenir. Bu tür veriler güç dengesizliği yaratır ve şirketler bunu kârı en üst düzeye çıkarmak için kullanır
  • Çok sayıda olumsuz yorum var ama ben ChatGPT sayesinde sağlık sorunumu çözebildim

    • Tanıdığım biri ChatGPT ile nadir bir hastalığa kendi kendine teşhis koyup pahalı testler yaptırdı ama sonunda yanlış çıktı. Buna rağmen hâlâ güveniyor. Doktorların yıllarca süren eğitimi ve deneyimini basit bir aramayla eşitleyen yaklaşım tehlikeli
    • Ben de bel ağrısı çekiyordum; ChatGPT'nin quadratus lumborum sorunundan söz etmesi bana çok yardımcı oldu
    • Tıp dünyasında hastalık hastası çok insan var. LLM'ler doğru kullanılırsa faydalı ama doğrulama yanlılığını da güçlendirebilir. Doktor bazen duymak istemediğin şeyi söyleyen kişidir. Sonuçta yapay zeka sadece bir araç ve doktorla birlikte kullanılmalı. COVID döneminde çok saçma bilgi vardı ama şimdi çok daha iyi. Ben ChatGPT'yi bilgileri düzenlemek ve doktora eksiksiz bir tablo sunmak için kullanıyorum
    • Ben de ChatGPT kullanıyorum ama eyleme dönük tavsiyeleri mutlaka güvenilir kaynaklarla doğruluyorum. İnsan biraz sağduyulu davranabilmeli. Yapay zeka saçma öneriler verse bile sonuçta karar insana ait