- Kimi K2 1T modeli, 512GB belleğe sahip iki M3 Ultra çipinde çalıştırılmış bir örnek olarak paylaşıldı
- Twitter gönderisinde modelin çalıştırma ortamı ve donanım yapılandırmasından bahsediliyor
- 1T ölçeğindeki bir modelin ticari Mac donanımı üzerinde çalıştırılmış olması dikkat çekiyor
- Yüksek performanslı Apple Silicon tabanlı yapay zeka hesaplamalarının mümkün olabileceğini gösteren bir örnek
- Büyük dil modellerinin yerelde çalıştırılma sınırlarının genişleyebileceğine işaret eden teknik bir deneme
Twitter gönderisi içeriği
- Gönderi, Kimi K2 1T modelinin iki M3 Ultra (her biri 512GB bellek) üzerinde çalıştırıldığını açıkça belirtiyor
- Ek performans verileri veya sonuçlara ilişkin herhangi bir açıklama yok
- Söz konusu tweet dışında ek bağlam veya ayrıntılı teknik bilgi sunulmuyor
1 yorum
Hacker News yorumları
Opus 4.5 ya da 5.2-Pro kadar akıllı değil ama yazı stili çok kendine özgü ve insanla konuşuyormuş gibi doğrudan bir tona sahip
E-posta gibi kısa metinler yazarken şu anda gördüğüm en iyi seviyede ve sohbet sırasında hataları işaret etmekten ya da saçmalıkları düzeltmekten çekinmiyor
Diğer modellerden tamamen farklı eğitilmiş gibi hissettiriyor; veri analizinden çok editörlük işlerinde daha kullanışlı
Bu yüzden gerçekten Kimi aboneliği ödeyip kullanıyorum
Duygusal zeka (emotional intelligence) açısından çok güçlü; mesajın nüansını ve niyetini iyi okuyor, hatta sosyal bağlamı da hesaba katarak cümleyi düzenliyor
Moonshot bunu nasıl eğitti bilmiyorum ama bu kısmı gerçekten dikkat çekici
EQ-bench üzerinde duygusal zeka değerlendirmesinde 1. oldu ve bu benim deneyimimle birebir örtüşüyor
“Yeniden üretilebilir bir örnek ver” diyen bir chatbot görmek ilginç bir deneyim
Bu arada Kagi üzerinden de Kimi K2 kullanılabiliyor
Kimi K2’nin bu konuda ne kadar isabetli olduğunu merak ediyorum
Sonuçta modelin özünün instruction following olduğu düşüncesine kapılıyorum
Aşırı yalakalık yapmayan tavrı sayesinde mantık kontrolü için faydalı
Eski ChatGPT modelleri her şeyi övüyordu ama Kimi, istersen zekanı ya da soyunu sopunu sorgulayacak kadar acımasız eleştirebiliyor
O model de Kimi gibi hiç yaltaklanmayan bir karaktere sahipti
Apple resmi bağlantısı
Hediye kartıyla ek %10 indirim de mümkün
RDNA desteği konuşuluyor ama bunun donanıma bağımlı mı olduğunu (ConnectX ya da Apple Thunderbolt gerektirip gerektirmediğini), yoksa sıradan bir 10G NIC ile de mümkün olup olmadığını bilmiyorum
Ama vLLM, sıradan Ethernet tabanlı çok düğümlü kümeleri de destekliyor
Uzun bağlam kullanırsan bir yanıtı beklemek birkaç dakika sürebilir
Birkaç yıl içinde çok daha ucuzlayacaklarını düşünüyorum
Sadece “çalışıyor” denmesine güvenmemek lazım; uzun bağlam senaryolarındaki işleme hızı tamamen başka bir mesele
Aynı parayla çok daha fazla bulut kullanım hakkı elde edebilirsin
Üstelik bunu 7/24 çalıştırmayacağın için verim de düşüyor
Açık kaynak modelleri Groq ya da Cerebras gibi ultra düşük gecikmeli servislerde çalıştırmak çok daha rahat
Cursor’da çeşitli modelleri test ediyorum ama Deepseek v3.2 ya da Kimi K2 biçimlendirme sorunları yüzünden düzgün çalışmıyor ve başka modeller de eksik
Özellikle C++ ya da Rust gibi web dışı alanlara yönelik benchmark’ları merak ediyorum
2 Spark ve 2 Mac Studio’yu birleştirince, 2 adet M5 Ultra’ya benzer çıkarım hızı elde edilir mi diye düşünüyorum