Sejarah Pembelajaran Mendalam selama yang saya ingat:
Tahun 1: hanya mungkin di lab perbatasan
Tahun 1.5: dimungkinkan di sebagian besar grup AI yang dilengkapi dengan baik termasuk akademisi
Tahun 2: mungkin bagi sebagian besar peretas dan penghobi secara lokal
Tahun n: berjalan dengan baik di perangkat edge
Satu-satunya hal yang bervariasi adalah garis waktu. Dan saya tidak berharap tren ini akan berubah.
Hanya untuk bersenang-senang, inilah 32 generasi konteks panjang simultan dengan Qwen3 Next 80B pada M3 Ultra.
Menggunakan generasi batch baru di mlx-lm.
Ukuran konteks untuk masing-masing adalah sekitar 5 ribu token: