Hari ini, kami merilis Power Retention, arsitektur baru di luar Transformers. Ini memungkinkan LLM untuk menangani jutaan token secara efisien, membuka kunci aplikasi konteks panjang yang sebelumnya terlalu mahal.