🚀 DeepSeek-OCR — perbatasan baru OCR dari @deepseek_ai, mengeksplorasi kompresi konteks optik untuk LLM, berjalan sangat cepat pada vLLM ⚡ (~2500 token/dtk pada A100-40G) — didukung oleh vllm==0.8.5 untuk dukungan model hari-0.
🧠 Mengompresi konteks visual hingga 20× sambil mempertahankan akurasi OCR 97% pada <10×.
📄 Mengungguli GOT-OCR2.0 & MinerU2.0 di OmniDocBench menggunakan lebih sedikit token penglihatan.
🤝 Tim vLLM bekerja sama dengan DeepSeek untuk menghadirkan dukungan DeepSeek-OCR resmi ke rilis vLLM berikutnya — membuat inferensi multimodal lebih cepat dan lebih mudah untuk diskalakan.
🔗
#vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning