oLLM هي مكتبة Python خفيفة الوزن لاستدلال LLM المحلي ذي السياق الكبير. قم بتشغيل gpt-oss-20B و Qwen3-next-80B و Llama-3.1-8B على وحدة معالجة الرسومات للمستهلكين ~ 200 دولار مع 8 جيجابايت فقط من ذاكرة الوصول العشوائي. وهذا بدون أي تكميم - فقط دقة fp16 / bf16. 100٪ مفتوحة المصدر.