Оновлена модель Z ai GLM 4.6 (Reasoning) є однією з найрозумніших моделей з відкритими вагами, з інтелектом майже DeepSeek V3.1 (Reasoning) і Qwen3 235B 2507 (Reasoning) 🧠 Ключові висновки з порівняльного аналізу розвідки: ➤ Продуктивність моделі міркування: GLM 4.6 (міркування) отримує 56 балів за індексом інтелекту штучного аналізу, порівняно з 51 балом GLM 4.5 у режимі міркування ➤ Продуктивність моделі без міркувань: У режимі без міркувань GLM 4.6 досягає 45 балів, що ставить його на 2 бали попереду GPT-5 (мінімальний, без обґрунтування) ➤ Ефективність токенів: Z ai підвищив оцінки GLM, одночасно знижуючи вихідні токени. Для GLM 4.6 (Reasoning) ми бачимо суттєве зниження на 14% використання токенів для запуску Artificial Analysis Intelligence Index зі 100M до 86M, порівняно з GLM 4.5 (Reasoning). Це відрізняється від інших оновлень моделі, які ми бачили, де збільшення інтелекту часто корелює зі збільшенням використання вихідних токенів. У режимі без міркувань GLM 4.6 використовує 12 млн вихідних токенів для індексу інтелекту штучного аналізу Інші деталі моделі: 🪙 ➤ Контекстне вікно: контекст 200 тисяч токенів. Це більше в порівнянні з контекстним вікном GLM 4.5, яке становить 128 тисяч токенів 📏 ➤ Розмір: GLM 4.6 має 355B загальних параметрів і 32B активних параметрів - це стільки ж, скільки GLM 4.5. Для самостійного розгортання GLM 4.6 вимагатиме ~710 ГБ пам'яті для зберігання ваги з рідною точністю BF16 і не може бути розгорнутий на одному вузлі NVIDIA 8xH100 (~640 ГБ пам'яті) ©️ ➤ Ліцензування: GLM 4.6 доступний за ліцензією MIT 🌐 ➤ Доступність: GLM 4.6 доступний на першому API Z ai та кількох сторонніх API, таких як DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) та Parasail (FP8)
GLM 4.6 (Reasoning) підвищує ефективність токенів, вимагаючи на 14 мільйонів менше вихідних токенів у порівнянні з GLM 4.5 (Reasoning) для Artificial Analysis Intelligence Index
Повні евальні, незалежно проведені штучним аналізом
Порівняйте роботу GLM 4.6 у порівнянні з моделями, які ви використовуєте або розглядаєте:
41,86K