Kom i gang med å kjøre LLM-er lokalt med @Ollama – opplev ytelsesforbedringer på RTX AI-PC-er som kjører Gemma 3 og gpt-oss. Dra. Dråpe. Prate. Gjenta. Få mer informasjon 👉