Heißer Tipp für alle, die KI-Entwicklung machen: Verwende Ollama, um Modelle wie Deepseek-r1 oder Gemma einfach lokal auf deinem Rechner auszuführen. Es lädt sie herunter und startet einen Server mit einer OpenAI SDK-kompatiblen API. Die kleineren Modelle sind schnell und gut genug, um an neuen Funktionen zu arbeiten oder Streaming zu debuggen, ohne für API-Anfragen bezahlen zu müssen.
145,57K