¿Docker acaba de MATAR a Ollama con esta Nueva Función?

¿Docker acaba de MATAR a Ollama con esta Nueva Función?

21.143 Lượt nghe
¿Docker acaba de MATAR a Ollama con esta Nueva Función?
🚀 Docker Model Runner vs Ollama: ¿cuál es mejor para correr modelos de IA localmente? En este vídeo te muestro Docker Model Runner, la nueva herramienta de Docker para ejecutar modelos de inteligencia artificial (LLMs) directamente en tu máquina local, sin complicaciones y con soporte para API estilo OpenAI. ¿Puede esta novedad hacer obsoleto a Ollama, la opción favorita hasta ahora para correr modelos como LLaMA, Mistral o Gemma localmente? Comparamos ambos punto por punto: rendimiento, facilidad de uso, integración con el flujo de desarrollo, y mucho más. 🧪 ¿Qué verás en este vídeo? • Cómo activar Docker Model Runner en Docker Desktop • Cómo descargar y ejecutar modelos como ai/smollm2 • Cómo usar su API compatible con OpenAI • Comparativa directa con Ollama • Pros, contras y mi recomendación final 👉 Si quieres integrar LLMs en tu stack sin depender de la nube, este vídeo es para ti. ⸻ 📣 ¡IMPORTANTE! ¿Quieres acelerar tu camino hacia convertirte en AI Engineer? Únete al reto #100DaysOfAI en nuestra comunidad The Academy. ¡Aprenderás, compartirás y crecerás junto a otros desarrolladores comprometidos con la IA! 👉🏼 https://bit.ly/theacademy-ai ⸻ 📱 SÍGUEME EN REDES 📷 Instagram: https://www.instagram.com/codingmindset/ 💬 Comunidad IA The Academy: https://bit.ly/theacademy-ai 🎵 TikTok: https://www.tiktok.com/@codingmindset 🐦 X: https://x.com/codingmindsetio ⸻ 📌 Recursos mencionados: • ¿Qué es MCP?: https://youtu.be/ACN_1yPOCj0 #DockerModelRunner #Ollama #IAlocal #DevAI #LLMs #Docker #100DaysOfAI