mini-RAG | 19 | Ollama Local LLM Server

mini-RAG | 19 | Ollama Local LLM Server

3.469 Lượt nghe
mini-RAG | 19 | Ollama Local LLM Server
في هذه السلسلة التعليمية, أحاول بنــاء خطوة بخطوة, مشروع مفتوح المصدر, ليخدم أغراض استغلال النماذج الضخمة في الإجابة عن أسئلة المستخدمين بناء على مستندات معينة, او فيما يعرف بـ Retrieval Augmented Generation خطوة, بخطوة, نحاول تعلم كيف تخرج تجاربنا من مجرد Notebooks الى تطبيقات قادرة أن تصل مرحلة الـ Production في هذه الحلقة نستعرض كيف تشغيل نموذج لغوي LLM بشكل محلي Codes: https://github.com/bakrianoo/mini-rag/tree/tut-012 Notebook: https://colab.research.google.com/drive/1KNi3-9KtP-k-93T3wRcmRe37mRmGhL9p?usp=sharing