mini-RAG | 19 | Ollama Local LLM Server
في هذه السلسلة التعليمية, أحاول بنــاء خطوة بخطوة, مشروع مفتوح المصدر, ليخدم أغراض استغلال النماذج الضخمة في الإجابة عن أسئلة المستخدمين بناء على مستندات معينة, او فيما يعرف بـ
Retrieval Augmented Generation
خطوة, بخطوة, نحاول تعلم كيف تخرج تجاربنا من مجرد
Notebooks
الى تطبيقات قادرة أن تصل مرحلة الـ
Production
في هذه الحلقة نستعرض كيف تشغيل نموذج لغوي
LLM
بشكل محلي
Codes:
https://github.com/bakrianoo/mini-rag/tree/tut-012
Notebook:
https://colab.research.google.com/drive/1KNi3-9KtP-k-93T3wRcmRe37mRmGhL9p?usp=sharing