ช่วงนี้กระแส AI กำลังมาแรง แต่ถ้าอยากให้ AI ตอบคำถามได้แม่นยำขึ้นจาก “ข้อมูลของเราเอง” เช่น เอกสารเฉพาะทาง, ข้อมูลภายในองค์กร, หรือบทความเฉพาะทาง
เลยอยากมาแชร์แนวทางการทำ RAG (Retrieval-Augmented Generation) ซึ่งเป็นการดึงข้อมูลจากแหล่งความรู้ภายนอก + สร้างคำตอบแบบ GPT
#Ollama – ตัวนี้ใช้รัน LLM รุ่นเล็ก ได้บนเครื่องเราเอง แบบไม่ต้องต่อ API เจ้าอื่น (ในตัวทดสอบใช้ llama3.2)
#FastAPI – สร้าง backend ไว้รับคำถาม แล้วส่งไปหา LLM พร้อมข้อมูลจากคลังความรู้ที่เตรียมไว้
RAG Flow:
– ดึงเอกสาร (PDF, txt, csv ฯลฯ)
– ทำ embedding ใส่ใน vector database (ChromaDB)
– เวลาผู้ใช้ถาม → ค้นหาข้อมูลที่เกี่ยวข้อง → ส่ง context + คำถามเข้า
– LLM ได้คำตอบที่ “อิงจากความรู้ของเราเอง”
Github : https://github.com/hassatorn1989/python-rag-ai