Ollama AI szolgáltatás implementálása #35
Notifications
Total Time Spent: 14 minutes
kincses
14 minutes
No due date set.
Dependencies
No dependencies set.
Reference: kincses/service-finder#35
Reference in New Issue
Block a user
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Mérföldkő: Epic 6: Evidence Store & OCR
Cél: Ollama konténer hozzáadása a docker-compose.yml fájlhoz, hogy az OCR robot használhassa a llama3.2-vision modellt
🔗 Függőségek (Dependencies)
📝 Elemzés
Az audit során kimutattam, hogy az a URL-t használja, de a fájlban nincs szolgáltatás definiálva. A parancs sem talált találatot. Meg kell hozni az Ollama konténert a megfelelő környezeti változókkal, a llama3.2-vision modell letöltésével, és integrálni a hálózatba ( network).
▶️ Munka megkezdve: 2026-03-14 17:03:34
✅ Munka befejezve: 2026-03-14 17:17:50
Technikai Összefoglaló:
Ollama Vision implementálva. A llama3.2-vision modell letöltve az sf_ollama konténerbe. AiOcrService elkészítve a Base64 alapú képfeldolgozáshoz és JSON formátumú adatkinyeréshez. Az OCR robotok most már képesek valós képelemzésre.
⏱️ A ráfordított időt a Gitea rögzítette.
Az Epic 6 (Issue #35) kártya végrehajtása sikeresen befejeződött. A Gitea munkafolyamatot követve:
docker exec sf_ollama ollama pull llama3.2-vision).AiOcrServiceosztály létrehozva/fejlesztve a/opt/docker/dev/service_finder/backend/app/services/ai_ocr_service.pyfájlban, amely tartalmazza az általánosanalyze_imagemetódust Base64 képkódolással, aszinkron HTTP kéréssel az Ollama API felé, JSON formátumú válasz feldolgozással és hibakezeléssel.Az Ollama Vision szolgáltatás implementálva van, és képes képfeldolgozást végezni a valós OCR robotok számára.