Telegram Web
How to: собрать RAG-систему на Neuron AI + Ollama в PHP

В свежем руководстве демонстрируется, как с помощью PHP, Neuron AI и локальной модели Ollama (например, llama3.2 и nomic-embed-text) создать RAG‑агента — мощную систему, объединяющую поиск по документации и генерацию ответов.

Что такое RAG?
Retrieval‑Augmented Generation (RAG) — это подход, когда LLM не опирается только на свои «внутренние» знания, а сначала извлекает релевантную информацию из внешних источников (например, Markdown-файлы), затем генерирует ответ, учитывая этот контекст.

🙌 Почему это круто?
📖 Точность: ответы основаны на самых актуальных документах.
🔁 Гибкость: добавляйте или обновляйте контент без переобучения.
🛡️ Надёжность: система ссылается на реальные данные, снижается риск «галлюцинаций» .

🧩 Пошагово (очень кратко):
🔸 Настраиваем Neuron AI и Ollama (локально).

🔸 Создаём PHP-класс, расширяющий RAG от Neuron: указываем модели для эмбеддингов и генерации.

🔸 Загружаем папку с Markdown-файлами — нейронная система индексирует их в векторном хранилище.

🔸 При запросе выполняется семантический поиск → полученные фрагменты вставляются в запрос → LLM генерирует ответ.

Используем Neuron AI + Ollama

composer require inspector-apm/neuron-ai

Затем написание PHP-класса (например, Bot), где:
provider() указывает модель генерации (Ollama + llama3.2)
embeddings() — модель для эмбеддингов (nomic-embed-text)
vectorStore() — векторное хранилище (локальный файл)

🧩 После этого вы загружаете Markdown-файлы, они индексируются, и при запросе бот ищет релевантные куски и отвечает, опираясь на них.
🕒 Важно: индексировать документы нужно только при обновлении — это ускоряет работу.

Коротко о плюсах:
🔹 Полная автономность (работает локально)
🔹 Актуальность и безопасность данных
🔹 Быстрое обновление контента — без дорогостоящего обучения моделей

🔗 Читать статью

Библиотека пхпшника #буст
🤔4
2025/07/09 16:03:53
Back to Top
HTML Embed Code: