How to: собрать RAG-систему на Neuron AI + Ollama в PHP
В свежем руководстве демонстрируется, как с помощью PHP, Neuron AI и локальной модели Ollama (например, llama3.2 и nomic-embed-text) создать RAG‑агента — мощную систему, объединяющую поиск по документации и генерацию ответов.
✨ Что такое RAG?
Retrieval‑Augmented Generation (RAG) — это подход, когда LLM не опирается только на свои «внутренние» знания, а сначала извлекает релевантную информацию из внешних источников (например, Markdown-файлы), затем генерирует ответ, учитывая этот контекст.
🙌 Почему это круто?
• 📖 Точность: ответы основаны на самых актуальных документах.
• 🔁 Гибкость: добавляйте или обновляйте контент без переобучения.
• 🛡️ Надёжность: система ссылается на реальные данные, снижается риск «галлюцинаций» .
🧩 Пошагово (очень кратко):
🔸 Настраиваем Neuron AI и Ollama (локально).
🔸 Создаём PHP-класс, расширяющий
🔸 Загружаем папку с Markdown-файлами — нейронная система индексирует их в векторном хранилище.
🔸 При запросе выполняется семантический поиск → полученные фрагменты вставляются в запрос → LLM генерирует ответ.
Используем Neuron AI + Ollama
Затем написание PHP-класса (например,
🧩 После этого вы загружаете Markdown-файлы, они индексируются, и при запросе бот ищет релевантные куски и отвечает, опираясь на них.
🕒 Важно: индексировать документы нужно только при обновлении — это ускоряет работу.
✅ Коротко о плюсах:
🔹 Полная автономность (работает локально)
🔹 Актуальность и безопасность данных
🔹 Быстрое обновление контента — без дорогостоящего обучения моделей
🔗 Читать статью
Библиотека пхпшника #буст
В свежем руководстве демонстрируется, как с помощью PHP, Neuron AI и локальной модели Ollama (например, llama3.2 и nomic-embed-text) создать RAG‑агента — мощную систему, объединяющую поиск по документации и генерацию ответов.
✨ Что такое RAG?
Retrieval‑Augmented Generation (RAG) — это подход, когда LLM не опирается только на свои «внутренние» знания, а сначала извлекает релевантную информацию из внешних источников (например, Markdown-файлы), затем генерирует ответ, учитывая этот контекст.
🙌 Почему это круто?
• 📖 Точность: ответы основаны на самых актуальных документах.
• 🔁 Гибкость: добавляйте или обновляйте контент без переобучения.
• 🛡️ Надёжность: система ссылается на реальные данные, снижается риск «галлюцинаций» .
🧩 Пошагово (очень кратко):
🔸 Настраиваем Neuron AI и Ollama (локально).
🔸 Создаём PHP-класс, расширяющий
RAG
от Neuron: указываем модели для эмбеддингов и генерации.🔸 Загружаем папку с Markdown-файлами — нейронная система индексирует их в векторном хранилище.
🔸 При запросе выполняется семантический поиск → полученные фрагменты вставляются в запрос → LLM генерирует ответ.
Используем Neuron AI + Ollama
composer require inspector-apm/neuron-ai
Затем написание PHP-класса (например,
Bot
), где:provider()
указывает модель генерации (Ollama + llama3.2)embeddings()
— модель для эмбеддингов (nomic-embed-text)vectorStore()
— векторное хранилище (локальный файл)🧩 После этого вы загружаете Markdown-файлы, они индексируются, и при запросе бот ищет релевантные куски и отвечает, опираясь на них.
🕒 Важно: индексировать документы нужно только при обновлении — это ускоряет работу.
✅ Коротко о плюсах:
🔹 Полная автономность (работает локально)
🔹 Актуальность и безопасность данных
🔹 Быстрое обновление контента — без дорогостоящего обучения моделей
🔗 Читать статью
Библиотека пхпшника #буст
🤔4