Учим Ollam'у искать в интернете. OpenWebUI + SearXNG = Web Search

Самохостятам привет!

В ролике мы с Вами живьем посмотрим:

  • как связать нашу локальную Ollam’у живущую в openwebui с поисковым движком SearXNG
  • как это использовать?
  • на сколько быстро это работает на CPU среднего мини-пк?
  • как себя видут разные модели? 0,8b\4b\9b
  • как ограничить поиск конкретными ресурсами?

Для форумчан - я решил выложить краткое описание, чтобы Вы могли пробовать не дожидаясь ролика.

Настройка - крайне простая:

  • у вас уже есть установленный поисковый движок SearXNG c включенным json форматом ответов
  • заходим в настройки администратора → Web Saerch
  • справа включаем и выбираем движок searxng
  • указываем путь до Вашего searxng в заданном формате
http://192.168.1.117:8888/search?q=<query>&format=json

  • не забываем нажать SAVE внизу

Как активировать функцию поиска?

В любом Вашем чате - нажмите на пиктограмму интеграций и включите веб поиск

И вот Ваша моделька уже ходит по просторам сети и ищет ответы на Ваши вопросы:

1 лайк

Там в open-webui какой-то косяк с этим поиском. Я пытаюсь его использовать с внешними моделями, которые сами по себе работают очень быстро, но стоит подключить поиск и все как на вашем видео - начинаются дикие тормоза. Уже вторую неделю пытаюсь дебажить и понять где затык, но пока без результата.

Без дополнительных вводных - Вам точно не смогут подсказать

Железо?

- CPU
- RAM
- SSD
- GPU

Софт?

- Proxmox
- LXC
- Docker
- OpenwebUI

Настройки?

- какая модель?

Ошибки\описание что происходит?

- search идет?, возвращает ссылки, а затем тишина или ошибку поиска выдает

Может у Вас проблема в том, что модели слишком большие для вашего железа.
Поиск может вернуть ОГРОМНЫЙ объем данных, это не ваш промт\вопрос в 2 строки.
Можно попробовать отключить у модели thinking или вообще начать с малой модели.

Делитесь вводными, подумаем, что может быть.

Модели внешние, я упомянул об этом в сообщении, Open WebUI используется исключительно как веб морда для работы с моделями через api, локальных моделей нет.
SearXNG настроен, ищет быстро, json отдает, из контейнера Open WebUI пингуется и curl-ом json забирается.

Без использования поиска модель отрабатывает за секунду. При включении поиска запрос обрабатывается 5, 7, 10 минут.

Модели разные пробовал и chatgpt и grok и haiku - итог один. Поэтому я и написал, что какой-то косяк в связке Open WebUI и SearXNG.

P.S. Форум не пускает со старых браузеров, в этом есть какой-то смысл?