Там в open-webui какой-то косяк с этим поиском. Я пытаюсь его использовать с внешними моделями, которые сами по себе работают очень быстро, но стоит подключить поиск и все как на вашем видео - начинаются дикие тормоза. Уже вторую неделю пытаюсь дебажить и понять где затык, но пока без результата.
Без дополнительных вводных - Вам точно не смогут подсказать
Железо?
- CPU
- RAM
- SSD
- GPU
Софт?
- Proxmox
- LXC
- Docker
- OpenwebUI
Настройки?
- какая модель?
Ошибки\описание что происходит?
- search идет?, возвращает ссылки, а затем тишина или ошибку поиска выдает
Может у Вас проблема в том, что модели слишком большие для вашего железа.
Поиск может вернуть ОГРОМНЫЙ объем данных, это не ваш промт\вопрос в 2 строки.
Можно попробовать отключить у модели thinking или вообще начать с малой модели.
Модели внешние, я упомянул об этом в сообщении, Open WebUI используется исключительно как веб морда для работы с моделями через api, локальных моделей нет.
SearXNG настроен, ищет быстро, json отдает, из контейнера Open WebUI пингуется и curl-ом json забирается.
Без использования поиска модель отрабатывает за секунду. При включении поиска запрос обрабатывается 5, 7, 10 минут.
Модели разные пробовал и chatgpt и grok и haiku - итог один. Поэтому я и написал, что какой-то косяк в связке Open WebUI и SearXNG.
P.S. Форум не пускает со старых браузеров, в этом есть какой-то смысл?