実行スクリプト
PS C:\Users\mars> docker run -d -p 3000:8080 –e RAG_EMBEDDING_ENGINE=ollama -e RAG_EMBEDDING_MODEL=bge-m3:latest –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui-rag –restart always ghcr.io/open-webui/open-webui:main
PS C:\Users\mars>docker run -d -p 3000:8080 -e RAG_EMBEDDING_ENGINE=ollama -e RAG_EMBEDDING_MODEL=bge-m3:latest –gpus all –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:cuda
埋め込みモデル設定
- 設定画面 → ドキュメント(Documents)セクションで:
セマンティックベクトルエンジン: Ollama
モデル名: bge-m3:latest
チャンクサイズ: 1500
チャンクオーバーラップ: 100
- その他パラメータはデフォルト維持13
- **知識ベース作成**
- 1. Workspace → Knowledge → [+ Create Knowledge Base]
- 2. 名前と用途(例: Assistance)を設定
- 3. ドキュメントファイル(PDF/TXT/Markdown)をドラッグ&ドロップでアップロード[2][5]
- **質問方法**
- 1. 新規チャット作成時に使用するLLMを選択(例: Qwen2.5系モデル)
- 2. チャット入力欄に`#`を入力→アップロード済みドキュメントを選択
- 3. 自然言語で質問を入力[1][5]
openwab-uiの画面のchat controlパラメータで、設定をdefaultから変更した方が良い項目と内容を教えて
推奨される変更例:
以下は、一般的なユースケースにおける例です:
ユースケース | Max Tokens | Temperature | Top-p | Repetition Penalty |
---|---|---|---|---|
短い正確な回答 | 100 | 0.5 | 0.8 | 1.2 |
長文で詳細な説明 | 300 | 0.7 | 0.9 | 1.1 |
創造的・自由な文章生成 | 500 | 1.0 | 1.0 | 1.0 |