mirror of
https://github.com/TeamWiseFlow/wiseflow.git
synced 2025-01-23 10:50:25 +08:00
.. | ||
backend | ||
pb | ||
web | ||
.dockerignore | ||
.gitignore | ||
compose.yaml | ||
config.ini | ||
Dockerfile.api | ||
Dockerfile.web | ||
env_sample | ||
README.md | ||
version |
用法
1、参考如下内容创建 .env
文件 (可以直接编辑 env_sample后再改名)
- PROJECT_DIR="AWtest" #项目缓存文件夹(相对于repo的路径),如果不设定就直接放在repo下面了
- WS_LOG="verbose" #设定是否开始debug观察,调试阶段建议开始,尤其可以观察到每一步接口调用的原始请求和返回
- LLM_API_BASE: #使用本地大模型推理服务使用(本地加载大模型)的 host:port, 不配置默认走http://localhost:8000
- DASHSCOPE_API_KEY="YOUR_DASHSCOPE_API_KEY" #使用阿里灵积大模型推理服务使用
- ZHIPUAI_API_KEY= #使用智谱大模型接口使用(目前只会调用glm4,model参数没有意义)
- VOLC_KEY='AK|SK' #使用火山云翻译api使用,格式为AK|SK
- EMBEDDING_MODEL_PATH='' #embedding模型的地址,
- RERANKER_MODEL_PATH='' #rerank模型地址
- DEVICE="cuda:0" #配置的话使用GPU,不配置使用CPU。
- PB_API_AUTH='email|password' #pb数据库admin的邮箱和密码(一定是admin的,一定给邮箱)
3、编辑 config.ini 文件 (可以直接修改这个目录下面的 config.ini)
-
character 以什么身份挖掘线索(这决定了llm的关注点和立场)
-
focus 关注什么方面的线索
-
focus_type 线索类型
-
good_samples 你希望llm给出的线索描述模式(给两个sample)
-
bad_samples 规避的线索描述模式
-
report_type 报告类型
-
【sites] 大类下面列出你的信源。一行一个网址。
如果你只爬取配置了专有爬虫的信源的话,可以直接编辑scrapers/init.py 中的scraper_map,这里都留空就好
专有爬虫的说明见 backend/scrapers/README.md
参考:各服务注册地址
- 阿里灵积大模型接口:https://dashscope.aliyun.com/
- 火山翻译引擎:https://translate.volcengine.com/api
- embedding模型:https://github.com/netease-youdao/BCEmbedding
(模型下载方案:https://hf-mirror.com/ )
pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.com
# for non-gate model
huggingface-cli download --resume-download --local-dir-use-symlinks False bigscience/bloom-560m --local-dir bloom-560m
# for gate model
huggingface-cli download --token hf_*** --resume-download --local-dir-use-symlinks False meta-llama/Llama-2-7b-hf --local-dir Llama-2-7b-hf
使用url直接下载时,将 huggingface.co 直接替换为本站域名hf-mirror.com。使用浏览器或者 wget -c、curl -L、aria2c 等命令行方式即可。 下载需登录的模型需命令行添加 --header hf_*** 参数,token 获取具体参见上文。