update: fix-02
This commit is contained in:
43
README.md
43
README.md
@@ -72,19 +72,32 @@ bash infra/scripts/start-dev.sh
|
||||
### 手动启动
|
||||
|
||||
```bash
|
||||
# 1. 启动基础设施
|
||||
cd infra/docker && docker compose up -d
|
||||
# 1. 启动基础设施(PostgreSQL + Redis)
|
||||
cd infra/docker
|
||||
docker compose up -d
|
||||
cd ../..
|
||||
|
||||
# 2. 安装并启动后端
|
||||
# 2. 安装后端依赖
|
||||
cd backend
|
||||
pip install -e ".[dev]"
|
||||
cp ../infra/env/.env.example .env # 按需编辑
|
||||
python -m venv .venv # 创建虚拟环境(推荐)
|
||||
source .venv/bin/activate # macOS/Linux
|
||||
# .venv\Scripts\activate # Windows
|
||||
pip install -r requirements.txt # 安装依赖
|
||||
|
||||
# 3. 配置环境变量
|
||||
cp ../infra/env/.env.example .env # 复制模板,按需编辑
|
||||
|
||||
# 4. 初始化数据库
|
||||
alembic revision --autogenerate -m "init"
|
||||
alembic upgrade head
|
||||
python -m scripts.seed # 插入演示数据
|
||||
uvicorn app.main:app --reload --port 8000
|
||||
|
||||
# 3. 安装并启动前端
|
||||
# 5. 插入演示数据
|
||||
python -m scripts.seed
|
||||
|
||||
# 6. 启动后端服务
|
||||
uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
|
||||
|
||||
# 7. 安装并启动前端(新开终端)
|
||||
cd frontend
|
||||
npm install
|
||||
npm run dev
|
||||
@@ -106,17 +119,23 @@ cd frontend && npm run dev
|
||||
|
||||
## 配置 AI 能力
|
||||
|
||||
在 `backend/.env` 中配置:
|
||||
系统使用两组独立的 OpenAI 兼容接口,在 `backend/.env` 中配置:
|
||||
|
||||
```
|
||||
```bash
|
||||
# OCR — 截图识别与字段抽取(需要多模态/视觉能力)
|
||||
OCR_API_KEY=your_key
|
||||
OCR_API_URL=https://api.example.com/v1/chat/completions
|
||||
OCR_MODEL=gpt-4o
|
||||
|
||||
# LLM — 认定理由生成、问询建议等推理任务
|
||||
LLM_API_KEY=your_key
|
||||
LLM_API_URL=https://api.example.com/v1/chat/completions
|
||||
LLM_MODEL=model_name
|
||||
LLM_MODEL=gpt-4o-mini
|
||||
```
|
||||
|
||||
支持 OpenAI 兼容格式的多模态 API。未配置时自动使用 mock 数据。
|
||||
- OCR 和 LLM 可以指向不同的供应商/模型(如 OCR 用视觉模型,LLM 用轻量文本模型)
|
||||
- 如果只配置 LLM 而未配置 OCR,OCR 会自动降级使用 LLM 的配置
|
||||
- 两者均未配置时自动使用 mock 数据,不影响演示
|
||||
|
||||
## 测试
|
||||
|
||||
|
||||
Reference in New Issue
Block a user