update: fix-02

This commit is contained in:
2026-03-13 09:57:04 +08:00
parent 7cd2a18364
commit e0a40ceff0
10 changed files with 843 additions and 133 deletions

View File

@@ -72,19 +72,32 @@ bash infra/scripts/start-dev.sh
### 手动启动
```bash
# 1. 启动基础设施
cd infra/docker && docker compose up -d
# 1. 启动基础设施PostgreSQL + Redis
cd infra/docker
docker compose up -d
cd ../..
# 2. 安装并启动后端
# 2. 安装后端依赖
cd backend
pip install -e ".[dev]"
cp ../infra/env/.env.example .env # 按需编辑
python -m venv .venv # 创建虚拟环境(推荐)
source .venv/bin/activate # macOS/Linux
# .venv\Scripts\activate # Windows
pip install -r requirements.txt # 安装依赖
# 3. 配置环境变量
cp ../infra/env/.env.example .env # 复制模板,按需编辑
# 4. 初始化数据库
alembic revision --autogenerate -m "init"
alembic upgrade head
python -m scripts.seed # 插入演示数据
uvicorn app.main:app --reload --port 8000
# 3. 安装并启动前端
# 5. 插入演示数据
python -m scripts.seed
# 6. 启动后端服务
uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
# 7. 安装并启动前端(新开终端)
cd frontend
npm install
npm run dev
@@ -106,17 +119,23 @@ cd frontend && npm run dev
## 配置 AI 能力
`backend/.env` 中配置:
系统使用两组独立的 OpenAI 兼容接口,`backend/.env` 中配置:
```
```bash
# OCR — 截图识别与字段抽取(需要多模态/视觉能力)
OCR_API_KEY=your_key
OCR_API_URL=https://api.example.com/v1/chat/completions
OCR_MODEL=gpt-4o
# LLM — 认定理由生成、问询建议等推理任务
LLM_API_KEY=your_key
LLM_API_URL=https://api.example.com/v1/chat/completions
LLM_MODEL=model_name
LLM_MODEL=gpt-4o-mini
```
支持 OpenAI 兼容格式的多模态 API。未配置时自动使用 mock 数据。
- OCR 和 LLM 可以指向不同的供应商/模型(如 OCR 用视觉模型LLM 用轻量文本模型)
- 如果只配置 LLM 而未配置 OCROCR 会自动降级使用 LLM 的配置
- 两者均未配置时自动使用 mock 数据,不影响演示
## 测试