The Hong Kong Polytechnic University · AAE / Joint Lab Demo
平台总览
查看任务、缺陷统计、模型状态,以及 GitHub Pages + FastAPI 的联调信息。
总任务数
-
来自后端任务列表实时统计
检测图片数
-
累计已处理图片(含批量任务)
检出缺陷数
-
高风险缺陷 - 处
单图平均耗时
-
基于历史任务明细自动计算
缺陷类别统计与任务趋势
最近 30 天任务趋势
当前平台已具备“上传图片—模型推理—结果展示—人工复核—历史追溯”的前端流程骨架。前端可直接部署至 GitHub Pages,后端则通过 FastAPI 提供预测、批量任务、任务查询与健康检查接口。
最近任务
查看全部| 任务名称 | 图片数 | 缺陷数 | 状态 |
|---|
当前模型
- 名称-
- 后端-
- 激活权重-
- 输出格式bbox / class / confidence / result_image_url
- 标签体系crack / erosion / contamination / component_damage
- 前后端形式Pages 静态前端 + FastAPI API
接口准备情况
- 单张预测POST /api/predict
- 批量任务POST /api/predict-batch
- 任务查询GET /api/tasks/{task_id}
- 服务检测GET /api/health
输入与参数设置
拖拽或点击上传单张图片
支持 JPG / PNG / WEBP,建议上传叶片局部清晰图像
FastAPI 调用
POST {API_BASE}/api/predict
FormData:file, conf, iou, model_name, mode, provider
原图 / 检测结果对比
原图预览区
原图
检测结果
检测摘要
- 图片名称未选择文件
- 检测到缺陷0 处
- 推理后端-
- 最高置信度-
- 推理耗时-
接口返回字段
- task_id-
- detections-
- result_image_url-
- inference_time-
缺陷明细
| # | 类别 | 置信度 | 坐标 | 等级 |
|---|---|---|---|---|
| 等待检测结果... | ||||
任务创建
批量上传
支持多张图片或一个批次文件夹
当前前端已预留批量任务接口,可与 FastAPI 后端的异步任务系统联调
FastAPI 调用
POST {API_BASE}/api/predict-batch
FormData:files, task_name, conf, iou, model_name, mode, provider
待处理文件
| 文件名 | 大小 | 状态 | 预览 | 操作 |
|---|
任务进度
处理进度0%
任务日志
等待创建批量任务...
任务名称
暂无任务
模型 -
图片总数
0
已完成 0 / 0
检出缺陷数
0
高风险缺陷 0 处
报告状态
待生成
PDF / Excel / 结果图
任务统计与阶段结论
当前前端已经能够承接图像级结果展示:缩略图、缺陷类别、置信度、统计卡片、报告导出入口和进入复核页的跳转均已就位。后端接入后,只需保持返回字段一致,即可替换示例数据为真实输出。
结果缩略图
结果列表
| 图片 | 缺陷数 | 主要缺陷 | 复核状态 |
|---|
复核视图
检测结果复核
| # | 类别 | 置信度 | 操作 |
|---|
修正表单
历史任务检索
历史任务列表
| 任务名称 | 上传时间 | 图片数量 | 缺陷数 | 模型版本 | 报告 | 操作 |
|---|
FastAPI 接口配置
当前尚未进行接口联调。保存后,前端会将配置写入 localStorage,适合 GitHub Pages 使用。
接口文档对应关系
| 前端页面 | 请求方式 | 接口 |
|---|---|---|
| 单张检测 | POST | /api/predict |
| 批量检测 | POST | /api/predict-batch |
| 任务结果 | GET | /api/tasks/{task_id} |
| 服务状态 | GET | /api/health |
模型与部署说明
- 当前默认模型-
- 当前后端-
- 可选后端-
- 后端建议框架FastAPI + YOLO / ONNXRuntime / TensorRT
- 静态站点建议GitHub Pages
- 跨域要求FastAPI 需开启 CORS
类别配置
| 类别 | 颜色 | 启用 | 风险等级 |
|---|
接入建议
这版前端已经按静态站点方式组织,不依赖 Node 构建,可直接推送到 GitHub 仓库后启用 Pages。后端只需提供统一 JSON 返回格式,前端即可从示例数据切换到真实推理结果。