Skip to content

Weifeng-Chen/dl_scripts

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

44 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Some Scripts For DEEP LEARNING

1. detection

yolo2coco.py

将yolo格式数据集修改成coco格式。$ROOT_PATH是根目录,需要按下面的形式组织数据:

└── $ROOT_PATH

  ├── classes.txt

  ├── images

  └──labels
  • classes.txt 是类的声明,一行一类。

  • images 目录包含所有图片 (目前支持pngjpg格式数据)

  • labels 目录包含所有标签(与图片同名txt格式数据)

配置好文件夹后,执行:python yolo2coco.py --root_dir $ROOT_PATH ,然后就能看见生成的 annotations 文件夹。

参数说明

  • --root_path 输入根目录$ROOT_PATH的位置。
  • --save_path 如果不进行数据集划分,可利用此参数指定输出文件的名字,默认保存为train.json
  • --random_split 随机划分参数,若指定--random_split参数,则输出在annotations文件夹下包含 train.json val.json test.json (默认随机划分成8:1:1)
  • --split_by_file 自定义数据集划分,若指定--split_by_file参数,则输出在annotations文件夹 train.json val.json test.json。需要在$ROOT_PATH文件下有 ./train.txt ./val.txt ./test.txt ,可以这3个文件来定义训练集、验证集、测试集。注意, 这里里面填写的应是图片文件名字,而不是图片的绝对地址。(在line 43也自行可以修改一下读取方式,为了方便起见,不推荐把图片放在不同位置)

coco2yolo.py

读入coco数据集json格式的标注,输出可供yolo训练的标签。

需要注意的是,COCO2017官方的数据集中categories id 是不连续的,这在yolo读取的时候会出问题,所以需要重新映射一下,这个代码会按id从小到大映射到0~79之间。(如果是自己的数据集,也会重新映射)

执行:python coco2yolo.py --json_path $JSON_FILE_PATH --save_path $LABEL_SAVE_PATH

  • $JSON_FILE_PATH是json文件的地址。
  • $JSON_FILE_PATH是输出目录(默认为工作目录下的./labels目录。

zeroshot_retrieval_evaluation.ipynb

  • 检索topN的计算,支持一对多检索。(一张图对应有多个captions)

vis_yolo_gt_dt.py

同时把GT和预测结果可视化在同一张图中。$DT_DIR是预测结果标签地址,必须是和GT同名的标签。$ROOT_PATH文件目录:

└── $ROOT_PATH

  ├── classes.txt

  ├── images

  └── labels

执行:python vis_yolo_gt_dt.py --root $ROOT_PATH --dt $DT_DIR后生成在outputs文件夹中。

  • classes.txtimages必须有。
  • labels可以没有,那样就只展示$DT_DIR预测结果。
  • $DT_DIR 若没有输入,则只展示标签结果。

coco_eval.py

评估生成的结果,针对yolov5生成的检测结果(test中的--save-json参数,会生成best_predictions.json),但是这个不适应cocoapi,需要用脚本来修改适应。执行:

python coco_eval.py --gt $GT_PATH --dt $DT_PATH --yolov5

  • --gt json格式,用于指定测试集的结果,如果没有,可以利用前面的yolo2coco.py进行转换。
  • --dt 同样检测网络生成的预测,使用cocoapi中loadRes来加载,所以需要有相应格式的检测结果。
  • --yolov5 将官方代码中生成的结果转换成适配cocoapi的结果。

2. text-image

zeroshot_retrieval_evalution.ipynb

检索模型的评估指标。(topK召回率),支持多对多的情况。(比如一个文本匹配多张图片)

fid_clip_score

用于画text2image的 FID-CLIP Score曲线图。

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published