Skip to content

fengbear/Spine

 
 

Repository files navigation

安装环境

  • pytorch
  • torchvision
  • scipy
  • tensorboardX
  • numpy
  • opencv-python
  • matplotlib
  • networkx
  • h5py
  • scikit-iamge
  • medpy
  • nibabel
  • torchsummary

数据集

数据集在 219 机器的 /mnt/ssd/dengyang/Verse

拷贝过来直接放到 项目根目录下

数据集目录

运行

  1. 指定数据集的目录 ,填刚刚放的那个数据集目录
data_root_dir=/home/ubuntu/03_SpineParseNet/Verse 
  1. 设置可见显卡 看哪张卡空了用哪张
CUDA_VISIBLE_DEVICES="1"
  1. 创建粗分割数据划分

这个文件里可以指定 训练,验证 集的比例

python -u ./datasets/coarse_create_h5.py --data_root_dir=${data_root_dir} --fold_num=1 --train_num=140 --val_num=32
  1. 训练粗分割

可以调整模型,优化器,学习率,Loss,epochs 等参数

python -u train_coarse.py --model=DeepLabv3_plus_skipconnection_3d --fold_ind=1 --data_dir=${data_root_dir}/coarse --no-pre_trained --epochs=100 --device=cuda:0 --learning_rate=0.001 --loss=CrossEntropyLoss
  1. GCN 粗分割
python -u train_coarse.py --model=DeepLabv3_plus_gcn_skipconnection_3d --fold_ind=1 --data_dir=${data_root_dir}/coarse --pre_trained --epochs=50 --device=cuda:0 --learning_rate=0.001 --gcn_mode=2 --ds_weight=0.3 --loss=CrossEntropyLoss
  1. 抽取粗分割特征
python -u coarse_semantic_feature.py --device=cuda:0 --fold_ind=1 --model=DeepLabv3_plus_gcn_skipconnection_3d --data_dir=${data_root_dir}/coarse --gcn_mode=2 --ds_weight=0.3 --loss=CrossEntropyLoss --pre_trained
  1. 创建细化分割数据划分

在这之前需要把 粗分割的 npz 拷贝过来,终端进入到 Verse/fine 目录

cp ../coarse/*.npz ./

python -u ./datasets/fine_create_h5.py --coarse_dir=${data_root_dir}/coarse --fine_dir=${data_root_dir}/fine
  1. 训练细化分割

看看里面有什么参数调整一下

python -u train_fine.py --fold_ind=1 --data_dir=${data_root_dir}/fine --device=cuda:0 --epochs=50
  1. 测试(暂时还用不了)
python -u test_coarse_fine.py --device=cuda:0 --fold_ind=1 --data_dir=${data_root_dir}

About

脊柱分割

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 98.4%
  • Shell 1.6%