學(xué)習(xí)一種工具最簡單和最有效的方法是download一個demo,根據(jù)教程模擬。Caffe作為深度學(xué)習(xí)框架,它也是一種工具,官方提供了一些demo,主要是在Caffe運(yùn)行的網(wǎng)絡(luò)架構(gòu)文件。那么如何跑起一個demo呢?或者如何用demo直接做預(yù)測呢?
訓(xùn)練:caffe train --solver solver.txt 這樣就可以了,如果有已訓(xùn)練好的參數(shù)或者進(jìn)行學(xué)習(xí)遷移finetuning,那么訓(xùn)練的參數(shù)可以添加 "--weight init.caffemodel"或者"--snapshot snapshotfile.solvestate"
測試或預(yù)測:caffe test --weight test.caffemodel --model test.txt --iteration test_iteration
更加深入的理解,還要從源碼出發(fā),首先Caffe源碼的tools目錄下的caffe.cpp是生成可執(zhí)行文件的源碼,其中定義了train()和test()兩個函數(shù)分別執(zhí)行訓(xùn)練和測試,也可以自定義函數(shù)執(zhí)行特定操作。
首先看train()函數(shù):
??CHECK_GT(FLAGS_solver.size(),?0)?<<?"Need?a?solver?definition?to?train."; ??CHECK(!FLAGS_snapshot.size()?||?!FLAGS_weights.size()) ??????<<?"Give?a?snapshot?to?resume?training?or?weights?to?finetune?" ??????"but?not?both.";
首先檢查是否有solver.txt文件,文件名可自定義,但是內(nèi)容必須符合solver結(jié)構(gòu),在src/caffe/proto/caffe.proto中有此定義。然后檢查snapshot和weight,這兩個參數(shù)分別用于中斷后繼續(xù)訓(xùn)練和學(xué)習(xí)遷移的。
參數(shù)檢查完畢,caffe開始加載solver文件,之后是檢查訓(xùn)練要工作在CPU還是GPU。
??caffe::SolverParameter?solver_param; ??caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver,?&solver_param);
工作設(shè)備設(shè)定后,根據(jù)加載的solver_param參數(shù)創(chuàng)建solver對象,并根據(jù)snapshot和weight參數(shù)加載模型參數(shù),如果兩個參數(shù)都沒有設(shè)置,則模型根據(jù)提供的初始化類型或者默認(rèn)值進(jìn)行初始化。
shared_ptr<caffe::Solver>??solver(caffe::SolverRegistry::CreateSolver(solver_param)); ??solver->SetActionFunction(signal_handler.GetActionFunction()); ??if?(FLAGS_snapshot.size())?{ ????LOG(INFO)?<<?"Resuming?from?"?<<?FLAGS_snapshot; ????solver->Restore(FLAGS_snapshot.c_str()); ??}?else?if?(FLAGS_weights.size())?{ ????CopyLayers(solver.get(),?FLAGS_weights); ??}
設(shè)置和初始化完成,就可以訓(xùn)練了。CPU版本的就是solver對象調(diào)用其Solver()函數(shù)。
??LOG(INFO)?<<?"Starting?Optimization"; ??if?(gpus.size()?>?1)?{ #ifdef?USE_NCCL ????caffe::NCCLnccl(solver); ????nccl.Run(gpus,?FLAGS_snapshot.size()?>?0???FLAGS_snapshot.c_str()?:?NULL); #else ????LOG(FATAL)?<<?"Multi-GPU?execution?not?available?-?rebuild?with?USE_NCCL"; #endif ??}?else?{ ????solver->Solve(); ??}
再看test()函數(shù):
首先也是檢查solver文件和權(quán)值文件weight,但是此時weight必須提供,否則無法預(yù)測
??CHECK_GT(FLAGS_model.size(),?0)?<<?"Need?a?model?definition?to?score."; ??CHECK_GT(FLAGS_weights.size(),?0)?<<?"Need?model?weights?to?score.";
然后檢測當(dāng)前平臺是否支持GPU,如果支持,則默認(rèn)使用GPU進(jìn)行預(yù)測
//?Set?device?id?and?mode ??vectorgpus; ??get_gpus(&gpus); ??if?(gpus.size()?!=?0)?{ ????LOG(INFO)?<<?"Use?GPU?with?device?ID?"?<<?gpus[0]; #ifndef?CPU_ONLY ????cudaDeviceProp?device_prop; ????cudaGetDeviceProperties(&device_prop,?gpus[0]); ????LOG(INFO)?<<?"GPU?device?name:?"?<<?device_prop.name; #endif ????Caffe::SetDevice(gpus[0]); ????Caffe::set_mode(Caffe::GPU); ??}?else?{ ????LOG(INFO)?<<?"Use?CPU."; ????Caffe::set_mode(Caffe::CPU); ??}
平臺設(shè)定后,創(chuàng)建Net對象初始化預(yù)測的神經(jīng)網(wǎng)絡(luò),然后使用weight參數(shù)初始化網(wǎng)絡(luò)權(quán)值
??Netcaffe_net(FLAGS_model,?caffe::TEST,?FLAGS_level,?&stages); ??caffe_net.CopyTrainedLayersFrom(FLAGS_weights);
然后就可以開始預(yù)測了
??for?(int?i?=?0;?i?<?FLAGS_iterations;?++i)?{ ????float?iter_loss; ????const?vector<Blob*>&?result?= ????????caffe_net.Forward(&iter_loss); ????loss?+=?iter_loss; ????int?idx?=?0; ????for?(int?j?=?0;?j?<?result.size();?++j)?{ ??????const?float*?result_vec?=?result[j]->cpu_data(); ??????for?(int?k?=?0;?k?<?result[j]->count();?++k,?++idx)?{ ????????const?float?score?=?result_vec[k]; ????????if?(i?==?0)?{ ??????????test_score.push_back(score); ??????????test_score_output_id.push_back(j); ????????}?else?{ ??????????test_score[idx]?+=?score; ????????} ????????const?std::string&?output_name?=?caffe_net.blob_names()[ ????????????caffe_net.output_blob_indices()[j]]; ????????LOG(INFO)?<<?"Batch?"?<<?i?<<?",?"?<<?output_name?<<?"?=?"?<<?score; ??????} ????} ??}
主要是caffe_net.Forward(&iter_loss);這一句,其他都是為了可視化的參數(shù)。