當(dāng)前位置:首頁 > 芯聞號(hào) > 充電吧
[導(dǎo)讀]學(xué)習(xí)一種工具最簡(jiǎn)單和最有效的方法是download一個(gè)demo,根據(jù)教程模擬。Caffe作為深度學(xué)習(xí)框架,它也是一種工具,官方提供了一些demo,主要是在Caffe運(yùn)行的網(wǎng)絡(luò)架構(gòu)文件。那么如何跑起一個(gè)

學(xué)習(xí)一種工具最簡(jiǎn)單和最有效的方法是download一個(gè)demo,根據(jù)教程模擬。Caffe作為深度學(xué)習(xí)框架,它也是一種工具,官方提供了一些demo,主要是在Caffe運(yùn)行的網(wǎng)絡(luò)架構(gòu)文件。那么如何跑起一個(gè)demo呢?或者如何用demo直接做預(yù)測(cè)呢?

訓(xùn)練:caffe train --solver solver.txt 這樣就可以了,如果有已訓(xùn)練好的參數(shù)或者進(jìn)行學(xué)習(xí)遷移finetuning,那么訓(xùn)練的參數(shù)可以添加 "--weight init.caffemodel"或者"--snapshot snapshotfile.solvestate"

測(cè)試或預(yù)測(cè):caffe test --weight test.caffemodel --model test.txt --iteration test_iteration

更加深入的理解,還要從源碼出發(fā),首先Caffe源碼的tools目錄下的caffe.cpp是生成可執(zhí)行文件的源碼,其中定義了train()和test()兩個(gè)函數(shù)分別執(zhí)行訓(xùn)練和測(cè)試,也可以自定義函數(shù)執(zhí)行特定操作。

首先看train()函數(shù):


??CHECK_GT(FLAGS_solver.size(),?0)?<<?"Need?a?solver?definition?to?train.";
??CHECK(!FLAGS_snapshot.size()?||?!FLAGS_weights.size())
??????<<?"Give?a?snapshot?to?resume?training?or?weights?to?finetune?"
??????"but?not?both.";

首先檢查是否有solver.txt文件,文件名可自定義,但是內(nèi)容必須符合solver結(jié)構(gòu),在src/caffe/proto/caffe.proto中有此定義。然后檢查snapshot和weight,這兩個(gè)參數(shù)分別用于中斷后繼續(xù)訓(xùn)練和學(xué)習(xí)遷移的。
參數(shù)檢查完畢,caffe開始加載solver文件,之后是檢查訓(xùn)練要工作在CPU還是GPU。


??caffe::SolverParameter?solver_param;
??caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver,?&solver_param);

工作設(shè)備設(shè)定后,根據(jù)加載的solver_param參數(shù)創(chuàng)建solver對(duì)象,并根據(jù)snapshot和weight參數(shù)加載模型參數(shù),如果兩個(gè)參數(shù)都沒有設(shè)置,則模型根據(jù)提供的初始化類型或者默認(rèn)值進(jìn)行初始化。


shared_ptr<caffe::Solver>??solver(caffe::SolverRegistry::CreateSolver(solver_param));

??solver->SetActionFunction(signal_handler.GetActionFunction());

??if?(FLAGS_snapshot.size())?{
????LOG(INFO)?<<?"Resuming?from?"?<<?FLAGS_snapshot;
????solver->Restore(FLAGS_snapshot.c_str());
??}?else?if?(FLAGS_weights.size())?{
????CopyLayers(solver.get(),?FLAGS_weights);
??}

設(shè)置和初始化完成,就可以訓(xùn)練了。CPU版本的就是solver對(duì)象調(diào)用其Solver()函數(shù)。


??LOG(INFO)?<<?"Starting?Optimization";
??if?(gpus.size()?>?1)?{
#ifdef?USE_NCCL
????caffe::NCCLnccl(solver);
????nccl.Run(gpus,?FLAGS_snapshot.size()?>?0???FLAGS_snapshot.c_str()?:?NULL);
#else
????LOG(FATAL)?<<?"Multi-GPU?execution?not?available?-?rebuild?with?USE_NCCL";
#endif
??}?else?{
????solver->Solve();
??}


再看test()函數(shù):

首先也是檢查solver文件和權(quán)值文件weight,但是此時(shí)weight必須提供,否則無法預(yù)測(cè)


??CHECK_GT(FLAGS_model.size(),?0)?<<?"Need?a?model?definition?to?score.";
??CHECK_GT(FLAGS_weights.size(),?0)?<<?"Need?model?weights?to?score.";

然后檢測(cè)當(dāng)前平臺(tái)是否支持GPU,如果支持,則默認(rèn)使用GPU進(jìn)行預(yù)測(cè)


//?Set?device?id?and?mode
??vectorgpus;
??get_gpus(&gpus);
??if?(gpus.size()?!=?0)?{
????LOG(INFO)?<<?"Use?GPU?with?device?ID?"?<<?gpus[0];
#ifndef?CPU_ONLY
????cudaDeviceProp?device_prop;
????cudaGetDeviceProperties(&device_prop,?gpus[0]);
????LOG(INFO)?<<?"GPU?device?name:?"?<<?device_prop.name;
#endif
????Caffe::SetDevice(gpus[0]);
????Caffe::set_mode(Caffe::GPU);
??}?else?{
????LOG(INFO)?<<?"Use?CPU.";
????Caffe::set_mode(Caffe::CPU);
??}

平臺(tái)設(shè)定后,創(chuàng)建Net對(duì)象初始化預(yù)測(cè)的神經(jīng)網(wǎng)絡(luò),然后使用weight參數(shù)初始化網(wǎng)絡(luò)權(quán)值


??Netcaffe_net(FLAGS_model,?caffe::TEST,?FLAGS_level,?&stages);
??caffe_net.CopyTrainedLayersFrom(FLAGS_weights);

然后就可以開始預(yù)測(cè)了


??for?(int?i?=?0;?i?<?FLAGS_iterations;?++i)?{
????float?iter_loss;
????const?vector<Blob*>&?result?=
????????caffe_net.Forward(&iter_loss);
????loss?+=?iter_loss;
????int?idx?=?0;
????for?(int?j?=?0;?j?<?result.size();?++j)?{
??????const?float*?result_vec?=?result[j]->cpu_data();
??????for?(int?k?=?0;?k?<?result[j]->count();?++k,?++idx)?{
????????const?float?score?=?result_vec[k];
????????if?(i?==?0)?{
??????????test_score.push_back(score);
??????????test_score_output_id.push_back(j);
????????}?else?{
??????????test_score[idx]?+=?score;
????????}
????????const?std::string&?output_name?=?caffe_net.blob_names()[
????????????caffe_net.output_blob_indices()[j]];
????????LOG(INFO)?<<?"Batch?"?<<?i?<<?",?"?<<?output_name?<<?"?=?"?<<?score;
??????}
????}
??}


主要是caffe_net.Forward(&iter_loss);這一句,其他都是為了可視化的參數(shù)。











本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉