

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著消費(fèi)者對(duì)服裝的合體性、個(gè)性化需求不斷提升,服裝企業(yè)生產(chǎn)逐漸由適應(yīng)大眾消費(fèi)的批量生產(chǎn)過(guò)渡到適應(yīng)特定消費(fèi)者的定制式生產(chǎn),包括面向群體的批量定制和面向個(gè)體消費(fèi)者的量身定制。體型分析是服裝定制的前提,然而在體型分類細(xì)化與樣板數(shù)據(jù)增多的同時(shí),龐大的體型數(shù)據(jù)庫(kù)與號(hào)型數(shù)據(jù)庫(kù)也隨之產(chǎn)生,如何實(shí)現(xiàn)人體體型數(shù)據(jù)與服裝號(hào)型數(shù)據(jù)的快速、精確、高效匹配是服裝定制過(guò)程中亟待解決的關(guān)鍵問(wèn)題之一。為此,課題在人體體型分析的基礎(chǔ)上構(gòu)建了基于神經(jīng)網(wǎng)絡(luò)集成的服裝號(hào)型自動(dòng)
2、歸檔系統(tǒng)。
首先,采用美國(guó)[TC]2三維人體測(cè)量?jī)x對(duì)年齡在18-25歲之間的青年女性進(jìn)行三維人體測(cè)量,采集人體控制部位的數(shù)據(jù)信息以及人體正面與側(cè)面的二維圖像;通過(guò)圖像處理技術(shù)得到清晰的人體體表輪廓線,在此基礎(chǔ)上提取體表特征點(diǎn)坐標(biāo)并計(jì)算得到6個(gè)體表角度。
其次,通過(guò)對(duì)體表角度的偏相關(guān)分析得到具有代表性的4個(gè)體表角度指標(biāo),即肩斜角、體側(cè)角、胸突角、臀突角,分別用以表征人體肩部、腰部、胸背部和臀部的體表形態(tài)特征;運(yùn)
3、用K-Means聚類方法將人體體型分為4類,并與國(guó)標(biāo)Y、A、B、C四種體型組合得到16種細(xì)分體型。
再次,將神經(jīng)網(wǎng)絡(luò)集成方法運(yùn)用于人體體型識(shí)別研究,通過(guò)Adaboost算法集成10個(gè)簡(jiǎn)單BP神經(jīng)網(wǎng)絡(luò),運(yùn)用MatlabR20lOa軟件構(gòu)建BP-Adaboost神經(jīng)網(wǎng)絡(luò)體型識(shí)別模型,實(shí)現(xiàn)人體體型自動(dòng)識(shí)別,識(shí)別精度達(dá)95%。
然后,根據(jù)服裝結(jié)構(gòu)設(shè)計(jì)的需要,在國(guó)標(biāo)服裝號(hào)型控制部位的基礎(chǔ)上將控制部位擴(kuò)增為20項(xiàng);通過(guò)試
4、穿實(shí)驗(yàn),根據(jù)適體性原則得到人體與號(hào)型的對(duì)應(yīng)關(guān)系。由此統(tǒng)計(jì)分析得到各細(xì)分體形在號(hào)型系列中的分布規(guī)律,并計(jì)算得到號(hào)型規(guī)格相應(yīng)控制部位的具體數(shù)值。
最后運(yùn)用MIV算法分別對(duì)上裝和下裝的控制部位指標(biāo)進(jìn)行篩選,將篩選后的控制部位指標(biāo)作為神經(jīng)網(wǎng)絡(luò)模型的輸入層,運(yùn)用神經(jīng)網(wǎng)絡(luò)集成方法構(gòu)建身高、胸圍、腰圍的預(yù)測(cè)模型:結(jié)合體型識(shí)別模型得到號(hào)型的三項(xiàng)構(gòu)成單元信息,即號(hào)(身高)、型(胸圍、腰圍)和體型,由此構(gòu)建基于神經(jīng)網(wǎng)絡(luò)集成的服裝號(hào)型歸檔系統(tǒng),
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為檢測(cè)研究.pdf
- 基于人工神經(jīng)網(wǎng)絡(luò)的人體運(yùn)動(dòng)跟蹤.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究.pdf
- 基于BP神經(jīng)網(wǎng)絡(luò)的服裝號(hào)型推薦方法研究.pdf
- 基于膚色模型與神經(jīng)網(wǎng)絡(luò)集成的人臉檢測(cè).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體檢測(cè)方法研究.pdf
- 基于人工神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別技術(shù)研究.pdf
- 基于3D卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別.pdf
- 基于DCT的PCA及集成神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究.pdf
- 基于Boosting的人工神經(jīng)網(wǎng)絡(luò)集成及其模式分類.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的視頻中的人體行為識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度分析.pdf
- 基于神經(jīng)網(wǎng)絡(luò)集成的數(shù)據(jù)分析.pdf
- 基于脈沖耦合神經(jīng)網(wǎng)絡(luò)的人臉朝向分析.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作及自發(fā)表情識(shí)別.pdf
- 基于人工神經(jīng)網(wǎng)絡(luò)的人體成分測(cè)量?jī)x原型系統(tǒng)研究.pdf
- 服裝網(wǎng)絡(luò)銷售中的人體測(cè)量及號(hào)型推薦研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)研究.pdf
評(píng)論
0/150
提交評(píng)論