Full metadata record
DC FieldValueLanguage
dc.contributor.author葉展彰en_US
dc.contributor.authorYEH, CHAN-CHANGen_US
dc.contributor.author曾憲雄en_US
dc.date.accessioned2014-12-12T02:56:59Z-
dc.date.available2014-12-12T02:56:59Z-
dc.date.issued2005en_US
dc.identifier.urihttp://140.113.39.130/cdrfb3/record/nctu/#GT009323617en_US
dc.identifier.urihttp://hdl.handle.net/11536/79149-
dc.description.abstract隨著多媒體技術的進步,數位化的音樂已經廣為散佈,傳統的音樂研究集中在音樂的分類、推薦以及分析,現今的研究則試著要找出音樂與人類情緒反應的關係,第一種作法,找出音樂屬性與音樂情緒反應的關係,建立一個音樂情緒的反應模型,預測所有人的音樂心情反應,此種做法最主要的缺點就是沒有考慮到個人的差異性情緒反應;另一種作法,針對每個人訓練出音樂情緒反應模型,再利用這個模型來預測音樂情緒反應,此法雖然有考慮到個人間的差異性,但是主要的缺點則在於訓練模型時的時間浪費,事實上,雖然個人的反應存在差異性,但依然具有群組性的行為模式。 本論文主要改進以上缺點,提出一個個人化的音樂情緒反應預測分析系統,考慮使用者背景的差異性,來預測使用者的音樂情緒反應,其分析過程總共包括五個階段:1)資料前處理;2)使用者情緒反應群體分群;3)使用者情緒反應群體分類;4)音樂情緒預測;5)個人化音樂情緒反應規則整合。經過以上五個階段,就可以產生個人化的音樂情緒反應預測規則,並將之建於個人化音樂情緒反應預測系統內,用來預測音樂情緒。在使用的過程,只要預先知道使用者的背景相關資料,輸入某首音樂,便可依照音樂的屬性值,預測此人的音樂情緒反應。 本論文最後邀請二十四個人聆聽二十首音樂來做實驗,利用此訓練資料產生出個人化情緒反應預測規則,並邀請十個人聆聽四首音樂來做測試,測試結果可達百分之七十的準確度。zh_TW
dc.language.isoen_USen_US
dc.subject音樂情緒反應預測zh_TW
dc.subject資料探勘zh_TW
dc.subject分群法zh_TW
dc.subject分類法zh_TW
dc.subjectPersonalized Music Emotion Predictionen_US
dc.subjectData Miningen_US
dc.subjectClassificationen_US
dc.subjectClusteringen_US
dc.title個人化音樂情緒反應預測系統之建造zh_TW
dc.titleBuilding a Personalized Music Emotion Prediction Systemen_US
dc.typeThesisen_US
dc.contributor.department資訊科學與工程研究所zh_TW
Appears in Collections:Thesis


Files in This Item:

  1. 361701.pdf

If it is a zip file, please download the file and unzip it, then open index.html in a browser to view the full text content.