Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 葉展彰 | en_US |
dc.contributor.author | YEH, CHAN-CHANG | en_US |
dc.contributor.author | 曾憲雄 | en_US |
dc.date.accessioned | 2014-12-12T02:56:59Z | - |
dc.date.available | 2014-12-12T02:56:59Z | - |
dc.date.issued | 2005 | en_US |
dc.identifier.uri | http://140.113.39.130/cdrfb3/record/nctu/#GT009323617 | en_US |
dc.identifier.uri | http://hdl.handle.net/11536/79149 | - |
dc.description.abstract | 隨著多媒體技術的進步,數位化的音樂已經廣為散佈,傳統的音樂研究集中在音樂的分類、推薦以及分析,現今的研究則試著要找出音樂與人類情緒反應的關係,第一種作法,找出音樂屬性與音樂情緒反應的關係,建立一個音樂情緒的反應模型,預測所有人的音樂心情反應,此種做法最主要的缺點就是沒有考慮到個人的差異性情緒反應;另一種作法,針對每個人訓練出音樂情緒反應模型,再利用這個模型來預測音樂情緒反應,此法雖然有考慮到個人間的差異性,但是主要的缺點則在於訓練模型時的時間浪費,事實上,雖然個人的反應存在差異性,但依然具有群組性的行為模式。 本論文主要改進以上缺點,提出一個個人化的音樂情緒反應預測分析系統,考慮使用者背景的差異性,來預測使用者的音樂情緒反應,其分析過程總共包括五個階段:1)資料前處理;2)使用者情緒反應群體分群;3)使用者情緒反應群體分類;4)音樂情緒預測;5)個人化音樂情緒反應規則整合。經過以上五個階段,就可以產生個人化的音樂情緒反應預測規則,並將之建於個人化音樂情緒反應預測系統內,用來預測音樂情緒。在使用的過程,只要預先知道使用者的背景相關資料,輸入某首音樂,便可依照音樂的屬性值,預測此人的音樂情緒反應。 本論文最後邀請二十四個人聆聽二十首音樂來做實驗,利用此訓練資料產生出個人化情緒反應預測規則,並邀請十個人聆聽四首音樂來做測試,測試結果可達百分之七十的準確度。 | zh_TW |
dc.language.iso | en_US | en_US |
dc.subject | 音樂情緒反應預測 | zh_TW |
dc.subject | 資料探勘 | zh_TW |
dc.subject | 分群法 | zh_TW |
dc.subject | 分類法 | zh_TW |
dc.subject | Personalized Music Emotion Prediction | en_US |
dc.subject | Data Mining | en_US |
dc.subject | Classification | en_US |
dc.subject | Clustering | en_US |
dc.title | 個人化音樂情緒反應預測系統之建造 | zh_TW |
dc.title | Building a Personalized Music Emotion Prediction System | en_US |
dc.type | Thesis | en_US |
dc.contributor.department | 資訊科學與工程研究所 | zh_TW |
Appears in Collections: | Thesis |
Files in This Item:
If it is a zip file, please download the file and unzip it, then open index.html in a browser to view the full text content.