標題: 由人類表演之三維運動數據中自動挖掘基本動作與行為模組
Automatic Discovery of Action and Behavior Primitives from 3D Human Performance Motions
作者: 陳稔
CHEN ZEN
國立交通大學資訊工程學系
關鍵字: 運動分段 人型支架 時間變形 維度降低 運動相似度 基本動作 動作自動挖掘行為模組 運動限制 動作編輯 動作混合 動作合成;Motion Segmentation;Stick Figure;Time Warping;Dimension Reduction;Motion Similarity;Motion Primitives;Action and Behavior Discovery;Motion Constraints;Motion Editing;Motion Blending;Motion Synthesis.
公開日期: 2004
摘要: 本計畫是針對人類表演時所做的動作進行分析及再利用。首先我們收集現有的拳擊 或體操等3D human motion data 或利用我們前期計畫所建立Vision-based Mo-Cap 系 統收集上述人體運動的數據。其次,我們對每套表演動作的人體3D data 表示成為一個 人型支架(stick figure)的tree structure。一個input motion stream 是一序列的 frame sequence。我們將此frame sequence 做分段工作(segmentation)。為了降低運 動空間的維度(motion space dimensionality),我們採取分割全身為五、六個肢節 (substructures)。我們分段工作是針對各個肢節去做。獲得分段後的各個motion segments,我們開始進行基本動作(motion primitives)的自動挖掘(automatic discovery)。我們將採用維度降低(dimension reduction)及多重解析度分析 (multi-resolution analysis)的並用方法。在抽取出基本動作後,我們利用線性動態 系統(linear dynamic system)來描述基本動作,經運動參數評估後,作為一個原子程 序(generic motion procedure),以供再利用時使用。我們更進一步將各肢節的基本動 作,尋求可同步組合起來的,去構成一個動作單元(body action units) 。然後再分析 全部motion stream 中有哪些動作單元擁有某種經常性的時間接序關係(temporal relation),去定義一個更高階的行為模組(behavior units)。至此,我們初步對整個 表演動作做了分析與註解(annotation)。另一方面,我們提供動作再利用的編輯工具 (motion editing tools),包括resampling、rescaling、warping、blending 等,以 便修改現有動作產生新動作。
官方說明文件#: NSC93-2213-E009-064
URI: http://hdl.handle.net/11536/91633
https://www.grb.gov.tw/search/planDetail?id=1006968&docId=189767
顯示於類別:研究計畫


文件中的檔案:

  1. 932213E009064.pdf

若為 zip 檔案,請下載檔案解壓縮後,用瀏覽器開啟資料夾中的 index.html 瀏覽全文。