
2026/01/22
圖文引用自:taiwandaily.net
機器人與人類溝通的「僵硬感」正被技術突破。根據《科技日報》(SciTechDaily)報導,哥倫比亞大學(Columbia University)工程團隊15日發布重大進展,開發出一款能透過「觀察」影像自學唇部運動的擬真機器人。這項技術讓機器人不再依賴死板的預設程式,而是能精準模擬說話與唱歌的嘴型,解決了擬真機器人長期以來讓人感到不安的「假臉」問題。
長期以來,擬真機器人最難克服的挑戰就是說話時的僵硬感。這款由哥大「創意機器實驗室」研發的機器人,臉部下方裝載26組微型馬達,並覆蓋柔韌材料。研究團隊發表於《科學機器人》(Science Robotics)期刊的論文指出,這架機器人首先透過「照鏡子」觀察自己,理解馬達如何牽動表情,隨後再觀看數小時的YouTube影片,學習人類說話與唱歌時的嘴型變化。
這種「視覺對應動作(VLA)」的語言模型,讓機器人能將音訊直接轉化為自然的唇部動作。測試過程中,這架機器人不僅能應對多種語言,甚至能配合音樂節奏演唱由AI生成的數位專輯單曲。
預測10億台大軍將至 擬真互動成推廣關鍵
實驗室主任利普森(Hod Lipson)指出,擬真表情對未來的醫療、照護與教育型機器人至關重要。利普森表示:「未來的機器人勢必會有臉孔,如果嘴唇動作不協調,將永遠顯得不自然、讓人恐懼。」…