以上六個Script功能提供基本運作功能,若您的瀏覽器不支援JavaScript功能,若網頁功能無法正常使用時,請開啟瀏覽器JavaScript狀態。 跳到主要內容區塊

媒體報導

百元鏡頭看世界 清大打造智慧機器人
新聞來源:聯合新聞網   發佈時間:2018-06-05

 2018-05-31  記者郭宣彣 即時報導

 
清華大學資工系助理教授李濬屹帶領學生團隊打造出新一代的「NVISION II 智慧機器人」,且只靠著一個幾百元鏡頭就能「看」世界,機器人能走、能閃避障礙物,還能跟著人走。李濬屹表示,未來,若以這種技術設計出的掃地機器人,就可以在撞到家具之前繞過去,機器車走在路上也可閃避靜態與動態的障礙物,還能跟著人走,可應用在智慧家庭、智慧校園及智慧製造等領域。
 
李濬屹團隊運用Unity3D為機器人創造虛擬世界模組,並先定義顏色所代表含意,比如,紫色代表道路、藍色即為汽車、紅色就是人,並也設定機器人以累積高分為目標,如果能成功閃避障礙物,即可獲高分、若失敗則負分。智慧機器人在虛擬世界中訓練後,再把同樣的經驗運用到真實世界,就能成功閃避障礙物,得以順利前進。
 
李濬屹說,用視覺辨識技術框出真實世界影像中物體的輪廓,再分析光影、色澤、材質,分別予以定義轉換,此時人變成紅色的色塊,移動的車輛則變成藍色,就像在「魔鬼終結者」等科幻電影中人工智慧看到的世界一樣,機器人就能「看懂」。
 
李濬屹表示,這套系統可把智慧機器人在真實世界中拍到的影像,利用深度學習技術自動塗色,標記出看到的物體,可讓智慧機器人在虛擬世界中學習過去在真實世界才能學到的經驗,將可大量節省訓練時間及成本,並避免訓練過程可能造成周遭人事物的損壞。
 
李濬屹說,別於傳統機器人全身裝滿感測器來偵測周遭環境, 智慧機器人只靠一個幾百元鏡頭來「看」世界,再透過深度神經網路分析,把真實世界的人、車、建築物等轉換為機器人能理解的圖像語義分割影像,就能讓機器人行動自如,不但能閃避障礙物及迎面而來的車輛,還會跟著人走。
 
此外,在虛擬世界訓練時,也要讓機器人認知自己的身材高矮胖瘦,否則若認知錯誤,在真實世界轉彎時就會撞到東西。
 
李濬屹強調,有了這套系統,無人駕駛車就可以在虛擬世界中先訓練,最後才真的上路測試,可大幅提升效率、節省成本,也減少危險,「我們是世界上很早提出這樣創新想法的團隊,最近看到Uber與Intel也把類似的想法用在開發自動駕駛車輛上。」
 
帶學生勇闖世界大賽 矽谷奪冠
2016年李濬屹即帶領學生參加輝達在台舉辦的嵌入式智能機器人挑戰賽,以新手打敗不少專業團隊,榮獲全國冠軍。李濬屹今年再度帶著清華資工系學生洪章瑋、陳昱名、楊炫恭、蕭興暐、蕭子謦、賴思頻組成團隊,打進今年3月在美國矽谷舉辦的Jetson開發者挑戰賽,在80國團隊中勇奪冠軍。
 
團隊名稱ELSA LAB引自動畫電影「冰雪奇緣」的Elsa,李濬屹笑稱,這是因為Elsa智慧又善良的特質與團隊精神相符。
 
團隊成員、清華資工系大四生楊炫恭說,一年來為了找出能連接機器人眼中虛擬影像與真實世界的方法,日思夜想,「最後是在夢中得到靈感。」
 
成員陳昱名說,研究最辛苦的就是要帶著重達80多公斤的機器人到戶外測試、蒐集數據,好不容易教機器人看懂真實世界影像時,又發生機器人一動、鏡頭就出現殘影等問題,「最難忘的是和與學長洪章瑋熬夜調整參數,機器人終於成功動起來的瞬間。」
 
(聯合新聞網)