【美國直擊】Google無障礙發展 AI幫大忙

出版時間:2019/05/10 00:04

根據世界衛生組織(WHO),全球現在有超過10億人口在身體上有障礙,其中有4.66億人聽覺受損,估計在2050年這個數字將來到9億,因此今年Google I/O再推進無障礙(Accessibility)領域的發展。針對視覺障礙人士,Lookout這個App可助其了解周遭環境,在實體環境移動的同時,透過同Google Lens一樣的AI圖像辨識技術,手機鏡頭能為視覺障礙人士辨識周遭的東西,並能提示其方位、告訴用戶「12點鐘方向有一隻狗」。
 
除了探索外,它還具有購物、快速閱讀等功能,但Lookout為美國限定、目前僅支援英語。Google外的公司雖有類似功能,但Lookout特別之處在於辨識技術,偵測角度達360度,甚至提供Hands free的使用情境,將手機戴在身上就能為盲胞提示周遭物件,它的on device特性讓它免連線就能使用。
 
訓練AI模型 為語言障礙者發聲
 
每天都得面對如何「表達」的語言障礙人士,如罹患帕金森氏症、肌萎縮性脊髓側索硬化症(ALS)或中風的族群,Google的Project Euphonia計畫,則透過AI提高電腦理解各種說話型態的能力。Google語音研究員Dimitri Kanevsky年幼失聰後才開始學習英文,透過即時轉錄(Live Transcribe)App與自訂的語音辨識模型(機器學習),專門辨識他的聲音並轉為聲譜圖,進而幫助他找回聲音、順利表達。
 
另一例子是13年前被確診為ALS的Steve Saling,在Project Euphonia影片中,即便無法出聲也能操作Google Home,他在觀賞運動賽事時能透過臉部表情引導機器發出歡呼聲響,藉的就是大量語音樣本訓練出的模型。此外,今年I/O發表的即時字幕Live Caption、以輸入文字方式在電話溝通的Live Relay都是Google為實現無障礙所做的努力。(廖家葆/舊金山報導)

想知道更多,一定要看……
【美國直擊】Google I/O亮相新車載系統Android Automotive OS

看了這則新聞的人,也看了……
要凸一起凸!2019新iPhone鏡頭排排站
【獨家】美女主廚台中豪宅首公開 日花2小時陪尪吃早餐

Project Euphonia讓罹患ALS的漸凍人Steve Saling以機器學習模型偵測出他想表達的意思。Google提供
Project Euphonia讓罹患ALS的漸凍人Steve Saling以機器學習模型偵測出他想表達的意思。Google提供

Lookout這個App整合了圖像辨識功能,會將視覺障礙人士周遭的物件「唸」給他聽。Google提供
Lookout這個App整合了圖像辨識功能,會將視覺障礙人士周遭的物件「唸」給他聽。Google提供

Google無障礙工程產品經理Patrick Clary因脊椎問題坐輪椅,透過「戴著」開啟Lookout的手機,能更掌握周圍物件。廖家葆攝
Google無障礙工程產品經理Patrick Clary因脊椎問題坐輪椅,透過「戴著」開啟Lookout的手機,能更掌握周圍物件。廖家葆攝

Live Caption功能可為影片、音檔或podcast上字幕,幫助聽覺障礙人士。Google提供
Live Caption功能可為影片、音檔或podcast上字幕,幫助聽覺障礙人士。Google提供

本新聞文字、照片、影片專供蘋果「升級壹會員」閱覽,版權所有,禁止任何媒體、社群網站、論壇,在紙本或網路部分引用、改寫、轉貼分享,違者必究。

下載「蘋果新聞網APP


有話要說 投稿「即時論壇」
更多

《3C》

新聞