美國史丹佛大學(Stanford University)近期發表一項研究,以其開發的語音辨識模型嘗試辨別喝醉的人,結果顯示酒醉預測準確率高達98%。但是受測者若還吃喝了這些,反而會讓這套語音辨識準確度降低。
國內輿論近期對於酒駕零容忍的議題,愈來愈關注,問題在於如何全面防範。在這方面,手機語音助理愈來愈「貼心」!透過聲音辨識喝酒指數,自動預約計程車或聯絡親友,而不是讓你冒險開車上路,可能是未來新選項。
史丹佛大學研究團隊日前在《酒精與藥物研究期刊》(Journal of Studies on Alcohol and Drugs )上刊登一篇論文,透過實驗證明其開發的語音辨識模型,能透過受試者的聲音有效辨別其是否喝醉。
研究團隊指出,酗酒會帶來許多健康和安全的疑慮,酒後駕車的風險更是危及他人。雖然現行的經皮酒精感測器(Transdermal alcohol sensors )和行動式呼吸酒測器(Portable breath alcohol meters),已能準確評估血液中的酒精含量,但因成本和易用性問題而難以普及。
因此,研究團隊便希望將檢測功能,融入人手一支的手機。研究者之一、史丹佛大學急診醫學系(Emergency Medicine)教授薩福萊托(Brian Suffoletto)表示,他們希望開發出一個工具,能在生活中監測個人飲酒後的變化,以了解他們何時需要幫助。他們發現,聲音是很好的衡量標準,這是需要100多塊肌肉協調的高階感官、認知和運動過程的結果,並且現在有越來越多手機功能可透過語音助理執行。過去研究也證明,聲音能用於檢測帕金森氏症、以及搖頭丸(3,4-methylenedioxymethamphetamine, MDMA)的使用。
準確率高達98%
此研究的受試者共有18位,皆是平時有喝酒習慣的成人。研究團隊要求他們服用口服乙醇,以使呼氣酒精濃度(Breath alcohol concentration)大於20%。在受試者離開實驗室後,他們必須每半小時用手機錄下自己朗讀繞口令的聲音,並為期七小時。研究團隊指出,繞口令已被證實能誘導健康說話者的語音錯誤(Speech errors)與辨識語音障礙(Speech disorders)。
結果顯示,此研究開發的語音辨識模型,在辨別受試者是否喝醉時,有高達98%的準確率。研究團隊指出,此模型使用的德語語料庫準確率略低,約70%。其推測此研究表現較佳的原因,可能是由於其使用一套標準的繞口令,能夠引起較強的口腔輪替運動(Diadochokinesis),也就是說話時口腔肌肉的協調;此外,使用指定的內容,也減少了個人和時間點之間的變異性(Variability)。
不過,此研究若要落實到現實中,仍存在一些限制。例如在現實中人們會說的話可能更短,受到酒精影響的差異可能不明顯;或是個人會受到酒精之外的因素干擾,例如咖啡、藥物等,可能使模型的準確率降低。
研究團隊認為,後續研究應該建立更大的語音樣本庫,也可嘗試與科技公司如亞馬遜(Amazon)建立關係,以搜集現實世界中的樣本。最後,例如語音助理在辨識出使用者喝醉後,能多大程度地採取行動以維護使用者安全,這類的科技侵入性問題也是需要考慮的一環。