跳到主要內容區

演講公告(10月19日):機器如何聽懂人說話

ImgDesc

       這一次我們很榮幸邀請到台灣大學電機工程學系助理教授,人稱AI界的最強Youtuber李宏毅教授,只要你google「李宏毅」這三個字,就可以找到他在Youtube上的所有關於AI技術的教學影片,近十萬的訂閱,造福了想要踏入AI界的莘莘學子。這次他為我們長庚大學帶來的主題為「機器如何聽懂人說話」,內容為語音辨識,主要就是說明如何讓機器辨識並理解語音訊號的內容。首先,李宏毅教授統整了人類語言處裡技術的四大類。
       第一類為:「輸入語音,產生文字」,這項技術是讓機器聽了一段聲音之後,產生相對應的文字,這功能非常普及,也就是手機跟智能音箱都能做到的功能,除此之外,還可以做到語音辨識加上翻譯,像是給機器看了很長一段的鄉土劇影片,且不做任何的加工,機器也能透過學習將台語轉換成中文。
       接著第二類技術為「輸入文字,產生語音」,顧名思義就是語音合成,最常見的就是google小姐,當你輸入一段文字,google小姐就可以把那段文字給唸出來,這類技術是依靠類神經網路並提供許多語音跟文字對照的資料,如此一來就可以讓機器自己學會語音合成。
       再來是第三類技術「輸入語音,產生語音」,這邊李宏毅教授不改以往有趣的風格,帶入了廣為人知的動畫名偵探柯南的元素:領結變聲器,也就是可以讓機器聽取A的一段話之後,用B的聲音給唸出來。
       最後一類為「輸入文字,產生文字」,這類技術最常見的例子想必就是聊天機器人,而訓練的方式就是提供機器大量的人類間的對話過程,讓機器去學習如何做出回應,從而進行人與機器之間的互動。
       在演講的最後,李宏毅教授也說了一些語音辨識未來可以達到的地步,像是模擬出最真實的人聲,就連電腦都辦別不出真偽,也就是利用AI的技術來騙過AI,隨然聽起來十分不可思議,但是在科技日新月異的進步下,未來的世界凡事都有可能!

瀏覽數: