IT業界社群及資訊平台

【善解人意】AI 正式進佔人類語言領域

Deep Learning 輔助下,AI 加速進化,數年間,AlphaGo 已經捉贏地上最強圍棋棋士,Facebook 開發的 DeepFace 人臉識別準繩度達 97.4%,逼近人類平均值 97.5% ,進度超出預期。 科學家下一個目標,是公認難以征服的語言。

主流語言最少過百、口音文法、一字多義、同義詞,加上字義不斷變化等,種種不確定性令 AI 未能參透人類語言 。Siri、Alexa、Cortana 當下的有限應對能力,就是最佳寫照。雖然困難重重,世界各地研究員卻相當堅持,一旦 AI 掌握語言,其用途將相當廣泛。例子之一係再多客服來電,AI 都能應付自如,甚至不單電話,WhatsApp、Email、Facebook Messenger、IG DM 等所有渠道,它都可以無限影分身應對,大大節省建立 1 對 1 客服體驗的成本。

Facebook DeepFace 的 97.4% 準繩度,連 FBI 開發的人臉識別程式都自愧不如 - FBI 所用的演算法,由工程師團隊親自設計,鼻子大小到眼晴隔距等每個面部特徵經由人手輸入,達至完全操控,準繩度卻只有 85%。相反,Facebook 在 DeepFace 的演算法中加入名為 Convolutional Neural Networks 的 Deep Learning 結構,它模仿腦皮層處理視像的方式,而非以邏輯方式去解構容貌。這個思維差異,加上 Facebook 坐擁 10 多億用戶的深度數據,成為兩者之間的距離。

大部分物種擁有視覺,但只有人類可以運用複雜語言溝通。十年前,AI 以一個字的出現頻率嘗試理解文字,但未能處理同義詞與不同文本一詞有不同意義,成效強差人意。2013 年,Tomas Mikolov 帶領 Google 小隊,研發出學習字義的 AI 架構,演算法 word2vec 能分辨同義詞,亦理解體積、性別、速度、甚至國家與首都等概念,但仍未能參透文本。2018 年,Jacbo Devlin 與其 Google 小隊試將翻譯程式所用的演算法加入其中,意外地令 BERT 掌握文本與字義的關係。透過 Wikipedia 文章填充課題,BERT 學懂正確回答問題並真正理解句子,關鍵在於一個準確的演算架構與大量優質學習數據。2019 年,Facebook 再邁進一步,訓練類似 BERT 的 AI 同時處理超過 100 種語言,它以任何語言學習後,即可用其他語言完成相同任務,令人刮目相看。但真正的突破,要數 2020 年,Google 以更龐大數據開發 BERT 的後繼 T5,其語言理解能力大部份超越人類平均值,上年 10 月面世的 mT5 如雙語人士,可以隨意切換語言,差別在於它能切換超過一百種。本周 Google 發布過萬億參數的新版本,比 T5 更強大。

如果 Chat Bot 可以理解任何語言、掌握文本、記錄過往對話,它所提供的答案將會相當精準。同理,搜索引擎能夠理解所搜索的問題,就算沒有關鍵詞它也可以提供正確答案。當 AI 完全掌握語言後,企業自然會「招聘」AI 員工。AI 掌握語言後,Database 的架構亦會截然不同,AI 會消化 Memo、Email、Report 等資訊,自動分類儲存,並可按任何要求生成 Report。當這天來臨,所有需要理解語言的工種都有可能自動化。

理解力超越人類的 T5 經已誕生,那從事運用語言的打工仔是否已被淘汰?T5 的雲端訓練成本為 1.3 百萬美元,而儘管 Google 無料分享歷年開發的語言 AI,但應用時需要大量微調,並要靠強大運算力執行。考慮到語言 AI 的優點,我們有理由相信企業願意投放資源,如果 Moore’s Law 推測正確,未來 5 年將會出現更多比 T5 更強大而複雜的演算法,而 2021 年很可能是轉捩點。

資料來源:http://bit.ly/3of8tyF

Privacy Preference Center