Browsing: AI

    「跌倒」是導致長者受傷和死亡的重要原因之一,本港 65 歲及以上的社區長者,每年約五人便有一人跌倒,當中更有四分之三長者因此骨折及傷及頭部。傳統的跌倒預防測試,是使用問卷調查及肉眼觀察,前者易因患者的主觀回答導致誤判,後者的精準度存疑。本地初創公司步固(Booguu)因此研發了一套智能防跌系統 Aspire,結合人工智能(AI)及大數據科技,提供準確可靠的評估方法和指數,辨別長者及中老年人的跌倒風險。 AI收集百分之一秒身體數據 雲端運算分析步姿 Aspire 使用一個輕便的裝置,讓受試者在約 5 分鐘內,完成三組測試動作,包括行走、睜眼及閉眼分別站立 30 秒,及於 15 秒內反覆坐下起立 5 次,AI 在綜合各種因素後,再使用雲端(cloud)計算,最後得出智能評估報告。 步固行政總裁 Gary Jin 表示,很多老人沒有明顯的跌倒症狀,甚至在行山時健步如飛,自己也不察覺有跌倒風險,但…

    為了令受害者誤以為正在登入或瀏覽官方網站,高質素的黑客會盡力將釣魚網站製作至以假亂真的地步。如果要交由防毒軟件識別當中差誤,現有方法較為費時,準確度亦未算高。由大學研究人員開發的機器學習技術,會自動將官網的程式碼轉變為圖像數據,跟虛假網站進行比對,從而減少所需的運算資源及縮短比對時間,以另類視覺分辦真假。 要分辨是否虛假網站,一般人只能靠肉眼找出可疑之處,以 Office 365 登入頁面為例,網址列、網頁設計、圖像擺位、文字有否文法或串字問題等,都必須小心留意。不過,如果並非專家或老手,單靠肉眼絕不可靠,因而必須借助防毒軟件或網絡安全工具代為分析。然而,大部分安全工具的識別效能除了上述的條件外,主要建基於資料庫上的記錄,例如架設該網頁的伺服器或 IP 位置是否可疑?種種因素令比對工作需要耗用大量資源,因此只能於雲伺服器上進行分析,從而令比對需要一定的時間。 由英國 University of Plymouth 及 University of Portsmouth 研究人員合作研究的人工智能分析技術,便以創新的角度進行分析。研究人員首先將大量官方網站及虛假網站的程式碼轉換成視覺化的圖像數據,歸納出各自的獨特之處,然後再這套數據模型交由人工智能的機器學習進一步自行訓練,自行修正當中的差異,演變成一套更成熟的分析系統。為了加強分析工具的可用性,研究團隊刻意選用了一套名為 MobileNet 的神經元網絡系統,它不似得其他神經元網絡需要龐大的運算資源,因而可以在一般電腦設備上運行。研究員指出,現時系統在分析虛假網頁的準確度已達94%,而且還在每日進化中。 不過,現階段新技術仍未可推出市面,因為研究人員正在改良系統操作,讓它成為一套可被普遍使用的工具。研究員更有信心這套系統最終可達 100%…

    成日聽到評論話某個人好有創造力,其實要衡量創造力好主觀,點先可以標準化地進行評估?有研究員就開發了一個四分鐘測試,利用人工智能的深度學習 (Deep Learning) 能力,計算參加者在兩項遊戲中的表現,而衡量標準就是基於人類的擴散性思考 (Divergent thinking) 方法。 擴散性思考能力,是一種以問題為中心,透過多方向思考討論各種處理問題的方法,從中得到創意概念。因此,擴散性思考屬於非線性思維,而且透過多方向思考,有可能在討論過程中發現不同解決方案的關聯性,比起傳統的線性聯想模式更有機會想出新點子。思考過程可以幻想為衛星城市發展模式,都市化由中心出發擴散至週邊地區,而衛星都市之間又有可能存在連繫。 由於在擴散性思考中,問題與答案未必一定存在相關性,就如人類大腦的大型神經網絡運作情況一樣,無時無刻都存在各種概念,所以研究人員在開發這個創意評估遊戲時,便利用了相關的數據樣本去評估參加者的創意。研究員首先將數據樣本訓練人工智能,經深度學習後調查出更準確的演算法。研究人員特別指出,交由人工智能分析的原因有兩方點,第一是數據量非常龐大,單靠人力將花費很多時間,其次人類對事物存在偏見,而且思維亦受過往經歷所局限,難以客觀地整理出結果。 而由 McGill University、Harvard University 及 University of Melbourne 科學家創建的 Divergent Association…

    人工智能可取代大量人力工作,但與此同時好多人最驚 AI 連人力市場都一併取代。到底廣泛使用AI會否增加失業率,還是可以提高個人生產力?就要視乎雇主同僱員點樣應對這種變化。 軟件開發商 InRule 最新一項調查發現,隨著機器學習(Machine Learning)和其他形式的人工智能應用愈趨普遍,近三分之二的企業決策者擔心工作不保。他們不僅擔心輸給機器人,同時亦憂慮人工智能可能存在數據分析缺陷或判斷錯誤,導致他們使用了錯誤的分析作決策,有可能被追究責任。研究員認為這種想法源自決策者對人工智能的誤會太深,他們仍以為人工智能必須由數據科學家等專家才能駕馭,同時仍從取代人類勞動力去評估AI的「危險性」,因此打從心底對AI存有戒心。事實上,人工智能並不一定擔當淘汰人力的壞角,它可以幫助組織各級員工,提高他們的生產力。 SymphonyAI 的專家 Pradyut Shah 說,當企業或組織決定引入人工智能時,它不可能一開始便懂得自己要做什麼事,反而須由人去教懂它。這方面數據科學家將承擔大部分責任,但打後人工智能便會交由低級別員工管理,擔起重複性及無聊的任務。在已經受到 AI 影響的員工中,75% 的人表示 AI 正在幫助他們做出更好的決策,而且不少人認為人類和 AI 合作,雙方都會獲得提升。專家認為單純為了減少人手而部署 AI…

    Microsoft 宣布旗下的 Azure Sentinel 雲原生 SIEM 平台將會加入勒索軟件的人工智能偵測技術,加強監察企業內部系統及雲端服務的數據傳輸,讓企業客戶能及早發現可疑活動。另外又提供多項處理懷疑勒索軟件入侵的流程建議,就算無用 Azure Sentinel,都值得大家參考。 在 Microsoft 新加入的勒索軟件偵測技術中,使用了 Azure Sentinel 內置的人工智能技術,快速分析大量的數據傳輸。Microsoft 方面指出快思邏輯 (Fusion) 技術可從收集到的數據中聯想出多種可能性,可捕捉及串連多種細微的可疑活動,早一步定性是否屬於勒索軟件活動,並向 IT 員工發出警報及分析報告。…

    數據分析在企業數碼轉型旅程的重要性,已經不用多解釋,不過採集及管理數據,卻同時為企業帶來極大挑戰。早前由 ICT 服務供應商中信國際電訊 CPC(以下簡稱 CPC)及網絡安全服務供應商 Fortinet 合辦的午餐會,便跟與會人士分享了各自的心得,讓企業管理者能夠有效及安全利用數據創造真正的商業價值之餘,同時又能合規地管理數據,享受數碼轉型帶來的營運效益。 數據應用潛力無限 擬定法例防數據外洩 在企業數碼轉型的旅程中,不同種類的數據都可提升各行各業的市場洞察力。經濟學人首席貿易分析師 Nick Marro 舉例汽車業可利用數據分析為汽車加入自動導航、多媒體娛樂甚至無人駕駛功能,金融業可持續提供新的流動理財、程式盤買賣等服務。大數據分析讓企業能夠預視市場走向,靈活地修正營運方針,享受增加生產力、減少成本等成果,最終達到改善客戶體驗的終極轉型目標。 隨著全球不同國家開始立法管制數據採集, Nick 認為儲存數據及數據跨境問題將會變得非常重要,導致 ICT 服務供應商或客戶不能只採用單一數據管理政策,打後必須「因地制宜」。 不過,Nick 指出收集及管理數據的難度正在與日俱增,其中一個原因是不少國家正全力就數據管理訂立法例。他以中國為例,2017 年…

    在開發新產品前,傳統方法是收集問卷調查,或搞 focus group 了解目標客戶的真正需要。不過,現時已有不少公司引入人工智能,好似飲品生產商 PepsiCo,無論開發飲品抑或小食,都已套用 AI 工具協助分析。再發展落去,大家可能無機會再靠填問卷或出席意見調查會賺錢…… 雖然 PepsiCo 本身也有收集大數據 (Big Data),但由於這些數據大部分來自自己的客戶,因此未必能完全代表整體市場的喜好變化,因此 PepsiCo 也有採用一些現成服務,例如由 Google 前員工開發的 Tastewise,一款以演算法去分析及預測口味轉變及原因的工具。據稱 Tastewise 內收藏及監察的數據量非常豐富,當中包括 9,500…

    網絡安全行業現時非常看重「零信任」(Zero Trust)防禦概念,即對所有網絡連線及活動保持懷疑態度,不再單純依賴已知的病毒資料去預防入侵。與此同時,被視為網絡安全明日之星的 AI(人工智能)技術,卻建基於「可信任」的數據包作為訓練材料,兩者應該如何共存? 將 AI 技術引入網絡安全用途,帶來的好處極多,例如可以快速處理各種安全警報,阻止惡意軟件入侵,減少人力需求。另外,經訓練的 AI 模型還會不斷提升防禦能力。不過,由於 AI 技術非常複雜,持續發展過程到底是否仍能符合網絡安全法規?如缺乏適當的監管,相信業界仍難言可以 AI 完全取代網絡安全專家。 發展 AI 技術的主要障礙之一是數據,更具體地說,是確保數據的質量和完整性,畢竟 AI 模型的好壞完全取決於數據包的質量。基於 AI 的網絡安全系統,在匯入數據方面正面臨種種挑戰: 數據污染:不法人士可以通過操縱…

    新冠病毒加快企業數碼轉型,緊急採用遙距工作工具,結果亦同時令網絡安全事件增加。因為人類無法處理激增的數據點及數據,而擅長識別、過濾和確定威脅警告的優先次序的人工智能 (AI),便被視為網絡安全界的明日之星。 由於大量員工在家工作,以往要處理的數據因而激增,傳統的 SIEM 工具便難以協助安全人員疏理問題。專家解釋,SIEM 只能過濾從 SOC 安全中心發出的數百萬警報,當中必須靠人力找到各種關連,否則只能獨立處理每個警報。人工智能則可以對警報進行分析,找出當中的細微關聯,快速分辦是否誤報,並自動結合威脅報告將警報按風險指數優先排序,安全人員便可將注意力集中在最緊急的問題上,而不用擔心被其他次要問題擾亂。 人工智能不單可分析即時遇到的問題,還可用於整體威脅情報預測,預視組織接下來可能面臨的攻擊時間、地點和類型,例如當系統發現近來針對醫療設施的攻擊加劇,而企業的業務領域又與之相關,便會發出警告,讓安全人員了解瞬息萬變的安全風險趨勢。雖然人工智能看似萬能,但網絡安全專家警告不能完全依賴它的能力,因為它只是整個安全武器庫的其中一部分。 現時最火熱的研究,並非如何利用人工智能完全取代人手監控,而是找出一個正確的平衡點,作出最好的風險管理。專家指出,人工智能亦有可能犯錯,因此不應將所有任務都交由它決定,特別是如相關錯誤有可能導致業務中斷或難以估計的損失,便應交由人手作出決策。人工智能在安全監控過程中,對重要環節應只負責提供安全建議,並將收集得來的底層數據,經整理後交由人類分析。 對於大多數公司來說,人工智能在初期最能顯示其效益的地方,是融入網絡安全架構後的事件監控領域。一旦引入人工智能,便可大幅減少誤報或重複性工作的數量,就算有黑客入侵事件,也能較以往更快發現及作出報告,讓企業能夠更快修正安全風險問題。而要確實發揮人工智能的效力,相關政策、教育和管理的實施亦非常重要。首先,嚴謹的政策將有助於推動和塑造業務流程;其次是必須讓員工得到充分培訓,才能正確地及最大限度地使用人工智能工具。最後,企業亦必須監控和評估人工智能對安全解決方案和整體安全態勢的影響,持續地進行改善,才能令人工智能繼續成長,發揮出更大效能。 資料來源:https://bit.ly/3hj6DfO

    Google 為了設計出自家電腦處理器,出動應用於機械學習的 TPU 處理器。TPU 現時已為多個行業提供演算法服務,包括醫療、網絡安全等等,而 Google 搜尋器及翻譯工具背後的演算法亦是由 TPU 負責,專家估計,TPU 不單可加快設計出自己的下一代,而下一代亦可再設計出後繼處理器……最終咪會變成天網 (Skynet)! 傳統的處理器晶片設計,最大難度在於如何編排晶片上的數百萬個組件,因為處理器的運算速度,直接取決於各種組件的佈局,設計者不單要考慮組件擺放的距離,更要考慮運算過程中所產生的熱力。而且視乎處理器將會應用於哪一種產品,設計亦有很大分別,例如手機處理器會較講究節能,相反數據中心則強調速度優先,因此設計過程往往需要耗用數月以上,才能得出理想的最終電路圖。 而 Google 的研究團隊就利用自家的 TPU (Tensor Processing Unit) 機械學習處理器,將組件規劃的問題交由神經元網絡…