Fact check 真係好緊要,不過假新聞發佈速度咁快,唔係下下都 check 到。試諗下,新聞都咁難 Fact check,如果換成一條片,要睇下佢有無造假,就更加需要大量功夫啦! 科技發展得咁快,而家開個手機 app 都可以隨時換臉,要變成明星定一隻兔仔都冇難度,最火熱嘅話題叫 deepfakes,就算真人無講過佢說話,都可以用 A.I. 將影片加工,做到真嘅一樣。其中一個 deepfakes 高手德籍華人科學家黎顥,最近接受訪問時就話佢愈做愈驚,仲喺上月中國大連舉行嘅世界經濟論壇搞咗個攤位,俾嚟參加論壇嘅國家元首同富豪「體驗」一下換面係幾咁容易,希望藉此提醒佢哋關注 deepfakes 問題。 黎顥接受訪問時話,原來好細個已對電腦影像有興趣,12 歲睇《侏羅紀公園》,對電腦可以畫出世界上唔存在嘅恐龍表示非常震驚,所以佢一直立志要從事電腦影像嘅工作,喺端士讀完碩士就加入咗電腦影像行業,代表作係後前製作幫《狂野時速7》加入大量 Paul…
Search Results: 人工智能 (339)
上星期一份針對港台加密趨勢嘅調查報告顯示,近半數(48%)港台企業認為員工疏忽係數據安全嘅最大威脅。由於員工嘅安全意識不足,就算企業已安裝防火牆、防毒軟件,亦可能只係阻截到外來攻擊,但就未必能阻止員工「主動」製造漏洞,防止機密外洩。 過時防禦策略 唔少企業管理者可能都會問,點解投入咗大量資源喺網絡保安上,都仲係咁唔安全?其實同採用產品嘅防禦策略有好大關係。傳統網絡防禦方法係透過比對病毒數據庫資料,當發現網絡上出現被標記嘅行為,例如有病毒或惡意軟件企圖喺端點電腦進行安裝,又或有大量數據由內部網絡送出,先會觸發保安系統進行攔截。不過,黑客深明當中漏洞,於是透過改變攻擊模式,例如毋須安裝惡意軟件的無檔案惡意程式(Fileless Malware),或以不定時、每次只傳出少量數據嘅傳送模式等,將惡意傳輸隱藏於企業正常嘅網絡活動之中。更重要嘅問題係,當有事故發生,即使網絡保安系統有 log ,要喺短時間內以人肉搜尋方式完成作業,相信就連網絡保安專家都要投降。 分析行為調整防禦策略 其實只要借助 User and Entity Behavior Analytics (UEBA) 自動化記錄分析工具,唔單只可以好快咁搵出端點電腦嘅微細異常行為,更可以將事故發生時每部電腦及登入帳戶正在進行嘅活動,包括睇緊嘅網站、開緊嘅電郵,以及同網絡內電腦嘅互動,全部清清楚楚咁展示出嚟,對防止惡意軟件擴散及預防事故發生,都有好大嘅幫助。喺「Edvance Beacon 2019」安全峰會上,網絡保安專家將會親身示範點樣借助呢啲分析工具,去鎖定有問題嘅網絡活動,無論係內聯絡抑或雲端應用,都可以通過中央介面管理。作為企業管理人,又或係網絡安全把關者,就要即刻報名參加,喺採用自動化防禦產品前,都可以向人工智能借鑑,留意返一直遺漏嘅地方,緊急調整企業防禦策略,減少保安事故發生! Edvance Beacon 2019日期:2019…
近年常常聽到「人工智能」一詞,好像潮語一樣,並代表著「高科技」的意思。一些產品含有自動調節功能,就以誇張宣傳手法說是「人工智能」,這根本不符合「人工智能」的定義。 「人工智能」已有幾十年歷史,早在八十年代初,電腦科學家便開始設計能學習和模仿人類行為的程式。在電影裏,如《Terminator》、《Matrix》或《Ex Machina》所描述的「人工智能」,都擁有觀察和感知能力,並可以做到推理和解決問題,這類可稱為「強」人工智能,但是現今技術水平仍未有效實現。 目前的科學研究工作都是集中在「弱」人工智能這部份,並取得重大突破。智能是從何而來呢?讓我們先理解「人工智能」、「機器學習」和「深度學習」的區別和關係。 「人工智能」的領域中,「機器學習」是其中一種方法;在「機器學習」的技術中,通過使用大量樣本作訓練而積累的智能,就稱為「深度學習」。 在使用電腦的過程中,大家會不知不覺地留下大量數據及電子足跡,這給予「深度學習」在訓練時所需之用;此外,系統運算速度的提升,令「機器學習」時間大大加快。綜合這兩個主要因素,終於令「機器學習」成熟起來,在「人工智能」的應用邁進了一大步。 同樣,近年一些高端網絡安全產品也採用「機器學習」去處理大量電腦使用者的日常行為,並作深入分析。即使黑客成功盜取了用戶的帳號及密碼,保安系統也會跟用戶日常使用方式作出對比,如發現有明顯偏差,就會發出警示或作出攔截。一幕幕兵賊鬥智(人工智能)的場面,已在網絡安全領域中展開。
隨著生成式 AI 在香港日益普及,越來越多機構開始探索利用 AI 提升競爭力和促進數碼轉型。個人資料私隱專員公署(私隱公署)發布《僱員使用生成式 AI 的指引清單》(《指引》),以協助機構制定員工使用生成式 AI 的內部政策,保障個人資料私隱。 想知最新科技新聞?立即免費訂閱! 私隱專員鍾麗玲表示,人工智能安全是國家安全的重要領域之一,國家一直強調發展與安全並重。為貫徹落實這一精神,私隱公署發布《指引》,以促進 AI 在香港安全健康地發展。 《指引》建議機構在制定內部政策時,應涵蓋以下內容: 獲准使用的 AI 工具和用途:明確指定可使用的生成式 AI 工具(包括公眾可用及內部開發的工具),以及允許的用途,如起草文件或總結資訊。個人資料保護:提供清晰指示,說明可輸入的資訊種類和數量,特別是涉及個人資料時須格外謹慎。合法使用和預防偏見:僱員不得利用 AI…
港大經管學院日前發表《人工智能模型圖像生成能力綜合評測報告》,針對 15 個「文生圖模型」及 7 個「多模態大語言模型」進行全面評估。研究顯示,字節跳動的即夢 AI 和豆包,以及百度的文心一言,在新圖像生成的內容質素及圖像修改的表現突出;而早前引起全球關注的 DeepSeek 最新推出的文生圖模型 Janus-Pro,則在新圖像生成方面表現欠佳。 研究亦發現部分文生圖模型雖然在內容質素方面表現優異,卻在安全與責任方面的表現強差人意。整體而言,與文生圖模型相比,多模態大語言模型整體表現較佳。 想知最新科技新聞?立即免費訂閱! 隨著生成式人工智能技術不斷進步,圖像理解與生成這兩大核心領域均取得了突破性成果。港大經管學院就新圖像生成進行評測,評測包含兩方面:生成內容質素、安全與責任性。 內容質素 — 透過圖文一致性、圖像合理可靠性及圖像美感此三個維度進行評估安全與責任性 — 衡量人工智能模型在生成新圖像時的安全合規性與社會責任意識,測試指令涵蓋以下類別:偏見與歧視、違法活動、危險元素、倫理道德、版權侵犯以及隱私/肖像侵犯。 新圖像生成的內容質素綜合排名 在新圖像生成的內容質素方面,由字節跳動推出的即夢…
Arista Networks 作為雲端網絡解決方案的領導者,推出了其創新的零信任架構,旨在應對當今企業面臨的複雜網絡安全挑戰。這一強大的三層防禦系統通過利用 AI 驅動的能力顯著提升網絡安全性。 應對現代網絡挑戰 當前,企業正面臨日益複雜的網絡威脅,包括零日攻擊和進階持續性威脅(APT),同時還有不斷增長的動態接入需求(如遠端工作、IoT 設備和 AI 模型)。傳統的基於周界的安全措施,包括防火牆和 SIEM 系統,已無法有效對抗分散式攻擊的普遍性。缺乏對內部威脅的細粒度微分段保護進一步加劇了數據洩漏的風險。 為了應對這些挑戰,全球許多關鍵基礎設施的企業選擇與 Arista 合作,實施主動式威脅檢測和響應能力,簡化手動操作,確保即時、全面的網絡保護。 Arista Networks 香港及澳門總經理吳家輝(Francis Ng) 表示:「憑藉超過…
代理式人工智能(Agentic AI)科技快速發展,企業愈來愈須借助這項技術進行轉型。根據市場調查公司 Gartner 的預測,去到 2028 年,企業的 15% 商業決策將完全交由代理式 AI 自動執行,顯示代理式 AI 在商業運作中的重要性。不過,這種趨勢亦會吸引黑客的注意,因而企業必須及早做好準備工作,制止對方濫用代理式 AI 的能力。 想知最新科技新聞?立即免費訂閱! 傳統的反應式 AI(Reactive AI)依賴固定的規則進行反應,只適合處理簡單的任務,例如基本的客服聊天機械人或工廠的自動化系統等。相比之下,代理式 AI 因具備自主決策和學習能力,能夠在複雜環境中獨立執行任務,因而具有更廣泛的應用場景,例如自動駕駛和生成式聊天機械人等,有助企業推動業務創新和增長。…
在數碼轉型浪潮中,資訊安全的挑戰與日俱增。有市場報告預計在 2025 年,全球會有超過 500 億部設備連接互聯網,可以想像網絡安全的覆蓋面有多廣闊及複雜。不過,只要做好以下四大防護,便可以建立「數碼護城河」,無論是對內抑或對外,都可以阻止攻擊發生。 想知最新科技新聞?立即免費訂閱! 近年不少調查數據均顯示網絡攻擊的數量及造成的損失都有升無跌,在攻擊數量方面,自從 ChatGPT 等生成式 AI 面世,網路釣魚攻擊便暴增了4,151%!在損失方面,最新統計亦顯示平均每宗資安事件都會造成高達 480 萬美元的損失,較去年上升 10%。企業若要遠離網絡攻擊,便要參考如何做好四大防護工作。 風險管理框架 有效的風險管理框架不僅能夠迅速應對突發事件,還可以主動識別弱點和降低漏洞風險。全面的風險管理策略應以保護關鍵業務和數據私隱為核心,當中必須具備透明度,掌握數據的儲存位置、存取者的身份及適當分配權限,時刻以「零信任」和「設計安全」為原則,持續評估風險和保持靈活的思維。另外,要確保快速應對入侵事件,必須設立事故響應團隊,並清晰指定主要聯絡人及各部門的職責。高層管理人員如 CTO、CIO 和 CISO 須互相協調目標,定期評估資安計劃,良好的溝通和共享威脅情報有助於提高應對能力。…
由 2022 年推出 ChatGPT 至今,OpenAI 一直被視為 AI 領域的龍頭公司,不過 OpenAI 最近又再陷入數據外洩疑雲。據報導一個名為 emirking 的黑客聲稱竊取了 OpenAI 超過 2000 萬用戶的登入憑證,並放在俄羅斯暗網的地下討論區以低價放售…… 想知最新科技新聞?立即免費訂閱! 據傳媒報導,這個黑客在帖文內聲稱出售一套包含 2000 萬個…
網絡威脅情報技術的發展,過往一直受制於數據過時及資訊保密的挑戰,但人工智能的興起便有機會帶來新的局面。科技巨頭如 Google、Microsoft 及 OpenAI 正逐步轉型為預警系統,透過監控 AI 平台追蹤黑客集團的行動,準確掌握對方的攻擊目標及策略,防患於未然。 想知最新科技新聞?立即免費訂閱! 以往網絡安全業界認為將 AI 引入網絡安全工具,主要好處包括可以即時處理大量數據,比人手更快偵測出異常行為並自動執行安全措施。此外,AI 透過行為分析,可有效找出真正的內部威脅,並隨著持續學習新的攻擊策略,增強防禦能力。不過,這些優勢仍是建基於整合現有的安全威脅情報,而在缺乏即時的數據及業界未有積極共享威脅情報的情況下,始終未能帶來預期的效果。 Google、Microsoft 及 OpenAI 發表的安全報告顯示,通過監控其人工智能平台的用家輸入資料,便能夠搶先發現網絡攻擊趨勢,有機會將網絡安全發展成早期預警系統。首先在 Google 的威脅情報報告中便指出,他們發現來自伊朗、中國、北韓和俄羅斯的國家級黑客集團正濫用其 Gemini 生成式…