【秋後算帳】OpenAI隱瞞數據外洩 員工進諫反被指洩密解僱
《紐約時報》上星期報導,指人工智能科技公司 OpenAI 原來在 2023 年初曾發生資料外洩事件,不過 OpenAI 卻未有公開披露事件,就連美國 FBI 亦不知情,原因是公司認為這次資料外洩不涉合作夥伴機密或客戶私隱,而且亦跟國家安全無關。不過,內部員工卻不認同,甚至更因此有人被解僱。
去年年初,有黑客入侵了 ChatGPT 開發商 OpenAI 的內部訊息系統,據知情人士透露,黑客從一個內部線上論壇區中獲取了有關員工談論 OpenAI 最新技術的訊息,但就未有進入 OpenAI 的數據庫及人工智能系統。事件發生後,OpenAI 高層曾於去年四月舉行全體會議,向董事會及員工透露這次事件,而在會上高層以上述原因為由決定不公開這項消息,同時指相信這次只是個別黑客入侵事件,並非由外國政府或其他黑客組織主導,不會對國家安全造成任何影響。
員工提供建議反被解僱
不過,事件還是引發內部員工對 OpenAI 高層處理手法的討論。其中 OpenAI 技術專案經理 Leopold Aschenbrenner 向董事會發送了一份備忘錄,稱公司應專注於確保未來的人工智能技術的安全性,防止中國政府和其他外國對手竊取機密,又直指現時做法明顯不足夠阻止技術外洩。今年初 Aschenbrenner 卻被解僱,理由是擅自洩露機密資料。
根據 Aschenbrenner 的說法,去年他為了集思廣益,於是撰寫了一份有關未來發展 AGI(通用人工智能)所需的準備、安全和保障措施的文章,分別發送給公司內部員工及三個外部研究員,希望能獲取意見,但在分享給外部研究人員前他已刪除了機密內容,確保不會洩漏公司機密,最後 OpenAI 高層卻以這次事件為由解僱他,令人懷疑真相是否與去年他公開指責高層做法有關。
從這次事件可見,OpenAI 內部對未來人工智能的發展存在很多分歧,不少員工關心的並不是生成式 AI 的發展,而是更高等級的 AGI 發展方向。AGI 是一種理想中的人工智能形式,它能夠像人類一樣具備通用智能,可以自主學習新技能,並將所學到的知識應用於完全不同的領域,靈活應對未知情況。相比之下,生成式 AI 只能專注於特定領域的內容生成,例如文字、圖像或音頻,靈活性和適應性相對較低。
AGI 目前仍然是一個理論概念,停留在學術層級的討論,與生成式 AI 的實用性有很大差距。雖然生成式 AI 的確有助黑客更容易發動網絡攻擊,但由於 AGI 是更全面的人工智能,如落入壞人手上,後果將不堪設想,所以其安全性自然是專家更關心的地方。
資料來源: https://www.securityweek.com/hackers-stole-secrets-from-openai/