人工智慧(AI)帶來諸多的便利性,卻也潛藏著許多的風險與威脅,使得資訊安全議題深受矚目。在2024 GDDA國際AI資安論壇上,邀集國際通商法律事務所(Baker McKenzie台北所)專家們齊聚探討,在生成式AI崛起所帶來的風險與挑戰中,如何強化政府部門與企業在資訊安全的風險管理與因應措施。
|
Baker McKenzie 台北所執行合夥律師黃麗蓉(中)、紐約所Cyrus Vance Jr.(左)、雪梨所Ryan Grant(右)對企業導入生成式AI、資安風險管理與因應措施提出見解。 |
Baker McKenzie台北所執行合夥律師暨爭端解決律師團隊主席黃麗蓉(Anna L.J Hwang)律師指出, AI為企業帶來一系列挑戰—從網路威脅、資料外洩、演算法歧視,到智慧財產權侵害、營業秘密洩露、法律遵循和勞動力替代—使企業面臨更高的爭端風險。如今全球各國政府陸續擬定AI治理政策與指引,她認為圍繞AI的法律框架仍處於萌芽階段,各國對AI的監管方式不一,如此容易使AI成為企業法律遵循上的地雷區。
Baker McKenzie網路安全業務全球主席Cyrus Vance Jr.在公共和私營部門的經驗超過30年,並且曾經擔任美國曼哈頓地區檢察官長達12年,他表示AI驅動的網路威脅在全球範圍內持續增加。不法分子利用AI進行更加複雜的攻擊,運用新技術實現高度個人化的網路釣魚、深度偽造、社交工程和多因子驗證(MFA)繞過,企業必須未雨綢繆。隨著AI普及使得企業面臨的訴訟風險與日俱增。其中最為顯著的是智慧財產權訴訟的快速增加,儼然成為潛在爭端的最大領域之一,相關訴訟主張AI訓練模型所使用的資料侵害了著作權、隱私權或其他類似的權利限制。
Baker McKenzie雪梨所合夥律師Ryan Grant具有軟體工程和網際網路技術的專業背景,專精於網路安全和爭端的訴訟。他表示作為生成式AI的一個分支,大型語言模型(LLM)具備卓越的理解和生成類人文本的能力,已經改變了組織生成洞見的方式,包括在組織資訊安全方面。LLM僅僅通過簡單查詢就可以將大量數據轉化為可行的見解,因此也成為不法分子和資安團隊應用的強大工具。而LLM的有效性將取決於為其提供大規模、精確和具脈絡相關性的資料進行訓練和優化。倘若使用的訓練資料品質不佳,則可能使組織面臨包括決策失誤和法規遵循風險等各種難題。
近年來,AI風險已成為許多企業在經營管理時最顧慮的議題。黃麗蓉表示,法律界提倡的「聯防」概念,企業可以在資安管理方面採取平日演練和檢查、面臨攻擊快速應變、發生事件時減少損失,甚至反守為攻。而企業如何善用生成式AI帶來的優勢,同時須降低AI所驅動的網路威脅及風險,將成為企業勝出的重要關鍵之一。