如今,生成式AI對消費者打開大門,讓世界意識到AI的變革潛力,但也引出許多爭論需要進一步思考,導致當前社會已面臨對生成式AI技術採取立場的難題。
生成式AI技術與社會之間的距離
生成式AI技術從開發到成功進入市場,除了技術本身之外,需要關注該技術識別和解決社會挑戰的能力,亦即該技術為社會採用的成熟度。荷蘭應用科學研究機構(Netherlands Organization for Applied Scientific Research;TNO)提出社會鑲嵌性(societal embeddedness level)方法,從對社會影響、利益相關參與者,以及政策和監督等面向,可藉此觀察生成式AI技術融入社會面臨的課題。
第一個課題是減低對社會接受的負面衝擊。生成式AI能夠以類似人腦方式產生文本、圖像、設計甚至寫程式的能力,該技術具有極大發展潛力。但此技術也引發所有權、透明度、數據偏差可能性、錯誤訊息以及創作內容的智財權和倫理等疑慮。社會選擇採用或抵制,將端視如何平衡這些不利的影響。
第二個課題是讓公眾能瞭解、信任生成式AI。技術的知識和交流有助於了解利害關係人對技術的看法,進而影響信任度。美國情報顧問公司Morning Consult於2023年2月調查顯示,52%的受訪者認為生成式AI會持續發展,但僅10%認為生成式AI模型非常值得信賴;另有11%認為完全不值得信賴。信任和安全需要跟上AI技術發展的腳步,因為惟有公眾信任AI,AI技術才能得到廣泛使用。
第三個課題是排除政策與法規的障礙。從OpenAI的案例中,我們看到生成式AI模型正遭受訓練數據透明度和隱私保護的法律挑戰,開發和使用AI工具的企業容易面臨法律訴訟的風險。如此一來,將不利於AI技術融入社會。技術開發業者需要與政府、監管機關協調合作,確保遵守隱私相關法律,並在資料使用建立法律基礎。
利用生成式AI的力量,同時管理風險
面對諸多的挑戰和法律風險,需要政府和企業協力,幫助企業建立適當的防護措施來使用這些模型,增強組織人員的創造力和協作能力,而非試圖阻止企業的探索和應用。鼓勵企業加速投資於隱私與信任、提升演算模型檢測技能,並於產品和服務設計開發階段即融入隱私和安全設計。
此外,企業對組織人員進行教育亦是一項重要措施,可以幫助人員應對技術創新的挑戰,並能以更開放態度看待新興科技的發展,從中了解技術風險以及以最小化風險的行為為企業取得發展機會和建立優勢。
(本文為勵秀玲、洪春暉共同執筆,勵秀玲為資策會MIC產業顧問兼主任)