Skip to main content

人工智能風險要認清 消費權益齊把關

人工智能風險要認清  消費權益齊把關

人工智能近年發展蓬勃,生成式人工智能(generative AI)更應運而生,為普羅大眾的生活帶來了不少便利和改變。縱使生成式人工智能的應用十分廣泛,惟生成內容欠準確、監管未臻完善,甚至被不法分子濫用等各種隱患,均可損害消費者利益,問題不容小覷。為響應國際消費者權益日的主題「對消費者公平負責任的人工智能」(Fair and Responsible AI for Consumers),本文將闡述生成式人工智能的潛在風險和提供相關建議,以供消費者參考。

建議措施

制定政策監管人工智能 

歐盟於去年12月就《人工智能法案》(Artificial Intelligence Act)達成協議,將推出全球首個監管人工智能的法案,旨在減低人工智能對人權造成的負面影響。該法案會按照人工智能工具的風險評級而實施相應的監管措施,潛在風險愈高,監管愈嚴格。在該分級下,明顯會威脅基本人權的系統(包括但不限於對個人進行社會信用評分,或是利用個人的政治取向、宗教信仰、性取向、種族等進行分類)將被嚴禁。至於通用人工智能(general-purpose AI,例如是生成式人工智能),開發有關技術的科技公司須提升透明度,包括草擬技術文件、遵守歐盟版權法,以及披露開發人工智能時所使用的訓練數據的概要。中國內地方面,國家互聯網信息辦公室等7個部門亦於去年聯合公布和實施《生成式人工智能服務管理暫行辦法》,以促進生成式人工智能的發展和規範應用。該辦法提到,提供和使用生成式人工智能服務時,應當遵守法律、行政法規、尊重社會公德和倫理道德,同時訂明了處理訓練數據、數據標註,以及不得生成虛假內容等要求。

 

除了歐盟與中國內地,美國、英國、新加坡等地亦已經或即將開展研究工作,訂立監管人工智能的框架。在香港,個人資料私隱專員公署於2021年8月發布《開發及使用人工智能道德標準指引》,協助機構在開發及使用人工智能時,明白並遵從《個人資料(私隱)條例》的相關規定。此外,特區政府在去年12月發布的《香港促進數據流通及保障數據安全的政策宣言》,提出與人工智能有關的政策措施包括:委託本地研發中心及專家,就生成式人工智能技術及應用的準確性、責任、資訊保安等範疇,研究及建議適當的規則和指引;研究修訂《個人資料(私隱)條例》,加強對個人資料的保障及應對網絡科技挑戰;及探討完善《版權條例》對人工智能技術發展所提供的保障,並在今年進行諮詢。與此同時,本港可參考外地做法,考慮如何就人工智能發展和應用等層面加強指引或制訂相關監管框架,以應對人工智能科技急速發展而對社會帶來的潛在影響和衝擊,以及提升對消費者利益和福祉的保障,並使消費者與科技公司之間的關係更為平等。

推動人工智能教育

除了上述建議外,政府亦應繼續推動教育,使市民更深入了解人工智能背後的運作方式和相關隱患。不論監管框架嚴謹與否,本會認為消費者也可先從自身出發,採取措施盡量降低人工智能帶來的風險,包括:

 

  • 檢查可否關閉聊天機械人的聊天紀錄功能,預防對話內容被用於訓練用途;
  • 避免與聊天機械人分享敏感資訊,並考慮使用暱稱或假名,以防個人資料外泄;
  • 緊記生成式人工智能所產生的內容是基於其訓練數據而得出,當中可能存有偏見或與事實有偏差,不應盲目信任有關技術;
  • 接納和使用人工智能生成的內容前,應先查核是否與事實相符,尤其是有關內容與法律、醫療,或財務相關;及
  • 深偽技術可生成像真度高的聲音和影像,因此若收到聲稱是親友的來電或視像通話要求金錢援助,應緊記先致電核實有關情況。

 

此外,在人工智能迅速發展的趨勢下,提升弱勢社群的資訊科技知識(IT literacy)亦是當務之急。長者和智能有障礙的人士較可能對人工智能或深度偽造技術等概念缺乏了解而更易受騙,故此有必要重點加強對相關人士的教育。同時,人工智能將改變人們的日常生活和商家的營運模式,假如弱勢社群因缺乏資訊科技知識而被社會遺下,將會擴大數碼鴻溝(digital gap)並加劇社會不平等現象。事實上,政府早於2014年推出了「長者數碼外展計劃」,委託非牟利長者服務機構舉辦不同活動讓長者體驗數碼生活;並在2019年相繼推出「長者進階數碼培訓計劃」及「樂齡IT易學站」,為具備基本數碼科技知識的長者提供免費培訓課程和網上學習平台,加強他們對數碼科技和技巧的認識。政府在今年的財政預算案亦宣布撥款1億元,在未來三年為全港60歲或以上的長者,提供數碼培訓課程和技術支援的項目,讓他們更容易融入數碼時代,得到數碼科技帶來的好處。本會建議政府繼續投放資源,以至善用人工智能帶來的便利和普及性,針對弱勢社群的資訊科技教育,解決有關人士在使用科技時遇到的技術疑難。

改善人工智能的透明度和責任制度

要提升人工智能的透明度,科技公司應披露更多相關的政策和措施,並採取行動減低人工智能所帶來的風險,當中包括發布風險評估和內容審核等技術文件,以及考慮公開部分程式碼,供專家、學者、社會大眾等外部人士進一步了解和監察人工智能系統的運作。科技公司亦應盡量使用較客觀中立的內容作訓練用途,並確切披露其用於訓練人工智能模型的數據來源,讓第三方有機會指出和訂正數據中存在的偏見和錯漏,同時引入人為監督,檢查人工智能生成的內容是否準確。此舉有助消除生成內容中的錯誤或欠持平的資訊,提升人工智能應用方面的公平性和可信性。

 

再者,科技公司宜研究把人工智能生成的圖像與內容另作標示,以打擊不法分子和不良商家利用人工智能作詐騙和剝削的行徑之餘,同時提醒和方便用戶再作查證,使消費者在必要時能更有效地評估和判斷是否接納及使用該些內容。科技公司亦應增設機制以解決因使用人工智能而帶來的爭議,例如倘若用戶因為人工智能的缺陷以致利益受損,也可按照科技公司的補救方案獲得賠償。此做法不但可展示科技公司樂於承擔應有責任,亦可強化消費者與有關公司之間的互信,對雙方有利。

 

建議措施