Skip to main content

人工智能風險要認清 消費權益齊把關

人工智能風險要認清  消費權益齊把關

人工智能近年發展蓬勃,生成式人工智能(generative AI)更應運而生,為普羅大眾的生活帶來了不少便利和改變。縱使生成式人工智能的應用十分廣泛,惟生成內容欠準確、監管未臻完善,甚至被不法分子濫用等各種隱患,均可損害消費者利益,問題不容小覷。為響應國際消費者權益日的主題「對消費者公平負責任的人工智能」(Fair and Responsible AI for Consumers),本文將闡述生成式人工智能的潛在風險和提供相關建議,以供消費者參考。

人工智能帶來的隱憂

生成式人工智能的冒起誠然可為消費者和商家帶來龐大機遇。然而,其衍生的潛在風險亦為世界各地的消費者保障組織所憂慮。國際消費者協會(Consumers International)於去年12月的全球大會中也研究與探討了有關議題。

生成內容或欠準確及存在偏見  

正如上文提到,生成式人工智能利用大量數據作訓練用途,學習該些數據背後的模式和規律。若然訓練數據本身就存在文化或政治上的偏見,或與客觀事實有偏差,該人工智能系統便有機會吸收了欠準確或不持平的資訊,繼而生成錯誤的內容並使當中的偏見延續下去,誤導消費者。假如消費者選擇透過人工智能徵詢理財或健康方面的意見,同時不假思索全數接納存有偏差的內容,後果堪虞。

 

此外,人工智能在生成內容時也有可能編造事實,該現象又稱為「人工智能幻覺」(AI hallucination)。外國曾有一名資深律師借助生成式人工智能搜集資料,及後向法庭呈交了由人工智能虛構的案例而又未有察覺,最後因引用了虛假的司法判決而受到懲處。上述例子印證了人工智能所產生的內容如幻似真,故此消費者面對不同的生成內容時應小心查證。

濫用風險 

有海外研究指出,在分辨由人類撰寫或是由人工智能生成的文章時,能把兩者區分出來的準確率僅有50%至52%,機率與「擲公字」無異。由於人工智能生成的內容條理井然且看似可信,有關科技亦易被濫用和助長欺詐行為,對消費者構成風險。舉例說,以往的釣魚(phishing)電郵或網站文法和拼字錯漏百出,人們易於察覺當中端倪而避免上當。惟生成式人工智能冒起後,不法分子可用其撰寫釣魚內容以減少過往的文法弊病,使詐騙訊息更難被偵測,令消費者和商家更易受騙。再者,生成式人工智能亦被發現用於編寫和散播更具說服力的假評(fake reviews)和似是而非的假消息(misinformation),明顯損害了大眾接收準確和真實資訊的權利。

 

犯罪分子除了利用文字作詐騙外,近年亦會借助人工智能和深偽技術(deepfake)生成圖像、影像以及聲音,以模仿他人身分的方式向受害人的親友敲詐和騙取金錢。本港今年年初就有騙徒利用深偽技術假冒跨國公司高層,要求員工出席多人視像會議並按指示進行轉帳交易,最終騙取合共2億港元。事實上,外國有多名人工智能專家與業界高層亦於近日簽署公開信,鋪陳深偽技術的潛在危害,並呼籲採取防範措施及加強監管。

私隱與侵權問題

部分生成式人工智能的訓練數據或源自社交媒體和搜尋引擎,故此網民的公開貼文、個人資料、相片等有可能在未經授權和不知情的情況下被納入到訓練素材之中,這不但有違私隱及道德標準,做法也顯然不公平。另外,在使用具備人工智能技術的聊天機械人時,用戶的對話紀錄或會被儲存及作訓練用途;假如使用過程中不慎透露了敏感訊息,要求移除有關內容的難度極高。消費者若然對人工智能未有太多理解,敏感資料可因而外泄。

 

另外,近年亦有海外報社、作家、藝術家等入稟法院,指控科技公司在研發和訓練生成式人工智能時,於未經許可的情況下擅用受版權保護的文章或作品,構成了侵權行為。至於以人工智能生成和創作的文藝作品,則或會引起其著作權由誰擁有等爭議,因此消費者在使用上述內容前宜先詳加考慮有關法律問題。

欠缺透明度與責任制度

科技公司在開發生成式人工智能時,往往以保安原因和市場競爭為由,拒絕開放其系統予外部審查。在缺乏相關資訊的情況下,不但難以得知該人工智能的實際運作方式,更無法判斷訓練數據從何而來或是如何組成,遑論如何核實相關數據是否存有偏見或與事實有否偏差。除此以外,人工智能在生成內容時並無提供資料來源,做法不利用戶查核資料是否虛構。倘若消費者因接收了人工智能生成的錯誤資訊而蒙受損失,責任誰屬等問題亦相當複雜,受害人將更難辨認與追究涉事一方,凡此種種都損害了消費者的自身權益。

 

透明度不足同時可使商家更易以不公平的方式應用人工智能,譬如過度收集個人資料作營銷分析,甚至濫用相關科技以剝削消費者自主地作出選擇的權利。假如消費者未有察覺此等行徑並盲目信任人工智能,或會因而作出錯誤抉擇,對消費者同樣不利。