■人資新聞ChatGPT洩密風險升高?專家警告:這5種資訊千萬別給AI聊天機器人
【ChatGPT洩密風險升高?專家警告:這5種資訊千萬別給AI聊天機器人】
來源經理人數位時代蘇柔瑋https://www.managertoday.com.tw/articles/view/70250
近年來,ChatGPT等AI聊天機器人功能日益強大,不僅能記憶使用者的偏好,提供個人化的回覆,甚至能協助處理工作事務。然而,隨著使用者與AI的互動日漸頻繁,資訊安全與隱私保護的風險也隨之增加。專家警告,應謹慎對待與AI聊天機器人的對話內容,避免透露過於敏感的個人及企業資訊,以免不慎洩漏。
根據《華爾街日報》報導,史丹佛大學以人為本人工智慧研究所(HAI)研究員珍妮佛.金(JenniferKing)指出,一旦將資訊輸入聊天機器人,使用者便失去了對該資訊的控制權。
過去就曾發生ChatGPT的漏洞,導致部分用戶能看到其他人的聊天記錄,以及OpenAI寄送訂閱確認郵件給錯誤對象,暴露用戶姓名、電子郵件和付款資訊等事件,都凸顯了AI平台潛在的資安風險。此外,用戶的聊天記錄也可能在駭客攻擊或法院要求下被洩漏。
『五大資訊別輕易示人』
一、身分識別資訊
包括身分證號碼、駕照、護照號碼,以及出生日期、地址和電話號碼等個人資訊。部分聊天機器人雖會嘗試自動編輯這些資訊,但使用者仍應避免主動提供。
二、醫療結果
個人醫療資訊須保密,有些人會與AI討論自己的病例經驗,尋求醫療知識或幫助,但聊天機器人通常不會將醫療數據列入特殊保護範圍。若想利用AI分析檢驗報告,建議先裁剪圖片或編輯文件,僅保留測試結果並塗掉個人識別資訊。
三、金融帳戶
銀行和投資帳戶號碼一旦洩漏,可能被用於監控或盜取資金。
四、企業內部資訊
若在工作中使用通用版本的聊天機器人,即使是撰寫郵件這樣的小事,也可能不慎洩漏客戶資料或未公開的商業機密。三星(Samsung)就曾發生工程師向ChatGPT洩漏內部原始碼而禁用。若企業需要AI協助,應考慮訂閱企業版本或建立具有公司專用保護的客製化AI。
五、帳號密碼登入憑證
隨著具備執行現實世界任務能力的「AI代理」興起,使用者可能會需要向聊天機器人提供帳戶憑證。然而,這些服務並非擁有數位保險庫的功能,密碼、PIN碼和安全問題應保存在專用的密碼管理器中。
專家建議,使用AI聊天機器人時,須留意避免透露過多個人隱私資訊。
圖/數位時代拍攝請參考網址!
『如何自保?善用隱私設定與定期刪除』
但如果無法不使用AI談及私密內容,或是從源頭避免隱私外洩,使用者可以採取以下行動:
一、定期刪除對話資訊
Anthropic資訊安全長傑森.克林頓(JasonClinton)建議,對於特別注重隱私的用戶,應在使用完畢後立即刪除所有對話。一般而言,AI公司會在30天後清除「已刪除」的數據。
然而,中國的AI模型DeepSeek根據其制定的隱私政策,可能會無限期保留用戶數據,且不提供退出選項,用戶需特別留意。
二、打開臨時聊天功能
例如,ChatGPT提供「臨時聊天(temporarychat)」模式,在聊天視窗的右上角處,啟用後,對話內容不會儲存在聊天記錄中,也不會用於模型訓練,如同瀏覽器的無痕模式。
三、使用匿名提問功能
隱私搜尋引擎DuckDuckGo開發的Duck.ai聊天機器人提供匿名提問功能,可將用戶的提問匿名化,傳送給包括Claude和OpenAI的GPT在內的AI模型,官方聲稱數據不會用於模型訓練,但功能可能不如完整版的聊天機器人,例如無法分析文件。
總之,雖然AI聊天機器人功能強大且方便,但使用者必須謹記,這些工具的設計目的是持續對話,是否謹慎以對,保護個人及企業的敏感資訊,最終取決於使用者本身。適時按下「刪除」鍵,或許是保護隱私最簡單卻也最有效的方法。
本文初稿為AI編撰,整理.編輯/蘇柔瑋
(本文出自數位時代)