2025 年初英國科技媒體《The Register》揭露 OpenAI 的 ChatGPT 曾出現重大資安漏洞,攻擊者透過惡意網頁就能竊取使用者在 ChatGPT 輸入的提示詞與帳號資訊,所以像是請 AI 寫曖昧訊息給行銷部的某人或輸入尚未公開的提案內容,其實正默默被模型記住甚至被駭客擷取,即便 OpenAI 事後已修補漏洞,但這起事件仍提醒我們「AI 不一定能將私密對話守口如瓶」。
這五件事最危險 千萬別對 AI 說出口
1. 公司內部機密資料
只是想讓 AI 幫你優化程式碼、整理簡報,結果卻把公司原始碼或產品資訊全盤托出,這正是 2023 年三星工程師的真實案例。工程師貼上公司原始碼至 ChatGPT 協助除錯,導致機密外洩,三星最後全面禁用 AI 工具。
2. 同事或主管的實名資訊
像是「幫我寫信給王小明經理」、「我跟行銷部的小美在曖昧」這類輸入,看起來只是請 AI 幫忙寫信或潤飾對話,卻直接暴露特定人的真實身分。這些內容一旦被模型記錄或重組,甚至在其他人對話中出現,不只可能違反個資法,更可能引發職場信任危機。
3. 自己的私事與職場祕密
「我想跳槽」、「我偷偷兼差開店」、「我跟主管不合」等,這些都屬於高度敏感內容,AI 工具無法辨別你是否願意讓這些話被保存,這些輸入若外洩,輕則尷尬重則失業。
4. 尚未公開的創意與企劃
像是行銷 campaign、新產品定位、策略簡報等,這些還沒正式對外發表的構想,一旦輸入到 AI 工具中,就有可能被模型學走,未來以重組形式出現在他人生成的內容裡。像是影像生成式工具 Stability AI ,因生成的圖片帶有藝術家風格與創意痕跡,而遭創作者控訴侵權,雖然這是圖像模型的案例,但同樣的風險也存在於文字生成。
5. 帳號密碼、身份證號、病歷等等敏感資訊
根據美國據資安公司 Group-IB 調查,一年內就有超過 20 萬筆 ChatGPT 帳密外洩並流入暗網,其中許多來自中毒裝置或不明瀏覽器擴充套件。因此像是帳號密碼、身份證字號、健康報告、心理諮商內容等,這些都屬於高度敏感資料,不該輸入到任何 AI 工具中,即使只是請 AI 幫忙記密碼或翻譯診斷報告,也可能會被系統保留甚至外洩
AI 工具怎麼用才不踩雷?記住這 3 大原則
一、輸入前先自問「這段話能公開嗎?」
如果答案是否定的,那就別輸入。保守原則永遠勝過事後補救。
二、選擇資安保障的 AI 方案
像 ChatGPT Enterprise、Microsoft Copilot for Business 等,具備不儲存及不訓練條款,較適合企業與專業人士使用。
三、改用模擬情境描述取代真實資訊
需要幫忙寫信或做簡報?以「部門 A」、「產品 B」、「主管 C」代稱,既能取得回應,又保留資訊彈性。
AI 用對方法是絕妙拍檔,但用錯方法可能會是洩密幫兇
你對 AI 輸入的每句話,都有可能被模型記住或,甚至在暗網上換成別人的錢。而關鍵並非不能說,而是怎麼說。練習用模擬語境、選擇具備資安保障的工具,才能讓 AI 真正成為你可靠的職場助手,而不是意外的風險來源。
➤ 延伸閱讀:AI 時代的職場生存術: 4 項軟實力讓你成為 AI 無法取代的優質人才
資料來源:The Register、Group-IB