三星開放員工使用 ChatGPT,不料 20 天內連爆 3 起機密資訊外洩

三星半導體允許旗下工程師使用 ChatGPT 作為輔助工具,來快速修復原始程式碼中的錯誤,不料過程中洩露了內部會議紀錄、工廠性能、產量等機密資訊。目前三星已計畫開發自家類似 ChatGPT的服務供內部使用,但目前是先限制工程師詢問 ChatGPT 的問題長度。

根據外媒 Tom’s Hardware 報導,三星半導體目前已經報告 3 起使用 ChatGPT 導致數據洩露的事件,而且時間都在近20天內。

第一個案例中,三星半導體員工提交一個專有程式的原始程式碼給 ChatGPT,來修復錯誤,無意間將最高機密的應用程式代碼洩露給外部公司運作的 AI。

至於第二個案例,一名員工在 ChatGPT 中輸入了辨識缺陷晶片的測試模式,並要求改善,但這個辨識缺陷的測試序列其實必須嚴格保密的。

第三位員工使用 Naver Clova 應用程式將會議紀錄轉成檔案,再交給 ChatGPT 準備展示文稿。

這些行為讓機密資訊暴露在危險中,所以三星也警告員工使用 ChatGPT 的危險。報導指出,三星也通知高層和員工,輸入進 ChatGPT 的數據會上傳並存在外部伺服器,公司無從查閱,也增加機密資訊洩露的風險。

ChatGPT操作非常便利快速,只要有任何問題幾乎都能幫你解決,雖然能快速解決問題,但這其中是否已經將重要資料洩密了?建議在做任何動作之前應該先思考是否會洩露重要機密,避免造成無法挽回的地步。

詳文請見TechNews原文新聞稿