在工作中與GenAI工具共享內容時要謹慎

我們在工作中使用GenAI來簡化任務,但我們是否意識到其中的風險?
據Netskope稱,現在平均每個企業每月與AI工具共享的數據量超過7.7GB,75%的企業用戶正在使用具有GenAI功能的應用程序。
GenAI的陰暗面
事實上,89%的企業對AI的使用情況一無所知,這暴露了監督和控制方面的空白,更重要的是,71%的GenAI工具是通過個人非工作賬戶訪問的。即使使用了公司賬戶,也有58%的登錄繞過了單點登錄(SSO),這意味著安全團隊無法看到員工使用的工具或共享的信息。
三星員工在使用ChatGPT協助工作時,無意中泄露了高度機密的數據,導致公司禁止使用GenAI工具。
DeepSeek在收到警告稱其在中國境內的安全服務器上收集用戶數據并用于各種目的后,仍出現了大量下載。
影子AI
一個更大的問題是影子AI——即未經官方批準在企業內使用AI工具。AI的使用痕跡較少,且可能在個人設備或瀏覽器上進行。將敏感數據輸入AI工具可能導致該信息被存儲在公司控制之外的外部服務器上,從而增加數據泄露和隱私侵犯的風險。
Ivanti發現,81%的上班族表示他們沒有接受過GenAI的培訓,15%的人正在使用未經批準的工具。
“雖然沒有一個行業比另一個行業更容易受到影子AI風險的影響,但較大的企業或知名品牌通常更有可能因其影響而面臨嚴重的聲譽損害?!盨kyhigh Security的CTO Steve Tait表示。
禁止GenAI并不足夠
GenAI的發展速度超過了大多數公司的應對能力,許多公司仍然沒有制定員工在工作時應如何使用這些工具的規則。
一些公司目前正在完全禁止使用GenAI或僅阻止某些應用程序,然而,僅憑禁止而不理解其潛在危險是不夠的,這會導致影子使用。
企業應采取的措施:
? 制定政策,明確GenAI工具的使用時機以及何時需要人工監督以防止有害錯誤。
? 提供員工培訓,并定期審計使用情況,以確保GenAI工具的負責任和合規使用。
? 控制和限制輸入GenAI的信息類型,以保護個人數據并遵守隱私法。
教育是關鍵,員工應意識到,如果使用不當,這些應用程序和工具并非無害。
高層的盲點
企業不能忽視GenAI技術,因此,一些企業可能會在未充分了解其工作原理或所攜帶風險的情況下實施這些工具。對投資者說“我們使用AI”可能聽起來不錯,但這可能導致數據泄露、訴訟或負面報道。
“GenAI很可能成為IT安全演進的下一個主要誘因,隨著AI融入每個流程,大多數企業將尋求方法以查看、控制和保護其用戶和數據?!盬itnessAI的CEO Rick Caccia指出。
領導者不需要成為AI專家,但他們需要提出正確的問題。模型使用了哪些數據?如何監控?如果出現問題,誰負責?沒有這種意識,采用AI就不是一種策略,而是一種賭博。




























