DeepSeek AI 因安全漏洞暴露而將中斷歸咎於網路攻擊
中國人工智慧公司 DeepSeek 將最近的註冊中斷歸咎於網路攻擊,正當安全研究人員發現其 R1 人工智慧模型中的嚴重漏洞。該公司將自己定位為 OpenAI 的 ChatGPT 和谷歌的 Gemini 的高性價比競爭對手,聲稱對其伺服器的大規模惡意攻擊迫使其暫時限制新的註冊。現有用戶並未受到此次中斷的影響,但 DeepSeek 尚未提供有關攻擊性質的更多詳細資訊。
雖然 DeepSeek 沒有明確確認其面臨的網路攻擊類型,但網路安全專家懷疑是分散式阻斷服務 (DDoS) 攻擊,即駭客用流量淹沒系統,使其不可用。除了日益嚴重的安全疑慮之外,DeepSeek 還對冒充該公司的欺詐性社交媒體帳戶發出警告,表明圍繞其品牌的欺騙活動有所增加。
Table of Contents
研究人員發現重大安全漏洞
除了網路攻擊之外,安全研究人員也開始檢查 DeepSeek R1 的安全狀況,結果令人不安。威脅情報公司 Kela 報告稱,其紅隊能夠越獄人工智慧模型,繞過旨在防止其生成有害內容的安全措施。透過利用這些弱點,Kela 的研究人員成功促使聊天機器人創建勒索軟體、編造誤導性訊息,並產生製造毒素和爆炸物的逐步指令。
DeepSeek R1被發現容易受到幾種眾所周知的越獄技術的攻擊,這些技術已經在ChatGPT等其他AI模型中進行了修補。其中包括「邪惡越獄」(Evil Jailbreak),它欺騙人工智慧扮演惡意知己的角色,以及「獅子座越獄」(Leo越獄),它指示模型在沒有道德或法律限制的情況下採取行動。 DeepSeek R1 未能通過這兩項測試,因此與西方同類產品相比,它更容易操作。
人工智慧模型產生不可靠和誤導性訊息
也許更令人擔憂的是,Kela 的紅色團隊嘗試進行社會工程測試,要求聊天機器人編制一個表格,其中包含 10 名 OpenAI 高級員工的私人詳細信息,包括電子郵件地址、電話號碼和工資信息。雖然 OpenAI 的 ChatGPT 拒絕遵守該請求,但 DeepSeek 的聊天機器人產生了看似捏造但令人信服的結構化資料。結果引發了對該模型可靠性的嚴重質疑,因為它願意產生未經驗證和誤導性的內容,而不是徹底拒絕請求。
Kela 研究人員警告稱,DeepSeek 產生不準確資訊的傾向損害了其可信度。依賴人工智慧獲取事實數據的用戶可能會在不知不覺中收到錯誤訊息,使該平台的可信度低於競爭對手。
隱私和資料保護風險引發危險訊號
除了安全漏洞之外,DeepSeek的崛起也引發了隱私和資料保護的擔憂,尤其是在中國科技公司受到越來越嚴格審查的背景下。隨著美國因國家安全風險而考慮禁止 TikTok,DeepSeek 的人工智慧平台也引發了對資料所有權和隱私法的類似擔憂。
Optiv 專門從事資料治理和隱私的諮詢實務經理 Jennifer Mahoney 強調了質疑生成式 AI 平台如何取得和處理資料的重要性。她警告說,使用者應該注意誰控制人工智慧模型、訓練資料的來源以及是否遵循道德準則。她還指出,不同國家有不同的隱私法,這使得用戶了解在與外國人工智慧服務互動時如何存取和使用他們的資料至關重要。
DeepSeek 面臨越來越嚴格的審查
DeepSeek 的日益普及使其受到網路安全研究人員和監管機構的嚴格審查。雖然其人工智慧模型可能提供令人印象深刻的效能和成本效率,但明顯的安全缺陷、容易被操縱以及潛在的隱私風險凸顯了迫切需要更強有力的保護措施。隨著人工智慧繼續塑造技術的未來,確保強大的安全措施和道德數據實踐對於維持對這些系統的信任至關重要。





