全球頂尖人工智能企業正加緊行動,試圖解決大型語言模型(LLM)中一個關鍵安全漏洞——這一漏洞可能被網絡犯罪分子利用。
包括谷歌DeepMind、Anthropic、OpenAI和微軟在內的公司,正努力防止所謂的“間接提示注入”(indirect prompt injection)攻擊。這類攻擊利用第三方網站或電子郵件中隱藏的指令,誘使AI模型泄露未經授權的信息,如機密數據。
“如今,網絡攻擊的每一個環節都在使用人工智能,”AI初創公司Anthropic威脅情報團隊負責人雅各布?克萊因(Jacob Klein)表示。
您已閱讀13%(258字),剩余87%(1785字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。