檢視次數:

查看有關 Companion 的常見問題。

一般問題

信任、透明度和準確性

隱私安全、資料防護和安全性

負責任的AI與合規

一般問題

問題
回答
什麼是TrendAI™ Companion
TrendAI™ Companion 是一款由 AI 驅動的網路安全顧問,旨在幫助安全團隊更快速、更有效地工作。Companion 使用預訓練的大型語言模型,結合 TrendAI™ 的網路安全知識、安全威脅資訊、研究和專業知識,為安全操作提供上下文指導。
Companion 是否使用用戶資料訓練 AI 模型?
不,Companion 不會使用客戶資料來訓練 AI 模型。Companion 使用的是預先訓練的大型語言模型,並結合了TrendAI™的網路安全知識和專業技術,而非用戶提交的資料。
Companion 支援哪些語言?
Companion 目前支援英語、法語、德語、日語、中文、葡萄牙語和西班牙語的提示。Companion 也可以用與提示語言不同的語言回應。
尚未啟動 TrendAI Vision One™ 完整功能的組織可以使用 Companion 嗎?
是的,Companion 可存取的資料是根據您組織目前已啟動的解決方案和功能。如果提示需要存取您目前已啟動的解決方案和功能中不可用的資料,Companion 將提供選項以啟動那些相關的解決方案和功能。
使用者如何提交有關 Companion 或 Companion 回應的反饋?
若要提交有關 Companion 或 Companion 回應的反饋,請前往 「Resource Center」「Share your feedback」
Companion 可以與 MCP 伺服器或 AI 代理整合嗎?
TrendAI Vision One™ 擁有一個公共 MCP 伺服器,可實現 TrendAI Vision One™ 與外部 AI 工具的整合。欲了解詳細資訊,請參閱 GitHub 文件

信任、透明度和準確性

問題
回答
Companion 如何減少幻覺或不準確的答案?
Companion 透過使用專注於網路安全的 AI 模型、驗證檢查點、特定領域的提示以及人類監督來減少幻覺,以便在高風險決策中做出更好的判斷。Companion 也在不斷改進,以提供更具針對性和準確的回應。
是否提供了證據和資料來源以支持Companion的回應?
此功能即將推出。在不久的將來,資料來源和證據將伴隨 Companion 回應,包括適用的內部和外部參考。回應還將包含驗證指標、Companion 信心分數和會話上下文,以支援審核和追溯。
使用者是否有權選擇或拒絕Companion建議的修復措施?
是的。人類監督和驗證是 Companion 設計中的核心部分,有助於維持問責性和控制。

隱私安全、資料防護和安全性

   
是否有任何個人識別資訊 (PII) 被發送到第三方 LLM?
No. TrendAI Vision One™ 透過合約和技術控制的結合,確保敏感資訊和個人識別資訊(PII)的保護。由外部 AI 元件處理的資料受到嚴格的資料處理協議的約束,明確禁止將客戶資料用於模型訓練或任何次要目的。這些控制措施確保敏感資訊在 AI 處理流程中保持保護,並且所有 AI 的使用在與外部語言模型或 AI 服務互動時均符合隱私安全和資料安全防護原則。
Companion 資料防護儲存在哪裡?
Companion 資料儲存在您的 TrendAI Vision One™ 實例中,使用與所有其他 TrendAI Vision One™ 資料相同的安全保護措施,包括會話歷史和稽核日誌。
Companion 使用者的資料在傳輸中和靜止時是否受到保護?
是的。Companion 使用者資料防護採用與所有其他 TrendAI Vision One™ 資料相同的安全防護措施,無論是在傳輸中或靜止狀態。
使用者資料是否留在相同的地理區域?
使用者資料可能會被傳輸到使用者的TrendAI Vision One™地區之外進行處理,以符合資料存放要求。
誰可以存取使用者提示?
使用者提示的存取僅限於授權的TrendAI™人員,例如網站可靠性工程師、安全威脅研究和分析團隊,以及快速客戶支援,技術支援中心的存取僅在TrendAI Vision One™控制台中明確允許時才啟動。存取是目的限制的,並且會被記錄和審核。
提示會被儲存多久?
提示會話記錄最多保留30天。如果單個會話在30天內超過500個提示,超過該閾值的最早提示將被刪除。
用戶可以查看稽核日誌嗎?
是的。主管理員可以查看和匯出審核日誌。使用者操作的審核日誌會自動生成並儲存180天。

負責任的AI與合規

問題
回答
TrendAI™ 如何實現負責任的AI?
TrendAI™的負責任AI方法包括透明性、公平性、隱私安全、問責制、安全性和保障、人類控制、社會責任以及持續改進。該方法還包括承諾遵守歐盟人工智慧法案,包括基於風險的管理、透明性義務、禁止的實踐限制、高風險AI的要求以及市場後監控。