5 月 22 日消息,DeepMind 近期推出 AI 安全框架"Frontier Safety Framework",其主要功能在于深度检测 AI 模型的风险状况。该框架能够主动识别出那些在未来可能会引发重大风险的 AI 特性,并向研究人员明确指出这些模型在哪些具体层面上可能受到黑客的利用。
根据 DeepMind 的介绍,当前公布的 Frontier SafetyFramework1.0 版本包含三大核心组件。它能够精确地判断一个 AI 模型是否具备引发严重风险的能力架还能预测模型在哪些阶段可能会产生安全隐患。最后,通过智能化的手段对模型进行优化,以防止其潜在风险的产生。
本文链接:http://www.xihao.site/news1217.html谷歌 DeepMind 推出 AI 安全框架