deepfake,即合成媒体,是由人工智能(AI)操纵的照片、视频或音频文件。为了打击 deepfake 的盛行,微软推出了一款新的视频认证工具,它可以对一张静态照片或视频进行分析,提供一份该媒体被人为操纵的几率百分比。它的工作原理是检测 deepfake 的混合边界和微妙的褪色或灰度元素,这些元素可能无法被人眼检测到。
微软已经推出了一种新的视频身份验证器工具,以打击“深度欺诈”,以防止即将到来的美国大选之前社交媒体上的错误信息。 Microsoft Video Authenticator旨在分析照片和视频,以自动确定“置信度”,以表明它们是人为操纵的。
“这项技术有两个组成部分。 第一个是Microsoft Azure内置的工具,该工具使内容生产者可以向内容中添加数字哈希和证书。 哈希和证书然后随内容一起作为元数据随处在线传播。 第二个是阅读器(可以作为浏览器扩展或其他形式存在),用于检查证书并匹配哈希值,使人们可以高度准确地知道内容是真实的,并且尚未更改, 该公司解释说。
uc电脑园提供的技术方案或与您产品的实际情况有所差异,您需在完整阅读方案并知晓其提示风险的情况下谨慎操作,避免造成任何损失。
浏览次数 28752
浏览次数 10632
浏览次数 8941
浏览次数 8110
浏览次数 5227
未知的网友