微软承认必应Copilot存在严重“幻觉”漏洞,询问“即时内容”有1/3概率回复错误答案

760次阅读  |  发布于1年以前

12月18日消息,研究机构AI Forensics今年8月至10月对微软必应搜索引擎内置的Copilot功能进行调查,结果显示在部分场合中,Copilot 有 1/3 的几率输出错误答案,据此,该机构认为相关功能存在严重“幻觉”漏洞。

今年10月研究人员已经向微软提交上述问题,微软虽然承认并声称“计划解决相关‘幻觉’漏洞”,但在今年11月,研究人员再次进行测试,发现必应Copilot的表现并未改善。

Copyright© 2013-2019

京ICP备2023019179号-2