作者:潘妍 出品:全球财说 在使用大模型工具时,你是否也遇到过会“说谎”的AI? 随着AI不断深入渗透人类的日常生活,不少用户发现大模型在生产文本时会出现生成偏差或事实性错误。这些错误信息看似逻辑严密,实则是毫无根据的结论,且错误信息后续可能被模型当作真实信息学习,由此形成谎言迭代的恶性循环。 而这一现象逐渐影响AI落地场景,例如AI医生误诊病情、金融风控系统放过诈骗交易、智能制造系统错误调整参数等等。 针对这一问题,近日马斯克宣布xAI旗下大语言模型Grok 3.5重写人类知识库,添加缺失信
TOPIC