哈佛大学最新报告:LLM 等价于众包,只是在输出「网络共识」
哈佛大学最新报告:LLM 等价于众包,只是在输出「网络共识」哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生「幻觉」的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量。
研究结果指出,大模型在处理有广泛共识的问题时表现较好,但在面对争议性或信息不足的主题时则容易产生误导性的回答。
对于具有广泛共识的主题,例如 Barack Obama 名言等,模型通常能够给出正确的答案,对于更具体的问题,例如有关铁电性的科学论文,大模型虽然能提供正确的引文格式,但内容基本都是错的,或是将真实存在的作者与不存在的论文结合起来。
页:
[1]