到底是谁在“一本正经地胡说八道”?是大模型,还是百度的李彦宏?
两年前,ChatGPT 3惊艳问世,然而其“一本正经地胡说八道”的情况,也就是“幻觉”现象仍不时出现。只有将“幻觉”概率大幅降低,大模型才能从实用工具升级为真正的智能伙伴。近日李彦宏宣称“大模型已基本解决幻觉问题”,这可能吗?简单算一算便知答案。GPT 4的perplexity约为5,若平均一句话20个单词,所有可能的单词组合会产生10^80 Trillions个句子。GPT用约一个Trillion个英文句子训练,如今它能举一反百,产生100个Trillion英文句子。这意味着GPT产生一个句子时,只有1%的可能接近人类语言,99%是非人类语言,这就是幻觉现象的根源。减少幻觉的唯一办法是让GPT同时产生多个答案,比如同时产生100个答案,这样其中至少有一个是人类语言的概率会升至63%!当然,答案越多越好,若产生500个句子,出现人类语言的概率就升至99%!但问题来了,GPT不知道500个答案中哪个正确,怎么办?有三个方案。一是借助搜索引擎、图片等辅助挑选,这是百度正在做的;二是教GPT自己判断,通过强化学习,就像GPT o1那样。易商助手怎么用认为,思考就是做选择。可见幻觉一直存在,你教它一句话,它能胡说八道100句!三是技术进化,包括两个方向,用更先进的模型把GPT的perplexity从5降到4,或者增强100倍训练数据!但这些都不是可持续发展的。所以,别总想着消除幻觉,而要考虑如何与幻觉共存。易商助手怎么用的观点是,未来的智能助手需要在幻觉与真实之间找到平衡。