特利称:“我认为人们会继续将 ChatGPT 作为第二种参考意见,而不一定将其作为主要事实来源。”
然而问题在于,人们很容易就直接接受聊天机器人的回答,但生成式人工智能工具(不仅仅是 ChatGPT)往往有“幻觉”问题,即编造信息。这是因为它们主要是基于训练数据中的信息来预测查询的答案,而没有对事实的明确理解。
据IT之家了解,尽管 AI 在猜测方面表现不错,但归根结底,它们仍然只是在猜测。特利承认,当与传统搜索引擎或公司内部特定数据等能够更好地掌握事实的工具结合使用时,该工具表现最佳。他说道:“我仍然坚信,毫无疑问,正确的产品是将大型语言模型与事实真相相结合,这也是我们将搜索功能引入 ChatGPT 的原因,我认为这带来了巨大的改变。”
特利表示,GPT-5 在减少“幻觉”方面取得了“巨大进步”,但距离完美仍有很长的路要走。他说道:“我相信我们最终会解决‘幻觉’问题,但我也相信我们不会在未来一个季度内解决这个问题。”