黄仁勋谈AI现状:仍需数年才能达到“高度可信”卫灵公对美少年先宠爱后嫌弃,其心理值得我们深思

12次阅读

黄仁勋认为,我们距离一个可以“高度信任”的AI系统仍有“数年之遥”。整个行业也在重新思考如何在有限数据和资源下更有效地训练模型。

尽管人工智能正在迅速发展,但离一个可以高度信任的AI系统仍有距离。黄仁勋强调,在未来数年内,持续提升计算能力和探索新的方法将是关键任务。同时,行业正重新思考如何在有限数据和资源下更有效地训练模型,以实现更可靠、更强大的人工智能应用。

英伟达(NVDA.O)首席执行官黄仁勋近日表示,目前的人工智能并不能提供最优解答,我们距离一个可以“高度信任”的AI系统仍有“数年之遥”。

“目前我们得到的答案还远非最佳答案,”黄仁勋在香港科技大学的采访中说道。他指出,人们应该不需要对AI的回答心存疑虑,比如它是否“幻觉化”或是否“合理”。

“我们必须达到这样一个阶段——你大体上可以信任AI的回答……而要实现这一点,我认为我们还有数年的路要走。在此期间,我们需要不断提升计算能力。”

大语言模型的局限性:幻觉和数据瓶颈

像ChatGPT这样的语言模型在过去几年中取得了指数级的进步,能够回答复杂问题,但依然存在诸多限制。其中,“幻觉”,即生成虚假或不存在的答案,是AI聊天机器人的持续问题。

例如,去年一位广播主持人就因ChatGPT编造了一份虚假的法律指控文件而起诉OpenAI,而后者未对此作出回应。

此外,一些AI公司正面临如何在有限数据资源下推进大语言模型(LLM)发展的困境。黄仁勋表示,仅依靠预训练,即在大规模、多样化的数据集上对模型进行训练,并不足以开发出功能强大的AI。

“预训练——自动从世界上的所有数据中发现知识——是不够的……就像大学毕业是一个重要的里程碑,但它并不是终点。”

过去几年,科技公司如OpenAI、Meta和谷歌专注于收集海量数据,假设更多的训练数据会造就更智能、更强大的模型。然而,这种传统方法如今正受到质疑。

转变思路:超越“盲目扩展”

研究表明,基于Transformer的神经网络(LLM的核心技术)在数据量和计算能力增加时性能呈线性增长。然而,业界领导者开始担忧这一策略的局限性,并尝试探索替代方法。

Scale AI首席执行官Alexandr Wang表示,AI投资主要基于这种“扩展定律”的假设,但现在它已成为“整个行业的最大问题”。

Cohere公司首席执行官Aidan Gomez认为,虽然增加计算能力和模型规模确实能提升性能,但这种方法有些“机械化”。“这种方法虽可靠,却显得有些愚蠢,”他在播客中说道。Gomez提倡开发更小、更高效的模型,这种方法因其成本效益受到支持。

其他人则担心,这种方法可能无法实现“通用人工智能”(AGI,即匹配或超越人类智能的理论AI形态)。

前Salesforce高管、AI搜索引擎You.com首席执行官Richard Socher表示,大语言模型的训练方式过于简单化,仅仅是“基于已知的token预测下一个token”。他认为,更有效的训练方式是强迫模型将问题转化为计算机代码,并基于代码的输出生成答案。这种方法能减少在定量问题上的幻觉,并增强AI能力。

行业观点分化:规模扩展是否见顶?

然而,并非所有行业领导者都认为人工智能已经遇到了规模扩张的障碍。

微软首席技术官Kevin Scott持不同观点。他在7月的采访中表示:“与其他人的看法不同,我们尚未达到扩展规模的边际收益递减阶段。”

OpenAI也在努力改进现有的大语言模型。例如,9月发布的o1模型仍基于Socher提到的token预测机制,但其在处理定量问题(如编程和数学)方面更加出色,与更通用的ChatGPT有所不同。

前Uber工程师Waleed Kadous将两者进行了类比:“如果将GPT-4拟人化,它更像是一个知道一切的朋友,在回答问题时会滔滔不绝,让你从中筛选有价值的信息。而o1更像是那个仔细倾听后沉思片刻,再给出一两句切中要害答案的朋友。”

然而,o1模型需要更多计算资源,导致运行速度更慢、成本更高。

正文完
 0
网站地图