Altman奥特曼:大型语言模型不是规模越大越好

0
(0)

Altman奥特曼:大型语言模型不是规模越大越好

自从OpenAI发布了GPT-4和ChatGPT这两个迄今为止创建的最复杂的基于大型语言模型的接口以来,联合创始人兼CEO Sam Altman最新的创业项目一直备受关注,但Altman采取了一个谨慎而谦逊的方法,不认为在大型语言模型(LLM)方面,越大就一定越好。

Altman在昨天的麻省理工学院“想象加行动”活动中接受了Zoom的访谈,他认为,我们正接近于为了尺寸而尺寸而限制LLM的大小的极限,“已经到了这些巨型模型的时代即将结束的阶段,我们将从其他方面使它们更好”。

Altman认为,尺寸是模型质量虚假的衡量标准,并将其与我们曾经看到的芯片速度竞赛进行了比较。“我们过于关注参数数量,对如何增加能力的迅速发展可能会有肯定的趋势。但这让我想起了90年代和2000年代芯片中的亿次计算竞赛,每个人都试图指向一个大数。”

正如Altman指出的那样,今天我们的iPhone正在运行更加强大的芯片,但我们大部分时候并不知道它们有多快,只知道它们能够胜任工作。重点是保持对迅速增长的能力的关注。如果有某些原因导致参数数量随着时间的推移减少,或者我们应该有多个一起工作的模型,每个模型都更小,我们会怎么做?我们要向世界提供最具能力、最有用和最安全的模型。我们不是在自夸参数数量。

Altman成功的关键是押对了大语言模型,OpenAI也不例外。

“我们已经在这上面工作了很长时间,但我们逐渐增强的信心是它真的会奏效。我们已经建立了七年的公司。这些事情需要很长的时间。

Altman说,我们已经在这一行业深耕很长时间,付出了大量心血,打磨了大部分细节,这是其他人做不到的。

当被问及马斯克等人要求OpenAI暂停六个月研发GPT-5时,Altman说,他们的说法有一定道理,但我们还是要继续做好本职工作。

点击星号评分!

平均分 0 / 5. 投票数: 0

还没有投票!请为他投一票。

推荐阅读

评论 抢沙发

评论前必须登录!

 

登录

找回密码

注册