AI文摘

blog-thum
Scaling能通往AGI吗?

作者:DwarkeshPatel编译:Lavida,Chenxin编辑:Siqi排版:Scout几乎所有关于LLM的讨论都无法跳开scalinglaw,它被看作是OpenAI最核心的技

read more
blog-thum
谈为什么效率场景LLM应用没有爆发【2024Q1】

TLDR本文希望回答一个问题:为什么目前效率场景的LLM应用在用户看来都很鸡肋,没有到达付费意愿线。简略的答案是:大部分文本模态的应用提供的智力增量不够,需要至少100次96%准确率的LLM调用或者

read more