OpenAI 🍓 发了,叫 o1,静待明天中文自媒体刷屏
主要特点是 built-in CoT,模型需要好几秒的自我推理才能输出,导致需要推理的场景强到爆,但不需要推理的写作很浪费时间质量也不比 4o 更好
OpenAI 会先放出一个削弱版的 o1-preview,以测试用户会怎么用模型,哪些场景需要增强,哪些场景可以直接用 4o 快速输出
We’re no longer bottlenecked by pretraining. We can now scale inference compute too.
https://openai.com/index/learning-to-reason-with-llms/
主要特点是 built-in CoT,模型需要好几秒的自我推理才能输出,导致需要推理的场景强到爆,但不需要推理的写作很浪费时间质量也不比 4o 更好
OpenAI 会先放出一个削弱版的 o1-preview,以测试用户会怎么用模型,哪些场景需要增强,哪些场景可以直接用 4o 快速输出
We’re no longer bottlenecked by pretraining. We can now scale inference compute too.
https://openai.com/index/learning-to-reason-with-llms/
tgoop.com/tsuThoughts/186
Create:
Last Update:
Last Update:
OpenAI 🍓 发了,叫 o1,静待明天中文自媒体刷屏
主要特点是 built-in CoT,模型需要好几秒的自我推理才能输出,导致需要推理的场景强到爆,但不需要推理的写作很浪费时间质量也不比 4o 更好
OpenAI 会先放出一个削弱版的 o1-preview,以测试用户会怎么用模型,哪些场景需要增强,哪些场景可以直接用 4o 快速输出
We’re no longer bottlenecked by pretraining. We can now scale inference compute too.
https://openai.com/index/learning-to-reason-with-llms/
主要特点是 built-in CoT,模型需要好几秒的自我推理才能输出,导致需要推理的场景强到爆,但不需要推理的写作很浪费时间质量也不比 4o 更好
OpenAI 会先放出一个削弱版的 o1-preview,以测试用户会怎么用模型,哪些场景需要增强,哪些场景可以直接用 4o 快速输出
We’re no longer bottlenecked by pretraining. We can now scale inference compute too.
https://openai.com/index/learning-to-reason-with-llms/
BY tsuThoughts
Share with your friend now:
tgoop.com/tsuThoughts/186