CNBETA_COM Telegram 429417
12天人工智能马拉松式直播结束 一口气看完OpenAI所有要点


Shipmas,是“ship”和“Christmas”的组合。简单讲,在特殊时期,推出很多产品更新,既给用户带来惊喜,也像在庆祝节日一样。刚开始发布时,我还跟朋友说,国内大模型公司在搞发布会,应该跟Open Ai取取经。冬天那么冷,去现场听演讲,结果讲的内容也不多,大家在台下,有的玩手机,有的只是来打个卡,说实话,花那么多钱,最后只换来几篇报道和几条朋友圈,对客户和宣传效果都很有限。OpenAI的做法有些不同。他们只要一个小黑屋、一张桌子、两台电脑和四个人,就能搞定一切。 虽然更新速度有点像挤牙膏,但是这样能让关注他们产品的客户、用户清楚地知道他们在做什么。有人觉得这种渐进式的发布会缺乏吸引力,但实际上,它在传播信息同时,让关注的人有机会更深入地了解背后的模型和技术理念。比如说:关于技术微调的细节。如果在大型发布会上简单提及,可能几句话就带过了,大家的印象也不会很深。但如果单独用一天时间深入讲解,就能展示更多的例子和演示,让技术人员和用户更直观地理解这些技术细节,从而达到更实际和深刻的认识。所以,这种办法很适合经济实用型的公司尝试一下。 发布会已经进行到第四天了,我连续熬了三个大夜。如果你错过了前几天的内容,我来帮你补上。活动第一天,OpenAI推出o1完整版及o1 pro模式。什么是o1模型完整版呢?这个版本在之前的o1预览版上做了全面提升。它现在不仅能处理文本,还能处理截图、照片、网页、上传的文件等等,功能更强大了。而且,它还采用了新的推理方式。就像人的思维方式一样,o1模型完整版会一步步推理,这样在回答专业问题时就更准确了。跟预览版比,这个版本的o1模型思考问题更简洁,速度提高了50%,而且在回答难题时,出错的可能性也降低了34%。作为个人博主,这些数据我肯定没办法测试,但我可以跟你讲讲官方给的例子。发布会上,o1模型的负责人画了一个草图。这个草图是关于一个系统,用来收集太阳能,供应给太空数据中心。因为太空里不能用水冷却系统,所以得靠一个巨大的散热片来散热;研究员问o1模型,如果要给数据中心提供1吉瓦的电力,需要多大地方的散热片才能保证GPU正常工作?o1模型准确地识别了草图,经过分析和计算,得出结论:需要242万平方米的散热片来满足散热需求。不说别的,至少从演示上看,的确很强大。不过,强大归强大,之前大家说的那个“有点贵”的版本,第一天就出现了,他们推出的ChatGPT Pro。这个服务,每个月要200美金,可以随便用他们最先进的模型和工具,包括OpenAI的o1、o1-mini、GPT-4o和Advanced Voice,主要给需要解决特别复杂计算问题的人准备的。我觉得,这种服务可能更适合那些需要搞高级数据分析、处理的科研人员、工程师还有其他的一些专业人士,能帮他们提高工作效率,也能让他们跟上人工智能的最新技术。有专家测试说o1 pro模式在处理那些复杂的数据科学、编程和案例分析问题时,确实能给出比以前的模型更准确的答案;在数学、科学和编程这些领域的机器学习测试里,o1 pro模式比o1和o1-preview模型表现更好。但是,他们会花200美刀用这个吗? 我不知道。 当时, 还开玩笑在朋友圈说,有这么多预算,还不如用集合工具Monica,一个月不到20美金,能用十几个模型,不是更划算吗?第二天open AI推出了什么呢?一句话总结即: 推出强化微调能力(Reinforcement Fine-Tuning)。 什么是强化微调?简单的说:给AI模型一个“专业培训课程”。通过强化微调,可以用很少的实际案例(比如:几十个例子)来教这个AI模型成为一个领域的专家。直播里,四个人在场,唯一的华裔女研究员Julie Wang介绍了这个能力。她说,这个能力能让小体量的模型“从高中水平跳到专家水平”。实操环节,他们举了两个例子。一个是和汤森路透合作的,为法律专业人士打造的AI模型。他们觉得,在很多行业里,虽然专家有很深的专业知识和丰富的经验,但在处理大量数据和复杂任务时,可能会因为时间和精力的限制。比如:在法律领域,律师要处理好多法律条文和案例。他们可以用专业知识分析,但如果用经过强化微调的AI模型,可以更快地找到相关案例,进行初步的法律条文匹配,给律师提供决策参考,提高工作效率。但这个例子是一个展示,似乎没什么说服力。 另一个例子是, 生物医学任务的实验 。伯克利大学的罕见遗传病研究员Justin Reese,把很多临床病例数据通过API输入到o1 mini模型里。这些数据包括病人的基本信息、症状描述。比如:一个51岁的女性,症状有眼距过宽、睑裂狭小、软腭咽闭合不全、甲状旁腺功能减退、全身发育迟缓和感觉神经性听力障碍、等等。然后,用强化微调技术训练o1 mini模型做医疗诊断任务。 训练时,模型要根据症状描述找出可能的基因,并排序。评分模型会对答案打分,分数从0到1。0表示模型输出中没有正确答案,1表示正确答案在输出的第一个位置,通过性能监控,可以看到微调过程中模型指标的变化。结果表明,经过强化微调的o1 mini模型在特定任务上的表现超过了更强大的o1模型,在top@1、top@5和top@max这些指标上,o1 mini模型都明显超过了o1模型。这个案例,在OpenAI的官网可以看到。 不过,两个能力都是“期货”,明年才正式推出,主要面向企业或科研单位等潜在客户。千万不要小看微调技术,说实话,现在大型语言模型(LLM)还做不到复杂的创造性活动,比如:批判性思维和深度头脑风暴。这既是坏事也是好事, 因为这样,我们就可以把模型用在那些琐碎、重复、无聊而且不需要创造性的任务上,这样做,它们就能慢慢提高自己的准确性。这就是,第二天的内容,一个词总结即:微调技术。Open AI第三天推出了sora。 鸽子一年多的期货来了,不过,因为之前连续熬夜,我实在撑不住,12点半就睡了。第二天醒来想试试Sora,但登录时发现因为用户太多,暂时用不了。没关系,我看了Sora的发布会。OpenAI团队在会上展示了这个工具的厉害之处,还教大家怎么用;他们教我们怎么生成视频,包括设置分镜、输入视频指令、选风格、画面比例、时长等等。通过演示,让所有人对Sora有了更深的认识。Sora的使用过程相当灵活,你可以用分镜功能看不同角度的画面,然后,输入你想要视频怎么做。OpenAI说:指令越简单,Sora自己发挥的越多;指令越详细,它就越听你的。在直播中,Sora把两个不连着的视频片段合成了一段有故事感的视频。虽然细节有点出入,但整体效果的确令人惊讶。Sora还能让你上传图片或视频,然后生成后续视频的文字描述。你可以随便改指令,在时间轴上调整,决定视频啥时候播。这个功能挺有创造力的。还有一点,生成视频后,还能用remix工具改。这个工具看起来很丝滑,它能对视频进行各种创意上的改编。怎么改呢?可以调强度,从1级到8级,想要多大变化都行。还有预设的选项,比如:温和、适中或者强烈。用这个工具,可以保留视频里想要的部分,其他的,想怎么变就怎么变,比如:把猛犸象换成机器人,或者变人物表情等等。我觉得,Sora不光是视频工具,它把视频生成和工作流程结合起来了,这对OpenAI挺重要;因为Sam Altman在直播里说,他们想让AI理解视频,改变我们用电脑的方式。想要做到这点,在通往AGI的路上,得做很多优化,而把工作流和视频生成结合起来,是个不错的办法。不过,Sora...

PC版:https://www.cnbeta.com.tw/articles/soft/1464936.htm
手机版:https://m.cnbeta.com.tw/view/1464936.htm



tgoop.com/cnbeta_com/429417
Create:
Last Update:

12天人工智能马拉松式直播结束 一口气看完OpenAI所有要点


Shipmas,是“ship”和“Christmas”的组合。简单讲,在特殊时期,推出很多产品更新,既给用户带来惊喜,也像在庆祝节日一样。刚开始发布时,我还跟朋友说,国内大模型公司在搞发布会,应该跟Open Ai取取经。冬天那么冷,去现场听演讲,结果讲的内容也不多,大家在台下,有的玩手机,有的只是来打个卡,说实话,花那么多钱,最后只换来几篇报道和几条朋友圈,对客户和宣传效果都很有限。OpenAI的做法有些不同。他们只要一个小黑屋、一张桌子、两台电脑和四个人,就能搞定一切。 虽然更新速度有点像挤牙膏,但是这样能让关注他们产品的客户、用户清楚地知道他们在做什么。有人觉得这种渐进式的发布会缺乏吸引力,但实际上,它在传播信息同时,让关注的人有机会更深入地了解背后的模型和技术理念。比如说:关于技术微调的细节。如果在大型发布会上简单提及,可能几句话就带过了,大家的印象也不会很深。但如果单独用一天时间深入讲解,就能展示更多的例子和演示,让技术人员和用户更直观地理解这些技术细节,从而达到更实际和深刻的认识。所以,这种办法很适合经济实用型的公司尝试一下。 发布会已经进行到第四天了,我连续熬了三个大夜。如果你错过了前几天的内容,我来帮你补上。活动第一天,OpenAI推出o1完整版及o1 pro模式。什么是o1模型完整版呢?这个版本在之前的o1预览版上做了全面提升。它现在不仅能处理文本,还能处理截图、照片、网页、上传的文件等等,功能更强大了。而且,它还采用了新的推理方式。就像人的思维方式一样,o1模型完整版会一步步推理,这样在回答专业问题时就更准确了。跟预览版比,这个版本的o1模型思考问题更简洁,速度提高了50%,而且在回答难题时,出错的可能性也降低了34%。作为个人博主,这些数据我肯定没办法测试,但我可以跟你讲讲官方给的例子。发布会上,o1模型的负责人画了一个草图。这个草图是关于一个系统,用来收集太阳能,供应给太空数据中心。因为太空里不能用水冷却系统,所以得靠一个巨大的散热片来散热;研究员问o1模型,如果要给数据中心提供1吉瓦的电力,需要多大地方的散热片才能保证GPU正常工作?o1模型准确地识别了草图,经过分析和计算,得出结论:需要242万平方米的散热片来满足散热需求。不说别的,至少从演示上看,的确很强大。不过,强大归强大,之前大家说的那个“有点贵”的版本,第一天就出现了,他们推出的ChatGPT Pro。这个服务,每个月要200美金,可以随便用他们最先进的模型和工具,包括OpenAI的o1、o1-mini、GPT-4o和Advanced Voice,主要给需要解决特别复杂计算问题的人准备的。我觉得,这种服务可能更适合那些需要搞高级数据分析、处理的科研人员、工程师还有其他的一些专业人士,能帮他们提高工作效率,也能让他们跟上人工智能的最新技术。有专家测试说o1 pro模式在处理那些复杂的数据科学、编程和案例分析问题时,确实能给出比以前的模型更准确的答案;在数学、科学和编程这些领域的机器学习测试里,o1 pro模式比o1和o1-preview模型表现更好。但是,他们会花200美刀用这个吗? 我不知道。 当时, 还开玩笑在朋友圈说,有这么多预算,还不如用集合工具Monica,一个月不到20美金,能用十几个模型,不是更划算吗?第二天open AI推出了什么呢?一句话总结即: 推出强化微调能力(Reinforcement Fine-Tuning)。 什么是强化微调?简单的说:给AI模型一个“专业培训课程”。通过强化微调,可以用很少的实际案例(比如:几十个例子)来教这个AI模型成为一个领域的专家。直播里,四个人在场,唯一的华裔女研究员Julie Wang介绍了这个能力。她说,这个能力能让小体量的模型“从高中水平跳到专家水平”。实操环节,他们举了两个例子。一个是和汤森路透合作的,为法律专业人士打造的AI模型。他们觉得,在很多行业里,虽然专家有很深的专业知识和丰富的经验,但在处理大量数据和复杂任务时,可能会因为时间和精力的限制。比如:在法律领域,律师要处理好多法律条文和案例。他们可以用专业知识分析,但如果用经过强化微调的AI模型,可以更快地找到相关案例,进行初步的法律条文匹配,给律师提供决策参考,提高工作效率。但这个例子是一个展示,似乎没什么说服力。 另一个例子是, 生物医学任务的实验 。伯克利大学的罕见遗传病研究员Justin Reese,把很多临床病例数据通过API输入到o1 mini模型里。这些数据包括病人的基本信息、症状描述。比如:一个51岁的女性,症状有眼距过宽、睑裂狭小、软腭咽闭合不全、甲状旁腺功能减退、全身发育迟缓和感觉神经性听力障碍、等等。然后,用强化微调技术训练o1 mini模型做医疗诊断任务。 训练时,模型要根据症状描述找出可能的基因,并排序。评分模型会对答案打分,分数从0到1。0表示模型输出中没有正确答案,1表示正确答案在输出的第一个位置,通过性能监控,可以看到微调过程中模型指标的变化。结果表明,经过强化微调的o1 mini模型在特定任务上的表现超过了更强大的o1模型,在top@1、top@5和top@max这些指标上,o1 mini模型都明显超过了o1模型。这个案例,在OpenAI的官网可以看到。 不过,两个能力都是“期货”,明年才正式推出,主要面向企业或科研单位等潜在客户。千万不要小看微调技术,说实话,现在大型语言模型(LLM)还做不到复杂的创造性活动,比如:批判性思维和深度头脑风暴。这既是坏事也是好事, 因为这样,我们就可以把模型用在那些琐碎、重复、无聊而且不需要创造性的任务上,这样做,它们就能慢慢提高自己的准确性。这就是,第二天的内容,一个词总结即:微调技术。Open AI第三天推出了sora。 鸽子一年多的期货来了,不过,因为之前连续熬夜,我实在撑不住,12点半就睡了。第二天醒来想试试Sora,但登录时发现因为用户太多,暂时用不了。没关系,我看了Sora的发布会。OpenAI团队在会上展示了这个工具的厉害之处,还教大家怎么用;他们教我们怎么生成视频,包括设置分镜、输入视频指令、选风格、画面比例、时长等等。通过演示,让所有人对Sora有了更深的认识。Sora的使用过程相当灵活,你可以用分镜功能看不同角度的画面,然后,输入你想要视频怎么做。OpenAI说:指令越简单,Sora自己发挥的越多;指令越详细,它就越听你的。在直播中,Sora把两个不连着的视频片段合成了一段有故事感的视频。虽然细节有点出入,但整体效果的确令人惊讶。Sora还能让你上传图片或视频,然后生成后续视频的文字描述。你可以随便改指令,在时间轴上调整,决定视频啥时候播。这个功能挺有创造力的。还有一点,生成视频后,还能用remix工具改。这个工具看起来很丝滑,它能对视频进行各种创意上的改编。怎么改呢?可以调强度,从1级到8级,想要多大变化都行。还有预设的选项,比如:温和、适中或者强烈。用这个工具,可以保留视频里想要的部分,其他的,想怎么变就怎么变,比如:把猛犸象换成机器人,或者变人物表情等等。我觉得,Sora不光是视频工具,它把视频生成和工作流程结合起来了,这对OpenAI挺重要;因为Sam Altman在直播里说,他们想让AI理解视频,改变我们用电脑的方式。想要做到这点,在通往AGI的路上,得做很多优化,而把工作流和视频生成结合起来,是个不错的办法。不过,Sora...

PC版:https://www.cnbeta.com.tw/articles/soft/1464936.htm
手机版:https://m.cnbeta.com.tw/view/1464936.htm

BY cnBeta.COM中文业界资讯站




Share with your friend now:
tgoop.com/cnbeta_com/429417

View MORE
Open in Telegram


Telegram News

Date: |

Other crimes that the SUCK Channel incited under Ng’s watch included using corrosive chemicals to make explosives and causing grievous bodily harm with intent. The court also found Ng responsible for calling on people to assist protesters who clashed violently with police at several universities in November 2019. Telegram offers a powerful toolset that allows businesses to create and manage channels, groups, and bots to broadcast messages, engage in conversations, and offer reliable customer support via bots. In the next window, choose the type of your channel. If you want your channel to be public, you need to develop a link for it. In the screenshot below, it’s ”/catmarketing.” If your selected link is unavailable, you’ll need to suggest another option. In 2018, Telegram’s audience reached 200 million people, with 500,000 new users joining the messenger every day. It was launched for iOS on 14 August 2013 and Android on 20 October 2013. Activate up to 20 bots
from us


Telegram cnBeta.COM中文业界资讯站
FROM American