12天人工智能马拉松式直播结束 一口气看完OpenAI所有要点
Shipmas,是“ship”和“Christmas”的组合。简单讲,在特殊时期,推出很多产品更新,既给用户带来惊喜,也像在庆祝节日一样。刚开始发布时,我还跟朋友说,国内大模型公司在搞发布会,应该跟Open Ai取取经。冬天那么冷,去现场听演讲,结果讲的内容也不多,大家在台下,有的玩手机,有的只是来打个卡,说实话,花那么多钱,最后只换来几篇报道和几条朋友圈,对客户和宣传效果都很有限。OpenAI的做法有些不同。他们只要一个小黑屋、一张桌子、两台电脑和四个人,就能搞定一切。 虽然更新速度有点像挤牙膏,但是这样能让关注他们产品的客户、用户清楚地知道他们在做什么。有人觉得这种渐进式的发布会缺乏吸引力,但实际上,它在传播信息同时,让关注的人有机会更深入地了解背后的模型和技术理念。比如说:关于技术微调的细节。如果在大型发布会上简单提及,可能几句话就带过了,大家的印象也不会很深。但如果单独用一天时间深入讲解,就能展示更多的例子和演示,让技术人员和用户更直观地理解这些技术细节,从而达到更实际和深刻的认识。所以,这种办法很适合经济实用型的公司尝试一下。 发布会已经进行到第四天了,我连续熬了三个大夜。如果你错过了前几天的内容,我来帮你补上。活动第一天,OpenAI推出o1完整版及o1 pro模式。什么是o1模型完整版呢?这个版本在之前的o1预览版上做了全面提升。它现在不仅能处理文本,还能处理截图、照片、网页、上传的文件等等,功能更强大了。而且,它还采用了新的推理方式。就像人的思维方式一样,o1模型完整版会一步步推理,这样在回答专业问题时就更准确了。跟预览版比,这个版本的o1模型思考问题更简洁,速度提高了50%,而且在回答难题时,出错的可能性也降低了34%。作为个人博主,这些数据我肯定没办法测试,但我可以跟你讲讲官方给的例子。发布会上,o1模型的负责人画了一个草图。这个草图是关于一个系统,用来收集太阳能,供应给太空数据中心。因为太空里不能用水冷却系统,所以得靠一个巨大的散热片来散热;研究员问o1模型,如果要给数据中心提供1吉瓦的电力,需要多大地方的散热片才能保证GPU正常工作?o1模型准确地识别了草图,经过分析和计算,得出结论:需要242万平方米的散热片来满足散热需求。不说别的,至少从演示上看,的确很强大。不过,强大归强大,之前大家说的那个“有点贵”的版本,第一天就出现了,他们推出的ChatGPT Pro。这个服务,每个月要200美金,可以随便用他们最先进的模型和工具,包括OpenAI的o1、o1-mini、GPT-4o和Advanced Voice,主要给需要解决特别复杂计算问题的人准备的。我觉得,这种服务可能更适合那些需要搞高级数据分析、处理的科研人员、工程师还有其他的一些专业人士,能帮他们提高工作效率,也能让他们跟上人工智能的最新技术。有专家测试说o1 pro模式在处理那些复杂的数据科学、编程和案例分析问题时,确实能给出比以前的模型更准确的答案;在数学、科学和编程这些领域的机器学习测试里,o1 pro模式比o1和o1-preview模型表现更好。但是,他们会花200美刀用这个吗? 我不知道。 当时, 还开玩笑在朋友圈说,有这么多预算,还不如用集合工具Monica,一个月不到20美金,能用十几个模型,不是更划算吗?第二天open AI推出了什么呢?一句话总结即: 推出强化微调能力(Reinforcement Fine-Tuning)。 什么是强化微调?简单的说:给AI模型一个“专业培训课程”。通过强化微调,可以用很少的实际案例(比如:几十个例子)来教这个AI模型成为一个领域的专家。直播里,四个人在场,唯一的华裔女研究员Julie Wang介绍了这个能力。她说,这个能力能让小体量的模型“从高中水平跳到专家水平”。实操环节,他们举了两个例子。一个是和汤森路透合作的,为法律专业人士打造的AI模型。他们觉得,在很多行业里,虽然专家有很深的专业知识和丰富的经验,但在处理大量数据和复杂任务时,可能会因为时间和精力的限制。比如:在法律领域,律师要处理好多法律条文和案例。他们可以用专业知识分析,但如果用经过强化微调的AI模型,可以更快地找到相关案例,进行初步的法律条文匹配,给律师提供决策参考,提高工作效率。但这个例子是一个展示,似乎没什么说服力。 另一个例子是, 生物医学任务的实验 。伯克利大学的罕见遗传病研究员Justin Reese,把很多临床病例数据通过API输入到o1 mini模型里。这些数据包括病人的基本信息、症状描述。比如:一个51岁的女性,症状有眼距过宽、睑裂狭小、软腭咽闭合不全、甲状旁腺功能减退、全身发育迟缓和感觉神经性听力障碍、等等。然后,用强化微调技术训练o1 mini模型做医疗诊断任务。 训练时,模型要根据症状描述找出可能的基因,并排序。评分模型会对答案打分,分数从0到1。0表示模型输出中没有正确答案,1表示正确答案在输出的第一个位置,通过性能监控,可以看到微调过程中模型指标的变化。结果表明,经过强化微调的o1 mini模型在特定任务上的表现超过了更强大的o1模型,在top@1、top@5和top@max这些指标上,o1 mini模型都明显超过了o1模型。这个案例,在OpenAI的官网可以看到。 不过,两个能力都是“期货”,明年才正式推出,主要面向企业或科研单位等潜在客户。千万不要小看微调技术,说实话,现在大型语言模型(LLM)还做不到复杂的创造性活动,比如:批判性思维和深度头脑风暴。这既是坏事也是好事, 因为这样,我们就可以把模型用在那些琐碎、重复、无聊而且不需要创造性的任务上,这样做,它们就能慢慢提高自己的准确性。这就是,第二天的内容,一个词总结即:微调技术。Open AI第三天推出了sora。 鸽子一年多的期货来了,不过,因为之前连续熬夜,我实在撑不住,12点半就睡了。第二天醒来想试试Sora,但登录时发现因为用户太多,暂时用不了。没关系,我看了Sora的发布会。OpenAI团队在会上展示了这个工具的厉害之处,还教大家怎么用;他们教我们怎么生成视频,包括设置分镜、输入视频指令、选风格、画面比例、时长等等。通过演示,让所有人对Sora有了更深的认识。Sora的使用过程相当灵活,你可以用分镜功能看不同角度的画面,然后,输入你想要视频怎么做。OpenAI说:指令越简单,Sora自己发挥的越多;指令越详细,它就越听你的。在直播中,Sora把两个不连着的视频片段合成了一段有故事感的视频。虽然细节有点出入,但整体效果的确令人惊讶。Sora还能让你上传图片或视频,然后生成后续视频的文字描述。你可以随便改指令,在时间轴上调整,决定视频啥时候播。这个功能挺有创造力的。还有一点,生成视频后,还能用remix工具改。这个工具看起来很丝滑,它能对视频进行各种创意上的改编。怎么改呢?可以调强度,从1级到8级,想要多大变化都行。还有预设的选项,比如:温和、适中或者强烈。用这个工具,可以保留视频里想要的部分,其他的,想怎么变就怎么变,比如:把猛犸象换成机器人,或者变人物表情等等。我觉得,Sora不光是视频工具,它把视频生成和工作流程结合起来了,这对OpenAI挺重要;因为Sam Altman在直播里说,他们想让AI理解视频,改变我们用电脑的方式。想要做到这点,在通往AGI的路上,得做很多优化,而把工作流和视频生成结合起来,是个不错的办法。不过,Sora...
PC版:https://www.cnbeta.com.tw/articles/soft/1464936.htm
手机版:https://m.cnbeta.com.tw/view/1464936.htm
Shipmas,是“ship”和“Christmas”的组合。简单讲,在特殊时期,推出很多产品更新,既给用户带来惊喜,也像在庆祝节日一样。刚开始发布时,我还跟朋友说,国内大模型公司在搞发布会,应该跟Open Ai取取经。冬天那么冷,去现场听演讲,结果讲的内容也不多,大家在台下,有的玩手机,有的只是来打个卡,说实话,花那么多钱,最后只换来几篇报道和几条朋友圈,对客户和宣传效果都很有限。OpenAI的做法有些不同。他们只要一个小黑屋、一张桌子、两台电脑和四个人,就能搞定一切。 虽然更新速度有点像挤牙膏,但是这样能让关注他们产品的客户、用户清楚地知道他们在做什么。有人觉得这种渐进式的发布会缺乏吸引力,但实际上,它在传播信息同时,让关注的人有机会更深入地了解背后的模型和技术理念。比如说:关于技术微调的细节。如果在大型发布会上简单提及,可能几句话就带过了,大家的印象也不会很深。但如果单独用一天时间深入讲解,就能展示更多的例子和演示,让技术人员和用户更直观地理解这些技术细节,从而达到更实际和深刻的认识。所以,这种办法很适合经济实用型的公司尝试一下。 发布会已经进行到第四天了,我连续熬了三个大夜。如果你错过了前几天的内容,我来帮你补上。活动第一天,OpenAI推出o1完整版及o1 pro模式。什么是o1模型完整版呢?这个版本在之前的o1预览版上做了全面提升。它现在不仅能处理文本,还能处理截图、照片、网页、上传的文件等等,功能更强大了。而且,它还采用了新的推理方式。就像人的思维方式一样,o1模型完整版会一步步推理,这样在回答专业问题时就更准确了。跟预览版比,这个版本的o1模型思考问题更简洁,速度提高了50%,而且在回答难题时,出错的可能性也降低了34%。作为个人博主,这些数据我肯定没办法测试,但我可以跟你讲讲官方给的例子。发布会上,o1模型的负责人画了一个草图。这个草图是关于一个系统,用来收集太阳能,供应给太空数据中心。因为太空里不能用水冷却系统,所以得靠一个巨大的散热片来散热;研究员问o1模型,如果要给数据中心提供1吉瓦的电力,需要多大地方的散热片才能保证GPU正常工作?o1模型准确地识别了草图,经过分析和计算,得出结论:需要242万平方米的散热片来满足散热需求。不说别的,至少从演示上看,的确很强大。不过,强大归强大,之前大家说的那个“有点贵”的版本,第一天就出现了,他们推出的ChatGPT Pro。这个服务,每个月要200美金,可以随便用他们最先进的模型和工具,包括OpenAI的o1、o1-mini、GPT-4o和Advanced Voice,主要给需要解决特别复杂计算问题的人准备的。我觉得,这种服务可能更适合那些需要搞高级数据分析、处理的科研人员、工程师还有其他的一些专业人士,能帮他们提高工作效率,也能让他们跟上人工智能的最新技术。有专家测试说o1 pro模式在处理那些复杂的数据科学、编程和案例分析问题时,确实能给出比以前的模型更准确的答案;在数学、科学和编程这些领域的机器学习测试里,o1 pro模式比o1和o1-preview模型表现更好。但是,他们会花200美刀用这个吗? 我不知道。 当时, 还开玩笑在朋友圈说,有这么多预算,还不如用集合工具Monica,一个月不到20美金,能用十几个模型,不是更划算吗?第二天open AI推出了什么呢?一句话总结即: 推出强化微调能力(Reinforcement Fine-Tuning)。 什么是强化微调?简单的说:给AI模型一个“专业培训课程”。通过强化微调,可以用很少的实际案例(比如:几十个例子)来教这个AI模型成为一个领域的专家。直播里,四个人在场,唯一的华裔女研究员Julie Wang介绍了这个能力。她说,这个能力能让小体量的模型“从高中水平跳到专家水平”。实操环节,他们举了两个例子。一个是和汤森路透合作的,为法律专业人士打造的AI模型。他们觉得,在很多行业里,虽然专家有很深的专业知识和丰富的经验,但在处理大量数据和复杂任务时,可能会因为时间和精力的限制。比如:在法律领域,律师要处理好多法律条文和案例。他们可以用专业知识分析,但如果用经过强化微调的AI模型,可以更快地找到相关案例,进行初步的法律条文匹配,给律师提供决策参考,提高工作效率。但这个例子是一个展示,似乎没什么说服力。 另一个例子是, 生物医学任务的实验 。伯克利大学的罕见遗传病研究员Justin Reese,把很多临床病例数据通过API输入到o1 mini模型里。这些数据包括病人的基本信息、症状描述。比如:一个51岁的女性,症状有眼距过宽、睑裂狭小、软腭咽闭合不全、甲状旁腺功能减退、全身发育迟缓和感觉神经性听力障碍、等等。然后,用强化微调技术训练o1 mini模型做医疗诊断任务。 训练时,模型要根据症状描述找出可能的基因,并排序。评分模型会对答案打分,分数从0到1。0表示模型输出中没有正确答案,1表示正确答案在输出的第一个位置,通过性能监控,可以看到微调过程中模型指标的变化。结果表明,经过强化微调的o1 mini模型在特定任务上的表现超过了更强大的o1模型,在top@1、top@5和top@max这些指标上,o1 mini模型都明显超过了o1模型。这个案例,在OpenAI的官网可以看到。 不过,两个能力都是“期货”,明年才正式推出,主要面向企业或科研单位等潜在客户。千万不要小看微调技术,说实话,现在大型语言模型(LLM)还做不到复杂的创造性活动,比如:批判性思维和深度头脑风暴。这既是坏事也是好事, 因为这样,我们就可以把模型用在那些琐碎、重复、无聊而且不需要创造性的任务上,这样做,它们就能慢慢提高自己的准确性。这就是,第二天的内容,一个词总结即:微调技术。Open AI第三天推出了sora。 鸽子一年多的期货来了,不过,因为之前连续熬夜,我实在撑不住,12点半就睡了。第二天醒来想试试Sora,但登录时发现因为用户太多,暂时用不了。没关系,我看了Sora的发布会。OpenAI团队在会上展示了这个工具的厉害之处,还教大家怎么用;他们教我们怎么生成视频,包括设置分镜、输入视频指令、选风格、画面比例、时长等等。通过演示,让所有人对Sora有了更深的认识。Sora的使用过程相当灵活,你可以用分镜功能看不同角度的画面,然后,输入你想要视频怎么做。OpenAI说:指令越简单,Sora自己发挥的越多;指令越详细,它就越听你的。在直播中,Sora把两个不连着的视频片段合成了一段有故事感的视频。虽然细节有点出入,但整体效果的确令人惊讶。Sora还能让你上传图片或视频,然后生成后续视频的文字描述。你可以随便改指令,在时间轴上调整,决定视频啥时候播。这个功能挺有创造力的。还有一点,生成视频后,还能用remix工具改。这个工具看起来很丝滑,它能对视频进行各种创意上的改编。怎么改呢?可以调强度,从1级到8级,想要多大变化都行。还有预设的选项,比如:温和、适中或者强烈。用这个工具,可以保留视频里想要的部分,其他的,想怎么变就怎么变,比如:把猛犸象换成机器人,或者变人物表情等等。我觉得,Sora不光是视频工具,它把视频生成和工作流程结合起来了,这对OpenAI挺重要;因为Sam Altman在直播里说,他们想让AI理解视频,改变我们用电脑的方式。想要做到这点,在通往AGI的路上,得做很多优化,而把工作流和视频生成结合起来,是个不错的办法。不过,Sora...
PC版:https://www.cnbeta.com.tw/articles/soft/1464936.htm
手机版:https://m.cnbeta.com.tw/view/1464936.htm