Levix 空间站


Гео и язык канала: Китай, Китайский
Категория: Технологии


主要分享前端、AI 以及前沿科技资讯。
🚫 禁止人身攻击:请在评论区保持尊重和友好,避免不当言论和负面互动。
🚫 禁止违规内容:请勿发布任何黄赌毒、宗教极端、政治敏感或其他违反社区规定的内容。
主要分享前端以及业界科技资讯。
🚫 禁止广告与刷屏:为了维护良好的交流环境,请不要进行任何形式的广告推广、黑产活动、刷屏行为及发布不适内容。
🔒 保护个人信息:请注意个人隐私和网络安全,不要在评论区泄露个人信息或点击不明链接。

Связанные каналы  |  Похожие каналы

Гео и язык канала
Китай, Китайский
Категория
Технологии
Статистика
Фильтр публикаций


boring.notch 为 MacBook 的刘海(notch)提供更具创意和实用性的功能。该项目通过将刘海转变为动态音乐控制中心,配备音乐播放器可视化效果和控制功能,使原本单调的刘海变得更具吸引力。

#Tools #Mac

https://github.com/theboredteam/boring.notch


开发者哲学

1) 要避免代码复杂度持续增加到需要重写的地步,在开发新功能和优化现有代码之间找到平衡;

2) 要记住项目完成 90% 需要一半时间,剩下 10% 也需要一半时间,所以要合理规划,为测试、文档和优化预留充足时间;

3) 把好的开发实践尽可能自动化,而不是靠人工检查和提醒;

4) 要考虑各种极端情况下的数据处理,边缘案例才是开发工作的重点;

5) 代码要简单直观,光是正确运行是不够的,要让其他开发者一眼就能看懂;

6) 写代码时要考虑到测试的便利性,这意味着接口要清晰,副作用要最小化。这些建议都很实用,对新手开发者特别有帮助。

#软件设计 #思考

https://sorrycc.com/devphilo/


Anthony Fu 探讨了 JavaScript 生态系统从 CommonJS(CJS)向 ECMAScript 模块(ESM)过渡的趋势和现状,并分享了他对 ESM 采用的思考与建议。

Anthony Fu 回顾了自己在 2022 年关于同时发布 ESM 和 CJS 格式的观点,当时他认为生态系统尚未准备好完全转向 ESM。然而,随着时间推移,工具和生态系统的发展促使他逐渐倾向于支持 ESM-only。他指出,自 2015 年 ESM 首次引入以来,经过十年发展,现代工具和库已越来越多地采用 ESM 作为主要模块格式。根据 WOOORM 的统计,2021 年 npm 上发布 ESM 格式的包占比为 7.8%,到 2024 年底已增长至 25.8%,尽管仍有大量包使用 CJS,但趋势明显向 ESM 倾斜。

他首先讨论了 “工具准备就绪”,指出现代前端构建工具如 Vite 的兴起,以及基于 Vite 的框架(如 Nuxt、SvelteKit、Astro 等)都将 ESM 作为一等公民。此外,测试库 Vitest、CLI 工具 tsx 和 jiti 等也为 ESM 的开发和运行提供了无缝体验。ESLint 也在 v9.0 中引入了对 ESM 的原生支持。

Anthony Fu 接着讨论了 “自顶向下与自底向上” 的 ESM 推广方式。2021 年,Sindresorhus 开始将其所有包迁移到 ESM-only,尽管这一过程并不完全顺利,但为生态系统带来了许多高质量的 ESM 包。他认为,对于 ESM 的平滑采用,自顶向下的方式更为有效,即通过高层框架和工具的支持,降低使用 ESM-only 包的障碍。

他还提到 Node.js 中 “require() ESM 模块的能力” 是一个重要的里程碑,该功能允许 ESM-only 的包被 CJS 代码库以最小的修改使用。这一功能已在 Node.js v22 中正式启用,并计划回溯至 v20,使得 ESM 的采用变得更加灵活。

Anthony Fu 的文章的第二部分讨论了 “双格式的困境”。尽管双格式(CJS/ESM)的包在过渡期间很有帮助,但它们也带来了诸多挑战。首先,CJS 和 ESM 是两种不同的模块系统,存在互操作性问题。例如,CJS 使用单一的 module.exports 对象,而 ESM 支持默认和命名导出,这在代码转换时容易出错。其次,双格式的依赖解析过程复杂,可能导致版本冲突和重复依赖。此外,双格式的包大小会加倍,导致 node_modules 膨胀,增加项目开销。

在第三部分中,Anthony Fu 探讨了 “何时应转向 ESM-only”。他建议所有新包应直接采用 ESM-only,因为不存在遗留依赖问题,且现代开发环境已支持 ESM。对于主要面向浏览器的包,ESM-only 更具优势,因为 ESM 在静态分析和树摇优化方面表现出色,能够生成更小、更高效的代码包。对于独立的 CLI 工具,采用 ESM 有助于推动整个生态系统向 ESM 转型。如果包的目标是支持最新版的 Node.js,那么在当前 require(ESM) 支持的情况下,转向 ESM-only 是一个不错的选择。此外,他还强调了了解用户需求的重要性,例如 ESLint v9 的新配置系统支持 ESM,因此 ESLint 插件可以安全地采用 ESM-only。

在第四部分中,Anthony Fu 介绍了 “我们目前的进展”。他开发了一个名为 Node Modules Inspector 的工具,用于分析项目依赖的 ESM 采用情况,并帮助识别迁移过程中可能出现的问题。该工具提供了依赖关系图和 ESM 采用情况报告等功能,尽管仍处于早期阶段,但有望成为包作者和维护者跟踪 ESM 进程的有力工具。

Anthony Fu 表示将逐步将其维护的包迁移到 ESM-only,并继续完善 Node Modules Inspector 工具,以提供更有用的见解。他期待一个更便携、更具弹性和优化的 JavaScript/TypeScript 生态系统,并鼓励读者在评论区交流想法和问题。

#前端 #JavaScript

https://antfu.me/posts/move-on-to-esm-only


Felix Rieseberg 针对 Electron 框架的一些常见误解进行了澄清。Electron 是一个用于构建跨平台桌面应用程序的开源框架,它结合了 Chromium 浏览器引擎和 Node.js,允许开发者使用 HTML、CSS 和 JavaScript 等 Web 技术来开发桌面应用。

首先,Electron 并非将 JavaScript 与原生代码对立,而是提供了一种将 Web 应用与原生代码(如 C++、Objective-C 或 Rust)相结合的能力。许多应用(如 1Password)通过在 Electron 中使用大量原生代码,实现了高性能和功能丰富的用户体验。Electron 的核心优势在于开发者可以根据需求灵活地选择 Web 技术与原生代码的结合方式。

其次,关于 Web 应用与原生应用的优劣之争,Felix 强调,Web 技术已经证明了其在构建用户界面方面的强大能力。许多成功的应用(如 NASA 的 Mission Control、Bloomberg Terminal、SpaceX 的 Dragon 2 空间舱等)都采用了 Web 技术。虽然原生应用在某些情况下具有优势,但 Web 应用的灵活性、跨平台能力和快速迭代能力使其在许多场景中更具竞争力。

第三,Electron 使用的 Chromium 渲染引擎并不逊色于操作系统内置的 WebView。尽管操作系统内置的 WebView 在某些情况下可能看起来更轻量级,但 Chromium 作为浏览器技术的前沿,提供了更强大的性能和功能支持。例如,Slack 最初使用 macOS 的内置 WebView,但最终转向 Electron,因为其性能和用户体验更好。

此外,Electron 的应用体积较大(通常在 100MB 到 300MB 之间)也常被提及。然而,Felix 指出,在现代网络环境下,用户对应用体积的关注度远低于其他因素,如功能和性能。例如,用户在观看 Netflix 或更新大型游戏时,对数据量的关注度远高于桌面应用的体积。

Felix 强调,Electron 的存在并非为了与其他框架竞争,而是为了填补一个空白——帮助开发者构建他们想要的桌面应用。如果有人能够提供一个更好的解决方案来满足这一需求,Electron 的维护者们会欢迎并感谢这样的努力。

#Electron #JavaScript

https://felixrieseberg.com/things-people-get-wrong-about-electron/


在选择 2025 年的富文本编辑器框架时,Liveblocks 提供了一份详细的对比分析,涵盖了 Tiptap、Lexical、BlockNote、Slate、ProseMirror、Quill、Plate、Remirror、Editor.js、CKEditor 和 TinyMCE 等主流编辑器框架。这些编辑器大致分为两类:核心型(需要开发者自行扩展功能)和功能完备型 (自带丰富功能)。选择哪种编辑器取决于项目需求,例如是否需要轻量级、高度可定制或开箱即用的解决方案。

Tiptap 是基于 ProseMirror 构建的编辑器,具有良好的开发体验和丰富的扩展功能。它支持多种框架,且通过模块化设计保持了较小的核心包体积。Tiptap 的优点包括优秀的文档支持、实时协作能力以及与 Liveblocks 和 Tiptap Cloud 的无缝集成。不过,Tiptap 的性能优化需要遵循一些最佳实践,且高级功能的开发可能需要深入了解 ProseMirror 的底层实现。

Lexical 是由 Facebook(Meta)支持的编辑器,虽然其社区活跃且功能强大,但目前尚未达到 1.0 版本,仍需进一步成熟。Lexical 的数据结构基于节点层次,支持自定义节点和后端无头模式编辑。然而,Lexical 在实时协作方面存在一些问题,例如不支持纯装饰功能,导致某些功能需要通过 DOM 操作实现。

BlockNote 是一个基于 Tiptap 和 ProseMirror 的块级编辑器,类似于 Notion。它提供了许多开箱即用的功能,如斜杠菜单和浮动工具栏。BlockNote 的缺点是其部分功能(如导出工具)需要订阅才能在闭源产品中使用。

Slate 是一个高度可定制的编辑器,被 Discord 和 Grafana 等知名应用采用。Slate 提供了对编辑体验的完全控制,支持自定义元素和事件。其缺点是包体积略大于 Tiptap,且生态系统中的插件数量较少。

Quill 是一个功能强大的编辑器,被 Slack 和 LinkedIn 等应用广泛使用。Quill 2 于 2024 年发布,重写了部分代码并引入了 TypeScript。Quill 的文档模型 Parchment 允许用户自定义内容属性,但其缺乏纯装饰功能,且实时协作支持依赖于第三方库。

ProseMirror 是 Tiptap、Remirror 和 BlockNote 等编辑器的基础框架,以其强大的文档模型和模块化设计著称。ProseMirror 的学习曲线较陡,但其文档和社区支持非常出色。

Plate 是基于 Slate 构建的编辑器,提供了丰富的插件和模板,适合需要快速启动的开发者。Plate 的缺点是其功能主要基于 React,且实时协作支持目前仅限于 Hocuspocus。

Remirror 是一个基于 ProseMirror 的编辑器,提供了超过 30 个插件和良好的文档支持。Remirror 的缺点是社区较小,更新频率较低,且包体积较大。

Editor.js 是一个块级编辑器,拥有大量插件和社区支持。然而,Editor.js 缺乏实时协作功能,且包体积较大。

CKEditorTinyMCE 是两个历史悠久的编辑器,功能丰富且支持多种框架。它们的缺点是部分功能需要付费,且实时协作依赖于各自的云服务。

Liveblocks 还提供了一个详细的对比表格,涵盖了各编辑器的框架支持、协作能力、评论和提及功能、服务器端编辑支持、许可证类型等关键信息。总体而言,**Tiptap** 被认为是最为均衡的选择,因为它在功能丰富性和开发灵活性之间取得了良好的平衡。

#富文本编辑器 #方案对比

https://liveblocks.io/blog/which-rich-text-editor-framework-should-you-choose-in-2025#comparison-table


Nx 是一个专为单体仓库(Monorepos)设计的构建系统,具备强大的持续集成(CI)能力,通过优化的缓存和分布式任务执行功能,显著提升开发效率。它基于 Rust 和 TypeScript 构建,兼具高性能和可扩展性。Nx 提供了丰富的插件支持,适配 React、Angular、Vue.js、Node.js 等主流开发框架和工具,能够无缝集成到现有开发流程中。

Nx 的核心优势在于其对单体仓库的深度优化。通过项目依赖关系图,Nx 能够清晰地展示各个模块之间的关联,从而实现对代码变更的即时影响分析,帮助开发者快速定位潜在问题。此外,Nx 支持智能任务分配和远程缓存功能,能够显著减少 CI 的运行时间和成本。据统计,使用 Nx Cloud 的企业可以将 CI 运行速度提升 30% 至 70%,并大幅降低计算成本。

在团队协作方面,Nx 通过定义明确的项目边界,确保代码的模块化和可维护性。其自动化更新机制和代码生成工具能够减少重复劳动,提升开发效率。此外,Nx 还提供了强大的 AI 支持,能够智能分析任务失败原因并提供解决方案,进一步优化开发体验。

Nx 的开发团队由多位前谷歌工程师组成,致力于通过开源社区的力量推动软件开发的变革。目前,Nx 已被全球超过 200 万开发者使用,50% 的财富 500 强公司也在借助 Nx 提升其产品的开发效率和质量。

Nx 提供了免费的入门教程和丰富的文档资源,开发者可以通过官网快速了解其核心功能并开始使用。对于需要更高级功能的企业,Nx 还提供了云服务和企业版解决方案,以满足不同规模团队的需求。

#Nx #Monorepos #解决方案

https://nx.dev/


在前端开发中,处理长时间运行的任务是一个常见的挑战。长时间占用主线程会导致用户体验下降,例如页面无法及时响应用户的点击操作或无法正常更新显示内容。为了解决这一问题,开发者可以将长时间任务拆分为多个小任务,并在事件循环的多个时间点上执行,从而让浏览器有机会处理其他重要任务,如用户输入和页面重绘。

#JavaScript #前端 #实践

https://levix.notion.site/There-are-a-lot-of-ways-to-break-up-long-tasks-in-JavaScript-19a383a71284800997f3df1d3bd0fc82?pvs=74


Andy 开篇引用了广告传奇人物比尔·伯恩巴克(Bill Bernbach)的名言:“广告中最具力量的元素是真相。”Andy 借此引出一个现实问题:尽管创作者用心撰写博客,但往往无人问津,既无点赞也无分享。然而,尽管如此,博客写作依然有其独特价值。

人们常有两个错误认知:一是“我写了,他们就会来”,但实际上互联网上有海量博客,单凭写作难以吸引读者;二是“无人阅读就是浪费时间”,但 Andy 认为并非如此。博客写作本身具有隐藏价值,它能迫使创作者清晰地组织思路、磨砺观点。因为本质上是在为自己写作,所以必须保持内容的吸引力。

博客的真正受众并非只有当下的“隐形读者”,还包括以下几类:一是“未来的自己”,博客成为思想演变的时间胶囊;二是“那个对的人”,或许某一天,有人在恰当时刻读到这些文字,从而引发改变;三是“作品本身”,持续创作深度内容比追求一次性的爆款更具价值。

Andy 提到他的另一爱好是街头摄影,这与博客写作类似。街头摄影师捕捉瞬间,即使无人关注,但拍摄本身的意义在于记录所见。同样,博客写作是因为创作者需要思考、观察并记录,若有人阅读则是额外收获,即使无人阅读,创作本身也已完成,这是其真正意义所在。

#思考 #写作

https://andysblog.uk/why-blog-if-nobody-reads-it/


在预算范围内构建一台个人、私有的 AI 计算机的可行性和方法。随着 AI 工具的快速发展,大型科技公司投入了大量资金用于开发和推广,但这些服务往往存在商业化的潜在风险。例如,某些 AI 服务可能会因商业利益而调整输出内容,甚至在涉及敏感话题时表现出明显的倾向性。此外,一些免费的 AI 服务在功能上也存在不足,如代码补全工具无法准确处理常见词汇。

然而,一些新兴的 AI 模型以开源和免费的方式发布,如 DeepSeek 的 DeepSeek-R1、Google 的 Gemma 模型以及 Meta 的 Llama 模型。这些模型可以在本地硬件上运行,用户可以自行下载并使用,甚至可以对模型进行优化以去除偏差,从而获得更可靠的 AI 服务。

尽管如此,运行这些 AI 模型需要强大的硬件支持,尤其是足够的内存。对于 GPU 来说是 VRAM,对于苹果设备则是普通 RAM。一般来说,至少需要 24GB 的内存才能运行具有 320 亿参数 的模型。但购买高性能的 GPU 或苹果设备通常价格昂贵,对于预算有限的用户来说,二手设备是一个可行的选择。虽然二手设备在内存带宽等性能方面可能稍逊一筹,但只要能够满足基本的运行需求即可。

Erik 尝试以较低的成本构建了一台能够运行 AI 模型的工作站,最终花费了约 1700 欧元,配置了 48GB 的 VRAM。

Erik 选择的 HP Z440 工作站配备了 12 核的 Xeon 处理器 和 128GB 的 RAM,原本用于运行虚拟机。该工作站的内存和多线程能力使其能够满足运行 AI 模型的需求。Erik 还对硬盘进行了升级,将 512GB 的硬盘更换为 6TB 的硬盘以存储虚拟机,但运行 AI 模型时 512GB 的硬盘已足够。

Nvidia Tesla P40 是该工作站的核心组件,每块 GPU 配备 24GB 的 VRAM,两块 GPU 总计 48GB。这些 GPU 专为服务器设计,没有自带风扇,因此需要额外的冷却解决方案。Erik 购买了专门的冷却风扇套件,并通过调整 BIOS 设置和风扇速度,最终实现了良好的散热效果。

为了满足工作站的电源需求,Erik 选择了 NZXT C850 Gold 850W 电源。但由于 HP Z440 的电源接口设计特殊,Erik 不得不购买额外的适配器电缆。此外,由于 Tesla GPU 没有视频输出端口,Erik 还购买了一块 Gainward GT 1030 作为虚拟 GPU,以满足 BIOS 的视频输出要求。

在性能测试方面,Erik 使用了不同的 AI 模型进行推理速度测试,结果显示在不同的功耗设置下,模型的性能略有差异。例如,mistral-small:24b 模型在 250W 功耗下每秒可处理 15.23 个 token,而在 140W 功耗下每秒可处理 13.95 个 token。此外,Erik 还记录了工作站的功耗情况,发现加载 32 亿参数模型时功耗为 123W,运行时功耗为 241W;加载 70 亿参数模型时功耗为 166W,运行时功耗为 293W。

Erik 对此次项目感到满意,虽然花费略超预算,但成功构建了一台能够本地运行中等规模 AI 模型的计算机,并且完全受自己控制。Erik 认为,从已有的设备出发进行升级是一种经济且高效的选择,避免了盲目追求最新硬件的高成本。

#AI #组机

https://ewintr.nl/posts/2025/building-a-personal-private-ai-computer-on-a-budget/


Karina Nguyen 是 OpenAI 的研究经理兼 Post-training lead,主要负责开发新的交互范式和推理界面能力,如 ChatGPT Canvas、Tasks 和 o1/o3 模型的流式思维链功能等。她曾在 Anthropic 工作,参与了 Claude 1、2 和 3 的研究和产品工作。

访谈中,Karina 分享了她在 Anthropic 和 OpenAI 的工作经历,包括早期的项目原型、加入 Anthropic 的过程、开发 Claude 3 的故事以及在 OpenAI 的工作。她详细介绍了 Canvas 的开发过程,包括如何通过合成数据训练模型以改进写作和编码能力,以及如何通过行为设计塑造模型的协作能力。此外,她还讨论了 Tasks 的开发,以及对 AI Agents 和 Operator 的看法。

Karina 强调了在开发过程中,从产品原型到模型训练再到部署的全栈工作流程的重要性。她提到,团队需要从定义需求(PRD)、获取资源(Funding)、建立基线原型(Prompted Baseline)、编写和运行评估(Evals)、模型训练、调试(Bugbash)到最终发布(Ship)的完整流程,以确保产品和模型的质量。

在 Canvas 的开发中,Karina 和团队通过合成数据训练 GPT-4o 模型,使其能够作为创意伙伴进行协作。他们开发了多种核心行为,如触发 Canvas、生成多样化内容、进行针对性编辑、重写文档和提供内联批评。通过内部评估和合成数据生成技术,团队能够快速改进模型的写作质量和用户体验。

Karina 还分享了她在 Anthropic 的经历,包括开发早期的 Cloud 项目和参与 Claude 3 的后训练微调工作。她提到,尽管 Claude 3 在某些方面表现出色,但在发布前仍需解决模型的“脑损伤”问题,即模型在不同数据集上可能出现的意外行为。

此外,Karina 讨论了 AI Agents 的未来,将其视为任务的逐步发展,从一次性动作到协作,最终实现完全可信的长期委托。她认为,Canvas 和 Tasks 是这一过程的早期阶段,而完全实现这种复杂环境中的代理功能还需要时间。

访谈最后,Karina 提到了她在 OpenAI 的工作,包括与 Andrew Yang 的课程合作,以及她对 AI 未来发展的看法。她认为,随着 AI 技术的进步,未来的 ChatGPT 将不仅仅是一个文本生成工具,而是一个能够根据用户需求生成动态用户界面的生成式操作系统。

#AI #访谈

https://www.latent.space/p/karina


20 世纪 90 年代个人电脑普及,但其运行的软件大多为通用型,缺乏个性化。普通用户难以根据自身需求定制软件,而开发者则需要掌握复杂的编程语言和工具。然而,AI 的出现改变了这一局面,使得软件能够适应用户需求,而非让用户适应软件。

Lee Robinson 强调,AI 技术的发展让非开发者也能轻松创建单用途或定制化应用程序。例如,他作为新手父亲,为记录婴儿的睡眠和饮食情况,自行开发了一款简单的个人软件,而无需使用功能冗余的商业应用。这种“家庭烹饪式”的软件开发模式,类似于人们根据自己的口味制作食物,虽然可能不如专业餐厅,但完全满足个人需求且无需额外成本。同时,这种模式不会取代专业的前端开发和设计,反而会让更多人理解并欣赏优秀软件的价值。

随着工具的不断改进和普及,未来创建单用途应用程序的难度将大大降低。用户将不再依赖通用的软件或插件,而是通过 AI 快速构建符合自身需求的解决方案。这将推动更多人成为软件开发者,提升软件的整体质量,并激发更多创新和个性化解决方案的出现。Lee Robinson 认为,即使个人开发的软件并不完美,这也是探索和创新的一部分,因为其本质是个性化的。

#AI #思考

https://leerob.com/n/personal-software


在人工智能 (AI) 领域,一个名为 Deepseek 的中国公司最近掀起了一阵波澜,其发布的新模型在性能和成本效益上都令人瞩目,引发了业内外的广泛关注。为了深入了解 Deepseek 的技术突破及其更广泛的影响,知名播客主持人 Lex Fridman 采访了两位 AI 领域的专家:AI2 的模型训练专家 Nathan Lambert 和 Semianalysis 的硬件专家 Dylan Patel。这篇访谈深入探讨了 Deepseek 的模型、开放权重、训练技术、硬件基础设施、地缘政治影响以及 AI 技术的未来走向,旨在为读者揭开 “Deepseek 时刻” 的面纱,并剖析其对全球 AI 格局的深远意义。

#AI #DeepSeek #访谈

https://x.com/op7418/status/1886615372859867163


Mistral AI 推出了全新的 AI 助手产品 le Chat,为用户提供生活和工作中的全方位智能辅助。le Chat 具备多项创新功能,包括 iOS 和 Android 应用程序,并提供 Pro、Team 和 Enterprise 不同层级的服务。

#AI #AI应用

https://levix.notion.site/le-Chat-AI-The-all-new-le-Chat-Your-AI-assistant-for-life-and-work-197383a71284801087a9e0e79e879018?pvs=74


Mathesar 是一个开源的 Web 应用程序,旨在可视化对 PostgreSQL 数据库的操作,允许用户无需编写代码即可查看、编辑、查询和协作处理数据。

#PostgreSQL #Tools

https://github.com/mathesar-foundation/mathesar


马斯克正在逐步掌控联邦政府的基础设施,而这一过程的核心是一群年龄在 19 至 24 岁的工程师,其中大多数人与马斯克的公司有联系,至少有两人与马斯克的长期合作伙伴彼得·蒂尔(Peter Thiel)有关联。彼得·蒂尔是数据分析公司 Palantir 的联合创始人和董事长,他长期以来对民主制度持反对态度。这些年轻工程师在马斯克的联邦基础设施项目中扮演着关键角色,他们中的一些人甚至仍在大学就读。

报道还提到,马斯克的影响力已经渗透到多个政府机构,例如美国财政部下属的财政服务局(Bureau of the Fiscal Service),该机构负责处理社会保障支付和退税等重要事务。据消息人士透露,一位 25 岁与马斯克有联系的工程师拥有直接访问和修改该系统代码的权限。此外,美国人事管理办公室(Office of Personnel Management)的管理层中也出现了与马斯克有关联的人员,包括与 xAI、Neuralink、Boring Company 和 Palantir 等公司有关的个体。这种现象引发了外界对政府机构运作独立性的担忧。

马斯克的团队在政府技术项目中扮演的角色引发了混乱。例如,一位最近高中毕业且曾在 Neuralink 实习的年轻人参与了对政府代码和其他工作历史的审查会议,引发了职业公务员的不满。此外,美国财政部曾声称 DOGE(马斯克关联的科技组织)的技术人员没有修改联邦支出代码的权限,但几天后这一说法被推翻,证实该人员确实拥有“写入权限”。这些事件表明,马斯克的影响力正在逐步渗透到美国政府的核心部门,引发了关于政府决策透明度和独立性的广泛讨论。

报道最后提到,马斯克的行动引发了特朗普阵营内部的分歧,一些人认为马斯克的影响力正在变得过于强大。同时,马斯克的团队还试图将 AI 技术引入政府机构,推动其运作方式向“初创软件公司”转变,这一举措可能会对传统政府机构的运作模式带来深远影响。

#DOGE

https://www.wired.com/story/elon-musk-government-young-engineers/


OpenAI 推出了全新的 Deep Research 功能,这是一项基于推理的智能代理能力,能够在互联网上进行多步骤研究,为用户提供复杂任务的解决方案。Deep Research 旨在帮助用户高效完成研究任务,节省大量时间,尤其适合金融、科学、政策、工程等领域的专业人士,以及需要进行深入研究的消费者。

Deep Research 的核心优势在于其强大的推理和信息整合能力。它通过优化后的 OpenAI o3 模型,结合网络浏览和数据分析功能,能够快速搜索、解读和分析海量文本、图像和 PDF 文件。该功能不仅能够提供详尽的研究报告,还能生成清晰的引用和文档,方便用户参考和验证信息。此外,Deep Research 在处理复杂任务时表现出色,例如在 Humanity’s Last Exam 测试中,其准确率达到了 26.6%,远高于其他模型,如 GPT-4o 的 3.3% 和 Gemini Thinking 的 6.2%。

在实际应用中,Deep Research 能够根据用户需求提供个性化的解决方案。例如,在分析全球智能手机操作系统市场份额时,它能够结合最新的统计数据和市场趋势,为用户提供详细的报告,包括不同国家和地区的市场分析、用户偏好以及未来预测。此外,Deep Research 还能够处理复杂的科学问题,如在细胞重编程领域,它能够详细总结相关研究进展,包括不同研究团队的成果、实验方法和关键发现。

Deep Research 的推出标志着 OpenAI 在人工智能领域的又一重大突破。它不仅提升了 AI 的推理和研究能力,还为用户提供了更加高效、准确和全面的信息获取方式。未来,随着技术的不断进步和应用场景的拓展,Deep Research 将在更多领域发挥重要作用,助力用户解决更复杂的任务。

#OpenAI #AI

https://openai.com/index/introducing-deep-research/


Hacker News 上的一个讨论,传统技术面试方法到现代 AI 辅助面试。现在每个人都在使用 AI,技术面试将会有什么变化?

传统技术面试方法的局限性

传统技术面试方法,如白板编程、算法题解答等,一直存在争议。许多面试官和候选人认为,这些方法并不能很好地反映候选人实际工作中的能力。例如,一些候选人可能在白板编程时表现出色,但在实际工作中却难以适应团队合作或解决复杂问题;而另一些候选人可能在面试中表现不佳,却能在实际工作中展现出色的技能。此外,传统的技术面试往往对候选人造成较大压力,导致他们无法发挥出最佳水平。

AI 辅助面试的兴起与挑战

随着 AI 技术的发展,AI 辅助面试逐渐成为一种新的尝试。一些公司允许候选人使用 AI 工具(如 ChatGPT)来辅助解决问题,但这种做法也引发了诸多讨论。一方面,AI 的使用可以减轻候选人的压力,让他们更专注于问题的解决思路而非具体的代码实现;另一方面,过度依赖 AI 可能导致候选人无法展示出自己的真实能力。此外,AI 生成的代码可能存在错误或不符合实际需求,需要候选人具备足够的能力进行识别和修正。

现代面试方法的探索与实践

为了更好地评估候选人的综合能力,一些公司开始探索新的面试方法。例如,通过让候选人完成实际的项目任务、讨论过去的项目经验或解决实际业务问题,来评估他们的技术能力、团队合作能力和问题解决能力。这种方法更注重候选人的实际工作经验和能力,而非单纯的算法题解答能力。此外,一些公司还尝试通过“教我点什么”的环节,让候选人展示自己的专业知识和表达能力,从而更好地了解他们的个性和兴趣。

面试中的 AI 检测与应对策略

随着 AI 在面试中的使用越来越普遍,如何检测和应对 AI 辅助作弊成为了一个重要问题。一些公司通过设计特定的面试问题或设置严格的面试规则来防止候选人使用 AI。例如,要求候选人现场编写代码、限制使用外部工具或通过视频面试等方式来确保候选人的独立性。此外,一些公司还会在面试中加入对 AI 输出的验证环节,要求候选人对 AI 生成的代码进行解释和修改,以评估他们对代码的理解和掌握程度。

面试的未来趋势

从讨论中可以看出,面试方法正在逐渐从传统的技术题解答向更全面的能力评估转变。未来,面试可能会更加注重候选人的实际工作经验、团队合作能力、问题解决能力和学习能力。同时,AI 技术可能会在面试中发挥更重要的作用,但其使用方式和范围需要更加谨慎地设计和规范。面试官需要不断提升自己的面试技巧,以更好地评估候选人的综合能力,而候选人也需要适应新的面试方法,展示出自己的真实水平。

#AI #讨论

https://news.ycombinator.com/item?id=42909166


Vite 6 发布,带来了多项重要的新特性和改进,以下是其主要更新内容:

1. 环境 API 的全面升级

Vite 6 引入了全新的环境 API,极大地增强了配置的灵活性和定制化能力。通过环境 API,开发者可以更方便地定义和管理不同的环境变量,支持复杂的项目需求,例如为开发、测试和生产环境设置不同的配置。此外,环境 API 还支持多环境配置,允许创建多个环境以更好地映射现代应用可能涉及的多个运行环境,如浏览器、Node 服务器和边缘服务器。

2. 对框架和工具的支持增强

Vite 6 拓展了对多个前端框架和构建工具的支持,包括对 React 18 的优化支持、更新的 Vue 3 支持,以及对 Svelte 和 Preact 的改进支持。此外,Vite 6 还引入了改进的插件系统,允许开发者更加灵活地自定义构建流程。

3. 构建性能优化

Vite 6 在构建性能方面进行了显著优化,特别是在大型项目的构建速度上,提供了更快的响应时间和更高的构建效率。此外,Vite 6 在开发服务器的性能上也做出了优化,通过简化解析逻辑、改进热点路径和实现更智能的缓存策略,显著提高了开发效率。

4. 静态资源处理的增强

Vite 6 在处理静态资源(如图片、字体等)方面更加智能,提供了更好的优化方案,特别是在动态导入和懒加载时。此外,Vite 6 还扩展了对 HTML 元素中资源引用的支持。

5. TypeScript 支持的改进

Vite 6 提供了更好的 TypeScript 类型检查和自动补全功能,开发者可以更方便地在开发过程中发现潜在的类型问题。

6. 其他重要更新

• Node.js 支持
:Vite 6 支持 Node.js 18、20 和 22+ 版本,移除了对 Node.js 21 的支持。

• CSS 输出文件名自定义:在“库”模式下,开发者可以自定义 CSS 输出文件名。

• Sass 现代 API 默认启用:Vite 6 默认使用 Sass 的现代 API。

• JSON 序列化增强:Vite 6 对 JSON 的序列化功能进行了增强。

#Vite

https://vite.dev/blog/announcing-vite6


OpenHealth 帮助您掌控健康数据。通过利用 AI 和您的个人健康信息, OpenHealth 提供私密且本地运行的助手,帮助您更好地理解和管理健康。

#AI #Tools #健康

https://github.com/OpenHealthForAll/open-health


Sergey Filimonov 深入探讨了 Gemini Flash 2.0 在处理大规模 PDF 文档时的性能和成本优势,以及其在文档解析领域的潜在影响。

Sergey 指出,将 PDF 文档转换为机器可读的文本块(即“切块”)是检索增强型生成(RAG)系统的一大难题。目前,无论是开源解决方案还是专有技术,都未能在准确性、可扩展性和成本效益之间达到理想的平衡。例如,NVIDIA 的 nv-ingest 需要配置复杂的 Kubernetes 集群和高性能 GPU,但性能仍不尽如人意。而许多专有解决方案虽然价格高昂,但在处理复杂布局时仍存在准确性问题,对于需要解析数亿页文档的场景来说,成本难以承受。

在这样的背景下,Gemini Flash 2.0 显得尤为突出。尽管其开发者体验仍不如 OpenAI,但其成本效益极为显著。Sergey 的内部测试显示,Gemini Flash 2.0 能够实现近乎完美的光学字符识别(OCR)准确性,同时成本极低。Sergey 还提供了一个详细的表格,对比了不同供应商和模型在 PDF 转 Markdown 的“每美元处理页数”方面的表现。其中,Gemini 2.0 Flash 的表现最为出色,每美元可处理约 6,000 页,远超其他竞争对手,如 OpenAI 的 4o 模型(每美元约 200 页)和 AWS Textract(每美元约 1,000 页)。

在文档解析的准确性方面,尤其是表格识别和提取这一最具挑战性的环节,Gemini Flash 2.0 同样表现出色。Sergey 通过使用 Reducto 的 rd-tablebench 测试集,评估了各模型在面对真实世界的复杂表格结构、多语言和低质量扫描时的表现。结果显示,Gemini Flash 2.0 的准确率为 0.84 ± 0.16,虽然略低于 Reducto 自家模型的 0.90,但差距主要在于一些不影响语义理解的格式差异。Gemini Flash 2.0 在其他 PDF 转 Markdown 的方面也表现出近乎完美的准确性。

Sergey 进一步探讨了 Gemini Flash 2.0 在文档切块方面的潜力。文档切块是将文档分割成具有语义意义的小块,这对于 RAG 管道中的有效检索至关重要。以往,使用大型语言模型(LLM)进行切块成本过高,但 Gemini Flash 2.0 的定价使其成为大规模文档切块的可行选择。Sergey 估计,使用 Gemini Flash 2.0 解析 1 亿多页的语料库仅需 5,000 美元,这甚至低于一些向量数据库托管服务的月费用。

然而,Sergey 也指出了 Gemini Flash 2.0 的一个关键局限性:丢失了边界框信息。边界框信息对于将提取的信息精确地链接回原始文档中的位置至关重要,它能够增强用户对数据真实性的信任。尽管 Gemini Flash 2.0 在理解文档布局方面表现出色,但在生成边界框方面却表现不佳,这可能是因为其训练数据中缺乏足够的文档布局信息。Sergey 认为,如果 Google 在训练或微调过程中增加更多文档特定数据,这一问题有望得到解决。

Sergey 总结了 Gemini Flash 2.0 的重要性:它将文档解析、切块和边界框检测等挑战性任务整合到一个既优雅又经济高效的索引管道中。Sergey 表示,他们将开源相关工作,并强调一旦解决了这些挑战,文档摄入到 LLM 的问题将基本得到解决,这将使文档解析变得更加高效且易于实现。

#AI #Gemini #PDF

https://www.sergey.fyi/articles/gemini-flash-2

Показано 20 последних публикаций.