Levix 空间站


Гео и язык канала: Китай, Китайский
Категория: Технологии


主要分享前端、AI 以及前沿科技资讯。
🚫 禁止人身攻击:请在评论区保持尊重和友好,避免不当言论和负面互动。
🚫 禁止违规内容:请勿发布任何黄赌毒、宗教极端、政治敏感或其他违反社区规定的内容。
主要分享前端以及业界科技资讯。
🚫 禁止广告与刷屏:为了维护良好的交流环境,请不要进行任何形式的广告推广、黑产活动、刷屏行为及发布不适内容。
🔒 保护个人信息:请注意个人隐私和网络安全,不要在评论区泄露个人信息或点击不明链接。

Связанные каналы

Гео и язык канала
Китай, Китайский
Категория
Технологии
Статистика
Фильтр публикаций


Google Research 在 2024 年取得了显著的突破,这些成果在计算、人类、社会和全球等多个层面产生了深远影响,旨在应对当今时代最重大的挑战和科学问题。

在量子计算领域,Google Research 取得了巨大进展,推出了新的量子芯片 Willow,其性能达到了行业领先水平,能够在不到五分钟的时间内完成一项基准计算,而当今最快的超级计算机则需要 10 的 25 次方年才能完成。Willow 还能够随着量子比特数量的增加而指数级地减少错误,这一成果解决了量子计算中最大的工程挑战之一。此外,Google Research 还引入了基于神经网络的解码器 AlphaQubit,能够以行业领先的准确性识别错误。

在机器学习基础方面,Google Research 通过创新技术提高了大型语言模型(LLM)的效率,这些技术已广泛应用于 Google 产品并被整个行业采用。例如,通过级联方法利用小型模型进行“简单”输出,以及新颖的并行解码算法,可将输出生成速度提高约 2 至 3 倍,同时不影响质量。此外,Google Research 还设计了三种新的注意力机制,以解决语言模型部署中的计算挑战和瓶颈,提高模型质量。

在数据和隐私研究方面,Google Research 发布了多种数据集,如 Croissant,这是一种专为机器学习数据需求设计的元数据格式。同时,Google Research 在差分隐私模型训练方面做出了重要贡献,提出了更高效的训练算法和新的审计方法,并开源了这些方法供社区使用。

在优化领域,Google Research 引入了 PDLP,这是一种线性规划(LP)求解器,它需要的内存更少,与现代计算技术更兼容,并显著提升了 LP 求解能力。PDLP 获得了著名的 Beale — Orchard-Hays 奖,并作为 Google 开源的 OR-Tools 的一部分提供。

在游戏领域,Google Research 的 GameNGen 模型 展示了如何使用神经模型实时、高质量地模拟复杂视频游戏。在广告领域,Google Research 与广告团队合作推出了搜索中的 AI 概览广告,以在 Google 的生成式 AI 体验中展示更相关的企业、产品和服务。

在语言模型的可信度方面,Google Research 通过训练模型依赖源文档进行总结,以及将结构化数据与 LLM 结合来提高检索增强生成质量,从而提高了 AI 生成内容的质量。此外,Google Research 还与 Google DeepMind 和 Kaggle 合作推出了 FACTS Grounding Leaderboard,为更全面的基准测试提供了一个平台。

在多模态生成 AI 方面,Google Research 引入了 Time-Aligned Captions 框架,可以使用文本描述生成视觉上一致的多场景视频。此外,Google Research 还训练了一个统一模型,通过注意力热图预测人类对多样化视觉内容的丰富反馈,以改进图像生成。

在个性化医疗和教育方面,Google Research 推出了 LearnLM,这是一系列针对学习进行微调的模型,能够根据学习者的需求和目标动态调整,使学习更加吸引人和个性化。在医疗领域,Google Research 的 MedLM 和 Google Cloud Platform 上的 Search for Healthcare 通过结合 Gemini 的多模态和推理能力以及对去标识化医疗数据的训练,帮助实现高质量、个性化护理的普及。

在科学和全球挑战的规模化解决方案方面,Google Research 利用从数百万部 Android 手机收集的聚合传感器测量数据绘制了电离层地图,这一成果发表在《自然》杂志上,能够将 GPS 定位精度提高数米,并为科学家提供了在监测站较少的地区对电离层的前所未有的详细信息。此外,Google Research 还推出了 NeuralGCM,这是一个能够比现有物理模型更快、更准确地模拟地球大气的模型。

在应对自然灾害方面,Google Research 开发了 AI 基础的水文模型,能够在数据稀缺的地区(如非洲)预测河流洪水,为生活在 100 个国家的 7 亿多人提供服务,提前 7 天预警洪水。此外,Google Research 还扩大了其野火边界追踪器的覆盖范围,涵盖 22 个国家,并发布了 Firebench 数据集,以促进该领域的研究。

Google Research 的工作不仅在技术上取得了突破,还通过与全球的研究生态系统合作,包括发布数据集、开源模型、与大学和组织合作以及参与研究会议等方式,共同推动了科学的进步。通过这些合作,Google Research 能够将前沿研究与现实世界的应用相结合,确保其研究符合最高的科学标准,并对社会产生积极影响。

#Google #研究

https://research.google/blog/google-research-2024-breakthroughs-for-impact-at-every-scale/


Jina AI 推出了 ReaderLM v2,这是一个参数量为 1.5B 的小型语言模型,专门用于将 HTML 转换为 Markdown 和 JSON,具有卓越的准确性。ReaderLM v2 能够处理高达 512K 个 token 的输入和输出组合长度,支持 29 种语言,包括英语、中文、日语、韩语等。得益于新的训练范式和更高质量的训练数据,ReaderLM v2 在处理长文本内容和生成 Markdown 语法方面有了重大进步,能够熟练运用 Markdown 语法,擅长生成代码框、嵌套列表、表格和 LaTex 方程式等复杂元素。

ReaderLM v2 通过在训练过程中添加对比损失,极大地缓解了生成长序列后的退化问题,无论上下文长度或已生成的 token 数量如何,其性能都保持一致。此外,ReaderLM v2 还引入了直接 HTML 转 JSON 生成功能,允许用户根据给定的 JSON 架构从原始 HTML 中提取特定信息,消除了许多 LLM 驱动的数据清理和提取管道中常见的中间 Markdown 转换需求。

在定量和定性基准测试中,ReaderLM v2 在 HTML 转 Markdown 任务上的表现优于 Qwen2.5-32B-Instruct、Gemini2-flash-expr 和 GPT-4o-2024-08-06 等更大的模型,同时在 HTML 转 JSON 提取任务上展现出相当的性能,而且使用的参数量明显更少。ReaderLM v2 现已集成到 Jina AI 的 Reader API 中,用户可以通过指定请求头中的 x-engine: readerlm-v2 并启用响应流式传输来使用它。此外,ReaderLM v2 也在 AWS SageMaker、Azure 和 GCP marketplace 上可用。

ReaderLM v2 的训练基于 Qwen2.5-1.5B-Instruction 构建,这是一个以指令遵循和长上下文任务效率著称的紧凑型基础模型。训练过程包含多个阶段,专门针对处理长上下文文档的挑战,包括长上下文预训练、有监督微调(SFT)、直接偏好优化(DPO)和自我对弈强化调优。通过这些训练方法,ReaderLM v2 在内容保留和结构准确性方面都有全面的改进,证明了通过精心训练和校准,小型语言模型可以达到超越大型模型的最先进性能。

#AI #LLM

https://jina.ai/news/readerlm-v2-frontier-small-language-model-for-html-to-markdown-and-json/


如何将 Gemini 引入 Chrome DevTools。文章首先回顾了去年在 Google I/O 2024 上推出的 console insights,这是 Chrome DevTools 中的首个 AI 功能,它通过向 Gemini 发送网络数据、源代码和堆栈跟踪来帮助开发者理解控制台中的错误和警告信息。然而,这种单次交互的流程对于更复杂的调试场景并不适用,例如调试样式问题。一个网页可能包含数千个元素和 CSS 规则,而其中只有少数与特定的调试场景相关。为了解决这个问题,开发团队在 Google 的 AI 黑客马拉松期间构建了一个原型,发现大型语言模型(LLM)在识别相关代码方面表现不错,于是决定将这种能力带给 DevTools 用户,创建了一个能够通过交互式查询页面以获取额外上下文数据来调查样式问题的工具,即 AI assistance for styling。

文章接着讨论了在引入 AI 时面临的挑战,包括如何收集正确的数据、在用户空间运行 AI 生成的代码、跟踪代理所做的更改、使代理操作对用户可见、评估驱动开发、提示注入问题以及构建在坚实基础之上的 AI 功能。特别地,在处理网络请求时,AI assistance for network 允许用户与 Gemini 讨论特定的网络请求,使用请求数据作为对话的上下文。为了保护敏感信息,如 API 密钥、会话令牌或密码,不会将所有请求头传输给 Gemini,而是维护一个允许的头列表,未在允许列表中的头的值将被替换为 。

文章还提到了如何适应各种数据格式,例如对于源文件,会将文件名、文件内容以及是否进行了源映射等信息发送给 Gemini。对于大型文本文件或二进制文件,会采取特殊处理,如仅发送文件开头的一部分内容或在提示中指示内容为二进制而不发送实际内容。对于性能分析,创建了一个专门的序列化器 AiCallTree 来格式化任务的调用树,以便 LLM 能够处理。

#AI #Chrome

https://developer.chrome.com/blog/how-we-introduced-gemini-to-devtools#security_implications_when_working_with_network_requests


Репост из: 关于AI的一切
《AI 编程蓝皮书》正式发布!

我的好朋友AI产品黄叔最近两个月都在沉迷 AI 编程,每天沉浸式学习和开发3小时以上。
这周他终于把所有的学习和开发心得,用飞书文档总结了出来。
于是就有了这本 《AI 编程蓝皮书》,今天,我们一起把它送给每一位想入门 AI 编程的同学。

- 整本蓝皮书有5万字,真正从0基础开始,一步一步手地教。
- 它完全免费,所以它不需要夸张的表述让你激情下单。
- 如果你没兴趣,它也不想引发你的焦虑。

我非常支持黄叔,有幸和黄叔、归藏老师一起发布它。
AI 编程是我们共同看到的一个崭新的机会,希望把这个机会传播给有准备的人。
这是一本朴素的书,我们朴素地希望这本书能帮到你。
如果你觉得有帮助,也希望你转发给有需要的朋友。

飞书文档直达
https://superhuang.feishu.cn/wiki/CBBPwvgEuicVhFkx0s7cPmhpn4e


深入研究对比 Cursor、Windsurf 和 GitHub Copilot 工具

最终 Cursor 获得冠军,尽管 Windsurf 的竞争非常激烈。Cursor 在可靠性、强大功能(如自动生成提交信息和高级 bug 查找能力)以及成熟度方面略胜一筹。Windsurf 与 Cursor 的差距正在迅速缩小,其快速发展和精致的体验使其成为有吸引力的替代品,稍作改进就可能领先。如果想探索 AI 在编码方面的能力极限,Cursor 是目前的最佳选择。不过,最适合的工具还是取决于个人需求,建议有机会的话都尝试一下。

#AI #Tools

https://levix.notion.site/Cursor-vs-Windsurf-vs-GitHub-Copilot-17d383a7128480c99a63e1be80ebf807?pvs=74


Snyk 的安全研究人员部署了针对 Cursor.com 的恶意 NPM 包。这些包由名为 sn4k-s3c 的 NPM 用户发布,包含“cursor-retreival”“cursor-always-local”和“cursor-shadow-workspace”等名称,安装后会收集系统数据并发送到攻击者控制的网络服务。文章推测这些包可能是为了对 Cursor.com 进行依赖混淆攻击,诱使 Cursor 员工误装,从而泄露敏感信息。

OpenSSF 包分析扫描器识别出这些恶意包,OSV 生成了 MAL-2025-27、MAL-2025-28 和 MAL-2025-29 三个恶意软件通告。发布者使用的 Snyk.io 邮箱地址及作者字段提及的 Snyk 员工信息表明,这些包很可能确实来自 Snyk。尽管已通知 NPM,但这些包当时尚未被标记为恶意,因此安全工具无法提供保护。一般而言,不要盲目安装 NPM 包,可通过检查包文件等方法辨别其合法性。

1 月 15 日更新显示,Snyk 研究员在文章公开次日将相关包下线。1 月 14 日,The Register 发布了相关文章,同日 Snyk 在其博客上回应,声称自身并无不当行为。

#安全

https://sourcecodered.com/snyk-malicious-npm-package/


Cosmos Keyboard 是一个高度定制化的键盘设计平台,旨在让用户能够根据自己的手部特征和偏好,设计出独一无二的键盘。

#Tools

https://ryanis.cool/cosmos/


一篇体系化介绍 Agents 的文章,写的很不错,推荐看看,时间有限的话可以直接看总结。

#AI #Agents

https://levix.notion.site/Agents-Agents-17c383a7128480cd9bc0c6cceb7fe124?pvs=74




HardBreak 是一个关于硬件破解的免费开源维基网站,旨在将硬件破解和物联网破解的知识集中在一个地方。

#硬件

https://www.hardbreak.wiki/


Quickwit 宣布加入 Datadog,这一消息于 2025 年 1 月 9 日由 François Massot 发布在 Quickwit 的博客上。Quickwit 是一个开源的搜索引擎项目,旨在创建一个至少比 Elasticsearch 成本效率高 10 倍、能够扩展到多 PB 级别且易于管理的搜索引擎。该项目由三位工程师 Paul、Adrien 和 François 于 2020 年启动,他们利用 Rust 语言开发,并在 2021 年 7 月 13 日发布了第一个版本。通过与 Mezmo 和 Binance 等公司的合作,Quickwit 在多 PB 级别的搜索领域取得了显著成就,例如 Binance 利用 Quickwit 构建了 100PB 的日志服务,每天索引量达 1.6PB。

#资讯

https://quickwit.io/blog/quickwit-joins-datadog


Cursor Prompt 提示词合集,还针对编程语言和技技术栈进行了分类。

#Cursor #Prompt #Tools

https://cursor.directory/


Stagehand 是一个 AI 接口,用于简化浏览器自动化任务。它与 Playwright 完全兼容,并且能够无缝集成 Browserbase。Stagehand 提供三个简单的 AI API( act 、extract  和 observe ),这些 API 基于 Playwright 的 Page  类,通过自然语言为 Web 自动化提供了构建块。Stagehand 的 AI,特别是与 Browserbase 的隐身模式结合使用时,可以轻松编写持久的代码,并绕过机器人检测和验证码。

Stagehand 的目标是提供一个轻量级的模型无关框架,避免过于复杂的抽象。它不会自动为你订购披萨,但可以帮助你执行诸如“点击订购按钮”之类的步骤。每个 Stagehand 函数接收一个原子指令,例如 act("点击登录按钮") 或 extract("查找泰式炒河粉的价格") ,生成相应的 Playwright 代码以完成该指令,并执行它。

Stagehand 不是一个 Web Agent,而是一套工具,用于启用和增强构建网络代理的开发者。 Web Agent 是一个旨在像人类一样浏览网页的 AI Agent,它们可以导航、与网页交互并执行任务。例如,你可以告诉一个机器人“这是我的信用卡,帮我订购泰式炒河粉”,然后让它完全自主地完成任务。

使用 Stagehand 的一些最佳实践包括:将指令保持原子化以提高可靠性,并由更高级别的 Agent 处理步骤规划。可以使用 `observe()` 获取当前页面上可以采取的建议动作列表,然后使用这些列表来确定步骤规划提示。

#AI #自动化 #AI应用

https://docs.stagehand.dev/get_started/introduction


我如何使用 LLMs 编程

David Crawshaw 总结了过去一年中使用生成式模型(如大型语言模型,LLM)进行编程的个人经验。他强调,使用 LLM 编程并非被动过程,而是他主动探索并将其应用于实际工作中的结果。他发现 LLM 对他的生产力有显著的正面影响,以至于他现在在工作中经常使用 LLM,并且尝试不使用它们会让他感到不愉快。

Crawshaw 提到,他在编程中主要以三种方式使用 LLM:自动补全搜索基于聊天的编程。他认为自动补全功能使他能够更高效地完成一些显而易见的输入任务,尽管现有的技术还有改进空间。在搜索方面,他发现使用 LLM 进行复杂问题的查询比传统的搜索引擎更有效,尽管 LLM 有时也会出错。至于基于聊天的编程,尽管这是最具挑战性的一种方式,但他从中获得了最大的价值。他指出,基于聊天的编程需要学习和调整编程方式,但他认为这值得尝试,因为 LLM 可以为他提供代码的初稿,尽管这些代码可能包含一些错误,但他发现修正这些错误比从头开始编写代码要容易得多。

Crawshaw 认为,LLM 的使用将改变编程的某些传统观念,例如代码的组织方式和测试的编写方式。他指出,LLM 使得编写更小、更专业的包变得更加容易,因为这样可以为 LLM 提供更清晰、更隔离的工作上下文。此外,LLM 还可以帮助编写更全面的测试,因为它们可以生成大量测试用例,而不需要程序员投入大量时间。他预测,未来可能会有更多专门化的代码和更少的通用包,同时测试将变得更加可读和全面。

#AI #LLM

https://crawshaw.io/blog/programming-with-llms


✒️ Levix 空间站文章 2025 版
🔗 点击这里查看

📘 Levix 空间站文章 2024 版
🔗 点击这里查看

📱 Telegram 频道内容聚合链接:
🔗 点此浏览

📝博客:
https://synctoai.com/




我很有钱,却不知道该如何度过我的人生。

Vinay 在成功出售公司并获得巨额财富后,发现自己处于一种财富自由的状态,这种无限的自由反而让他感到迷茫和缺乏方向。他意识到,尽管金钱可以带来自由,但时间才是最稀缺的资源。在尝试进入机器人领域后,他发现自己并不想创办一家机器人公司,而是意识到自己之前的想法是为了模仿埃隆・马斯克,这让他感到尴尬和可笑。

在与女友分手后,Vinay 开始反思自己的情感状态和内心的不安全感。他认识到,随着公司的发展,自己对生活的期望不断增加,而公司裁员事件更是对他的自信心造成了巨大打击。他意识到,真正的安全感和满足感需要从内心寻找,而不是依赖于外在的成就和他人的认可。

为了重新找回挑战自我的激情,Vinay 决定攀登喜马拉雅山脉的一座 6800 米高峰,尽管他没有任何登山经验和训练。在攀登过程中,他经历了严重的高原反应、寒冷和慢性支气管炎等困难,但最终成功完成了两次计划的登顶,重新体会到了挑战自我和完成艰难任务的重要性和满足感.

在攀登喜马拉雅山脉后,Vinay 在朋友的建议下加入了 DOGE(美国财政部),与埃隆・马斯克和维韦克・拉马斯瓦米等人一起工作。在短短四周的时间里,他参与了大量项目,招募了许多优秀人才,并深刻体会到了紧迫感和使命感的重要性。然而,他也意识到,尽管 DOGE 的使命非常重要,但这并不是他目前最需要关注的事情。他需要回到生活中去面对和解决自己的不安全感,而不是逃避现实.

Vinay 选择前往夏威夷学习物理。他告诉自己,学习物理是为了建立第一性原理的基础,以便未来能够创办一家制造实物的公司。但他也坦诚地承认,自己其实只是喜欢学习物理本身,即使这不会带来任何实际的成果,他也能接受。他希望通过学习物理,重新找回与自己内心的真实连接,并以谦逊的态度面对生活中的各种挑战.

Vinay 提出了一些未解之谜,例如为什么他需要经历如此多的挑战才能达到现在的状态,为什么不能在离开公司后直接承认自己不知道接下来要做什么,以及为什么他总觉得只有伟大的旅程才值得追求等。这些问题反映了他对自我认知和生活意义的深层次探索,也引发了读者对于如何在财富自由后找到生活方向和价值的思考。

#生活

https://vinay.sh/i-am-rich-and-have-no-idea-what-to-do-with-my-life/


如何让人工智能像资深开发者一样阅读和分析代码。作者指出,之前的 AI 在处理代码时常常像刚从训练营毕业的新手一样,容易在细节中迷失。而资深开发者在审查代码时会先关注核心文件,将变更按功能分组,构建系统的架构模型,然后再深入具体实现。

为了改变这一现状,团队开发了一个上下文感知的文件分组系统。该系统通过分析文件的功能和大小,将文件分组,并优先处理重要文件。例如,将认证相关的文件分为一组,然后让 AI 在分析前了解该组文件的上下文,如核心的令牌验证逻辑、会话管理和相关中间件等。AI 需要关注这些文件如何与现有的认证模式集成、安全影响以及对其他系统的性能影响等。

这种改变使得 AI 的分析能力大幅提升。例如,AI 能够识别出认证变更可能对 WebSocket 连接的影响,并指出与通知服务共享的令牌刷新逻辑可能导致在高流量 socket 重连时出现竞争条件。AI 还能够发现与之前合并的 PR 中相同的重试逻辑,并建议增加退避机制。

这种提升并非依靠复杂的机器学习模型或更大的模型,而是通过模仿资深开发者的思维方式实现的。具体来说,包括以下几点:

1. 先有上下文:在深入代码之前先对系统有整体理解。

2. 模式匹配:将相似的文件分组,以便发现重复的处理方式。

3. 影响分析:将变更与整个系统联系起来考虑。

4. 历史理解:追踪代码演变的原因。

此外,该系统还意外地能够发现一些未被设计到的问题,如不同功能间复制粘贴的代码、不一致的错误处理模式、潜在的性能瓶颈等,并根据使用模式提出架构改进建议。

目前许多 “AI 驱动的 IDE” 只是在解决错误的问题,即在没有深入上下文的情况下提供代码建议,这就像让一个刚加入的新手写出整洁但可能破坏一切的代码。关键在于更好地理解代码,而不是生成更好的代码。

作者提出了一些未来的研究方向,包括让 AI 识别技术债务、建议架构改进、从使用模式中发现安全问题以及理解团队的不成文惯例等。总之,问题不在于让 AI 编写更多代码,而在于教会它像经验丰富的开发者那样思考代码。

#AI #实践

https://nmn.gl/blog/ai-senior-developer


Репост из: 关于AI的一切
Видео недоступно для предпросмотра
Смотреть в Telegram
两年时间……



Показано 20 последних публикаций.