Peter's Memo Tunnel


Гео и язык канала: Китай, Английский
Категория: Блоги


Some junk things

Связанные каналы

Гео и язык канала
Китай, Английский
Категория
Блоги
Статистика
Фильтр публикаций


Репост из: 科技圈🎗在花频道📮
中国铁路:6月1日开售实行市场化票价机制的4条高铁车票

京广高铁武广段,沪昆高铁沪杭段、杭长段,杭深铁路杭甬段等4条高铁运行的时速300公里及以上动车组列车将于6月15日实行灵活折扣、有升有降的市场化票价机制,相关列车车票将于6月1日开始发售 ​。

澎湃新闻

关注频道 @ZaiHuaPd
频道爆料 @ZaiHuabot




各位群友新年快乐!


Summary of the year for the channel "Peter's Memo Tunnel" from @TGStat




一只 Llama LLM (bushi


原来私人也可以发射卫星

https://b23.tv/4blSlMI


Репост из: 啰哩啰嗦分享频道
为什么有的地方叫x86_64,有的地方叫amd64?

为什么叫amd64?
amd64是因为x86的64位架构是amd先出的,Intel跟进的。

为什么Intel不搞amd64/x86_64?
因为它去搞IA-64(又叫安腾架构)了,与x86不兼容。

x86名字由来?
Intel公司推出的一系列芯片。包括8086、80186、80286等等。由于名字末尾都有86,故称x86。

为什么会是x86?
因为在x86之前,每个芯片架构不同。所以你去写电脑程序的时候,得单独给某个芯片写。
Intel推出8086之后,又推出了同架构的残缺版8088(与8086相比,硬件上只有8位总线),价格更便宜。有公司用8088做了一款电脑,

其创新性的让电脑软件能和CPU分开,在同一架构上不需要重新编写


虽然现在看来理所应当,但在当时是一个巨大的进步。于是,它火了。

有没有其他称呼?
有。
32位的称呼:x86、i386(i486、i586、i686)、IA-32
64位的称呼:x64、x86_64、amd64

所以二者是同一个东西,产生差异的只是不同u的指令集导致。


微软终于干了件人事


Репост из: 科技&趣闻&杂记
OpenAI CEO 确认正开发 GPT-5,可能拥有超级智能

OpenAI 已开始构建下一代人工智能模型 ChatGPT 5,该公司的首席执行官 Sam Altman 在最近的一次采访中证实了这一消息,并声称这个模型有可能拥有超级智能,但是要实现这个目标,还需要其长期合作伙伴微软的进一步投资。

Altman 在接受《金融时报》的采访时说,GPT-5 的训练过程将需要增加数据量,这些数据将来自互联网上可公开访问的数据集和私营公司的独家数据集。Altman 提到,与微软的合作非常顺利,他预计未来会从微软和其他投资者那里筹集更多的资金。来源 12

📢 频道:@kejiqu
👥 群组:@kejiquchat


学不会的图灵只因
距离死亡(考试)时间还有 11556 秒


Репост из: 科技圈🎗在花频道📮
李开复旗下 AI 公司“零一万物”开源 Yi 大模型被指抄袭 LLaMA

创新工场董事长兼 CEO 李开复于今年创办了 AI 大模型创业公司“零一万物”,该公司已推出 Yi-34B 和 Yi-6B 两个开源大模型,号称对学术研究完全开放,同步开放免费商用申请。

然而在 Yi-34B 的 Hugging Face 开源主页上,开发者 ehartford 质疑称该模型使用了 Meta LLaMA 的架构,只对两个张量(Tensor)名称进行了修改,分别为 input_layernorm 和 post_attention_layernorm。

ehartford 表示开源社区肯定会重新发布 Yi 大模型,并重命名张量以符合 LLaMA 架构。他希望该公司在模型获得大量采用之前考虑将这一更改应用到官方模型中,下方则引来了多方议论。

此外,网上今日流传着一张原阿里首席 AI 科学家贾扬清的朋友圈,该内容称“某国内大厂新模型 exactly 就是 LLaMA 的架构,但是为了表示不一样,把代码里面的名学从 LLaMA 改成了他们的名字,然后换了几个变量名”。

来源:https://www.ithome.com/0/732/405.htm

投稿:@ZaiHuaBot
频道:@TestFlightCN


Репост из: 蓝点网订阅频道
#科技资讯 #硬件设备 英伟达趁热打铁推出 NVIDIA HGX H200 人工智能加速卡,较 H100 性能翻倍,带宽提升至 4.8TB/S、最大内存 141GB。

查看全文:https://ourl.co/101031

以 Meta AI 开源的 Llmma-2 70B LLM 为例,H200 推理速度较 H100 提升了 1 倍。

H200 基于 Hopper 架构开发,采用 HBM3e 内存,带宽为 4.8TB/S,最大内存为 141GB,支持 4 路和 8 路配置。

H200 的部分参数如下:

FP64 34TFLOPS
FP64 Tensor Core 67 TFLOPS
FP32 67TFLOPS
TF32 Tensor Core 989 TFLOPS

该 GPU 将在 2024Q2 上市。

第二款产品是 NVIDIA GH200 Grace Hopper 超级芯片,这是为超算设计的,可以将 H200 GPU 与基于 Arm 的 NVIDIA Grace CPU 结合在一起。

其中德国正在建造的 JUPITER 使用 24000 张 GH200 与 Quantum-2 互联,将成为最强大的人工智能系统。

🎉 订阅频道:蓝点网订阅
🥰 𝕏(原推特):@landiantech
👋 交流频道:蓝点网读者群





Показано 15 последних публикаций.

9

подписчиков
Статистика канала