网络安全笔记


Гео и язык канала: Китай, Китайский
Категория: Технологии


从零开始、持续积累、开放共享、共同成长(网络安全、AI方向)

Связанные каналы  |  Похожие каналы

Гео и язык канала
Китай, Китайский
Категория
Технологии
Статистика
Фильтр публикаций




每一轮大的技术风口并不完全是一哄而上的炒作,里面包含了一些真正的机会,值得关注和跟上。这也是为什么周刊每一次都对新技术倍加关注、积极评价的原因。
当然,赶上技术风口的前提,还是要有真才实学,能做出实打实的产品。否则,真遇到风口,你也无法脱颖而出,拿到技术炒作的红利。








Linux硬链接:在进行文件备份时,硬链接能在不额外占用大量存储空间的情况下创建文件副本。因为多个硬链接指向同一个数据块,对原文件进行修改,备份的硬链接文件也能实时体现这些变化,保证数据一致性,同时删除其中一个硬链接不会影响其他链接和数据块,提高数据安全性。例如,在重要配置文件备份场景中,系统管理员可以为关键的配置文件创建多个硬链接,分布在不同目录下。当系统出现故障需要恢复配置时,只要数据块未被删除,任何一个硬链接都可用于恢复配置。

思考:如遇勒索,只要其中还有未被加密的数据块,是否可以恢复?


Linux系统中有软链接和硬链接的概念,这篇文章详细解释他们之间的差别。
https://bhoot.dev/2024/on-linux-file-and-links/






文章通过实验展示了在开源LLM中嵌入后门的可能性,并强调了嵌入风险的隐蔽性和检测的困难性。作者呼吁在使用LLM时保持警惕,无论其是否开源,并期待AI研究者开发出有效的检测和缓解方法。
#AI
https://blog.sshh.io/p/how-to-backdoor-large-language-models

https://github.com/sshh12/llm_backdoor?tab=readme-ov-file




浙江大学出的这个开源的书籍「大模型基础」值得一看,行文风格挺不错的,易读、严谨、有深度的大模型教材。
https://github.com/ZJU-LLMs/Foundations-of-LLMs




KTransformers团队宣布支持DeepSeek-R1和V3模型,支持在单GPU(24GBVRAM)或多GPU和382GBDRAM的环境下运行。通过优化,实现了高达3~28倍的速度提升。提供了本地运行的示例,展示了如何在桌面环境中实现类似GPT-4的性能。

测试环境:
CPU:IntelXeonGold6454S(32核心/插槽,2插槽,2NUMA节点)
GPU:4090D(24GBVRAM)
内存:1TBDDR5-4800服务器DRAM
性能结果:
Prefill速度:最高可达97.32tokens/s
Decode速度:最高可达13.69tokens/s
相比llama.cpp,Prefill速度提升高达9.44倍,Decode速度提升3.03倍。

#AI
https://kvcache-ai.github.io/ktransformers/en/DeepseekR1_V3_tutorial.html






在不涉及 API 调用的情况下,单纯只是作为普通用户使用,没必要独立部署。除非你的目的是想学习下部署的流程是啥。
https://mp.weixin.qq.com/s/iekH1jvukIleaMyCFhRtfQ


网络安全产品真正接入AI重点想解决三类问题:
1、单点安全产品告警质量差
2、日常运营类工作人效低
3、提高股价





Показано 20 последних публикаций.