OSCHINA
↑点击蓝字 关注我们
欢迎阅读 OSCHINA 编辑部出品的开源日报——您探索和理解开源世界的日常指南。在这里,我们每天从宏观到微观,全面展现开源技术和文化的动态图景。
每日一更,风雨无阻。
OpenSource Daily # 2024.10.17省流概览
- Chrome 自动禁用广告屏蔽扩展 uBlock Origin
- Mistral 发布 Ministral 3B / 8B
- 被点名“安全漏洞问题频发”,英特尔回应
- 阿里发布国际 Marco 翻译大模型
- 李彦宏谈AI泡沫:不可避免,但泡沫后将有1%的企业脱颖而出
- 给一个CUDA算子,估计其带来的浮点数误差
- 医生看病跟程序员改bug一样
- 25年前,英伟达发布了世界上第一款GPU - GeForce 256
- 一本开源书:机器学习系统:设计和实现
- 李开复:零一万物融的钱够做预训练,我做 toB 不会亏钱
今日要闻
Chrome 自动禁用广告屏蔽扩展 uBlock Origin
uBlock Origin 开发者 Raymond Hill 近日在社交媒体转发一张截图,显示 Chrome 以 “不再受支持” 的理由自动禁用了 uBlock Origin。uBlock Origin 是基于 Manifest V2 的扩展,Google 正在淘汰 Manifest V2 强推限制更多的 Manifest V3,Raymond Hill 已经开发了基于 V3 的精简版本 Ublock Origin lite(uBOL),因 V3 的限制 uBOL 在功能上弱于 uBlock Origin。
Mistral 发布 Ministral 3B / 8BMistral 近日发布两款模型 Ministral 3B 和 Ministral 8B。官方表示,这两款模型可以提高笔记本电脑和智能手机等设备的本地化 AI 体验。
被点名 “安全漏洞问题频发”,英特尔回应
10 月 16 日,中国网络空间安全协会在官方微信平台发表文章漏洞频发、故障率高 应系统排查英特尔产品网络安全风险 。其中提到英特尔四项安全问题:安全漏洞问题频发;可靠性差,漠视用户投诉;假借远程管理之名,行监控用户之实;暗设后门,危害网络和信息安全。
对此,英特尔今日在官微发布公告回应称:
作为一家在华经营近 40 年的跨国公司,英特尔严格遵守业务所在地适用的法律和法规。
英特尔始终将产品安全和质量放在首位,一直积极与客户和业界密切合作,确保产品的安全和质量。我们将与相关部门保持沟通,澄清相关疑问,并表明我们对产品安全和质量的坚定承诺。
阿里发布国际 Marco 翻译大模型阿里国际最新研发的翻译大模型 Marco 于今日正式上线,支持中、英、日、韩、西、法等 15 种全球主流语种。
据阿里国际表示,Marco 基于目前广泛使用的开源评测数据集 Flores,Marco 翻译大模型在 BLEU 自动评测指标上,领先于市面上的标杆翻译产品,如 Google 翻译、DeepL、GPT-4 等。Marco 能够根据上下文提供高质量的翻译和良好的可读性,甚至支持不同的翻译风格,满足多样化的翻译需求。
今日观察 社交观察
李彦宏谈 AI 泡沫:不可避免,但泡沫后将有 1% 的企业脱颖而出
百度创始人李彦宏在HBR Live:商业未来与哈佛商业评论英文版总编辑殷阿笛(Adi Ignatius)对谈时表示,正如历史上的所有技术浪潮,在经历过最初的兴奋期之后,泡沫难以避免,但泡沫过后,会有 1% 的企业脱颖而出,为社会创造巨大价值。
在与 Adi Ignatius 对谈中,李彦宏谈及 AI 近期发展趋势、是否存在泡沫、AI 与人类关系等多项 AI 相关的热点话题。他认为,过去 18 个月,大模型领域的最大变化是回答问题的准确性,此前,人们总是担心大模型的幻觉,但现在这一问题已基本被解决。他还指出,未来 5-10 年,每个人都将拥有程序员的能力。
同时,李彦宏再次提及中国 AI 的发展特色。他表示,尽管在中国市场上有数百种基础模型,但人们更关心的是应用产品与市场的契合度(Product Market Fit),关注哪些基于模型的应用将产生最大价值。
- 品玩
给一个 CUDA 算子,估计其带来的浮点数误差
CUDA 编程里,常常涉及浮点运算。其中,比较底层的计算会做成算子,比如矩阵计算,2D 卷积。精确的浮点运算是保证计算结果准确性的关键。实际上,浮点数是用来表示实数的近似值,但是由于浮点数的有限精度,难以避免存在误差问题,而且这些误差在连续计算过程中会累积。
除了算法的设计,数据结构的选择,要实现精确浮点运算还需要合理选择 GPU 硬件。所以,CUDA 中实现浮点运算是一个综合多个因素的问题。
既然误差会存在,一个核心问题是,给一个 CUDA 算子,估计其带来的浮点数误差。貌似还没有看到很成熟的方案。
- 微博 蔡少伟
医生看病跟程序员改 bug 一样
医生看病跟程序员改 bug 一样的,出了 bug(身体不适),一般程序员:try catch(头疼医头,脚疼医脚),不报错,好的程序员,排查根因彻底解决(查找诱因,解决后续隐患) 。
- 微博 RememberAutumn
25 年前,英伟达发布了世界上第一款 GPU - GeForce 256
25 年前,英伟达发布了世界上第一款 GPU - GeForce 256。我现在工作中有一台 Linux 机器装备了 2022 年发布的 GeForce RTX 4090,是我开发在 Kubernetes 平台上支持和优化 GPU 的主力机器。
和 GeForce 256 比较,GeForce RTX 4090 在性能、内存容量以及功能方面都实现了巨大飞跃。
- 制程工艺:220nm vs. 5nm
- 晶体管数量:1700 万 vs. 760 亿
- CUDA 核心:无 vs. 16,384 个
- 性能:960 MFLOPS vs. 82.58 TFLOPS(单精度),加速超过 8 万倍!
- 内存:32MB (64MB) vs. 24GB
- 内存带宽:1.144 GB/s vs. 1,008 GB/s
- 无光线追踪和 AI 功能 vs. 硬件加速光线追踪
……
GPU 的应用已经从简单的固定功能图形处理器,成为今天的多功能和加速计算的核心。GPU 不仅改变了游戏领域,更是 AI 的推进器和发动机,正在持续推动未来 AI 和计算的发展。
- 微博 硅谷陈源博士
一本开源书:机器学习系统:设计和实现
机器学习系统:设计和实现“做世界上第一本全面讲述机器学习系统知识的开源书籍” http://t.cn/A6XPYApN
- 微博 蔡少伟
媒体观察
专家解读诺奖:AI 目前还仍未真正影响到物理学,短期看 AI 是一种 “泡沫”
“Hinton 2006 年利用 RBM 做 DNN 自监督预训练,成功训练深度神经网络,可以说是这轮 AI 革命的先声,Hopfield 网络为 RBM 奠定了基础。” 张宏江称,两个人其实跟物理有非常紧密的联系。另外,非常重要的是,诺奖给到网络机器学习领域,实际上是对于以神经网络为基础的 AI 或者机器学习的重要性的一个认可和期待。
- 钛媒体
左手 AI 右手 AR,meta 如何重新变成酷公司?
meta 面临的挑战之一是没有与谷歌在安卓生态上达成合作。这意味着如果 XR 设备成为通用设备,用户可能需要在不同的生态系统之间切换,这与苹果生态提供的无缝体验形成鲜明对比。例如,使用 Apple Vision Pro 并登录 Apple ID 后,用户的微信等应用会自动准备好,可以直接使用。这对 meta 来说是一个重大挑战。
- 36氪
字节豆包直面 AI 视频降本难题,压力给到了谁?
对于目前 AI 视频产品的 “爆发”,北京市社会科学院副研究员王鹏表示,国内 AI 视频产品正处于快速发展和不断迭代的阶段,主要因为市场需求旺盛、应用场景广泛和商业化模式多样等。
-
中国工程院院士凌文:开源鸿蒙意义在于打造底层数字基座
中国工程院院士、山东省科协主席、上海交通大学讲习教授凌文在大会期间接受记者采访时表示,开源鸿蒙的意义在于 “开天辟地”,成为许多科学、技术、工程的底层数字基座,只有建好这样坚实的底层数字基座,才能在此基座上更好地打造各种应用层、逻辑层、数据层。
- 新华财经
对话李开复:零一万物融的钱够做预训练,我做 toB 不会亏钱
“零一万物的 toB 做法是做有利润的解决方案,不只是卖模型不只是项目制。” 李开复表示。他进一步称,由于基因问题,一家大模型公司同时做 B 端和 C 端非常辛苦,需要多元化的管理方式,也需要差异化的衡量方法。“零一万物选择把 toB 放在国内做,找破局空间,比如用数字人做零售,做餐饮,会形成完整解决方案,找本地供应商。”
- 硅星人
光明牵手华为,打造 “AI 之城 算力名片”!
双方将围绕 “一集群一园两中心” 开展长期合作,共同打造算力集群、国产软件联合创新中心、光明人工智能应用服务中心、开源鸿蒙产业生态园。华为将充分发挥其在技术、人才和生态资源等方面的独特优势,为光明区夯实数字基础设施,加速产业集聚发展,推动光明区数智化转型升级,打造全域智慧城市的标杆示范区。
- 人才光明
今日推荐
开源项目
armin/czkawka
https://github.com/qarmin/czkawka
Czkawka 是一个用 Rust 编写的、简单、快速且易于使用的应用程序,用于从计算机中删除不必要的文件。
开源之声
用户观点
Rust 编译后的二进制文件,比 C++ 还大,这波输了?
观点 1:最近在研究 stm32 跑 rust 感觉编译出来的 bin 体积和 c 差不多啊, 体积大 可能是 debug 模式编译的 或者 优化没有开启 观点 2:有些代码体积膨胀可能是宏展开造成的,嵌入式的开发,尤其是低成本的 MCU 上,Rust 还是要有多地方需要完善 观点 3:最小可以做到 8kb,通常策略下可以做到 30kb。这个对于一个性能语言已经足够。甚至芯片里面也一点压力也没有。当然,要求 5kb 以内的嵌入式程序怎么办??就这么点逻辑,还需要用 rust 吗?干嘛不直接用 c? 这是该纠结的问题吗。很多人小问题其实是给自己不想学习的的借口。 观点 4:无论如何:Rust 的二进制文件确实会大一些,大概多出几十 K。 就这个情况,MCU 上面就别想了,所以,Rust Embedded 努力的方向到底对没有? 观点 5:大的可能不是 rust 本身语言和库,有可能是 rust 编译器需要的代码和库,因为 rust 编译器(主要是 llvm)是用 c/c++ 写的。 观点 6:我感觉 rust 和 java 编译器其实没什么区别,主要是 rust 更安全。 观点 7:R 门教徒:我们在二进制中添加了 libuniverse,可以让你的 Rust 程序掌控宇宙,R 门 观点 8:懂个毛,大不大看怎么写,怎么我就能写只有一百多字节(不是 kb)的 rust 程序你不能 观点 9:你说的是源文件吧,编译文件一个 helloworld, 我都没见过小于 kb 观点 10:取代 c 语言还为时过早 观点 11:rust 是用来人与 AI 进行编程渠道沟通的语言么?规矩那么的多。 观点 12:判断写的比 cxx 多 观点 13:别说十几 k 甚至几十 k 的体力差了,很多时候做 ota 升级包,差一点塞不进都只能拼命想方法。做嵌入式还是 C 最实用。程序员梗图
References
https://github.com/Tencent/X
https://mp.weixin.qq.com/s/HvAZBwXovtVjuYGj5JExfg
END
↓ 分享、 在看与 点赞~ Orz