血洗内存股900亿刀的谷歌AI论文,竟涉嫌学术造假
谷歌论文TurboQuant被ETH研究员指控涉嫌学术造假和抄袭先行技术RaBitQ,引发了900亿美元内存股市值蒸发和AI圈的广泛关注。
今日科技圈可谓冰火两重天:一边是谷歌 TurboQuant 引发内存股暴跌,却被指涉嫌学术不端;另一边是「AI 科学家」登 Nature,全自动科研成真。此外,具身智能在「脑内模拟」上取得突破,而「Token 工厂」概念的提出,预示着 AI 基础设施正从堆砌算力转向极致效率。
谷歌迎来“DeepSeek时刻”!TurboQuant引爆AI圈、全球开发者疯狂复现:6倍无损压缩,内存股集体暴跌
谷歌研究院发布的 TurboQuant 算法无疑是今日最「炸裂」的技术新闻,其宣称能在零精度损失的前提下,将 LLM 的 KV Cache 压缩 6 倍,并在 H100 上实现 8 倍速提升。这直接导致全球内存股单日蒸发 900 亿美元。这之所以重要,是因为它直击了 AI 推理成本最核心的「内存墙」痛点。如果能在不牺牲精度的前提下大幅降低显存占用,意味着长文本推理成本将断崖式下降,甚至可能重塑硬件采购逻辑。然而,技术狂欢的余温未散,ETH 博士后的公开指控却让这项成就蒙上了阴影。
紧随其后,一篇来自 ETH 苏黎世博士长的檄文,将 TurboQuant 拉下了神坛。指控指出,TurboQuant 的核心机制(随机旋转+极坐标量化)与两年前的 RaBitQ 论文高度相似,但谷歌团队在论文中刻意淡化先行工作,甚至在实验对比中通过限制对手运行环境(如 RaBitQ 用单核 CPU,自己用 GPU)来制造不公平优势。这不仅仅是一次学术争议,更是一次对大厂「叙事垄断」的警示:当巨头的千万级曝光量将单一技术定义为「革命性突破」时,如果不加审视,错误的技术归因极易成为行业共识,掩盖了真正创新者的光芒。这起事件提醒开发者,在追捧 SOTA(最先进技术)时,保持批判性思维同样重要。
Nature重磅:AI写的论文,在顶会同行评审击败55%人类,单篇15美元
从效率之争转向伦理之辩,Sakana AI 的「The AI Scientist」登上了 Nature 封面,标志着全自动科研时代的开启。这套系统能以单篇 15 美元的成本,完成从 Idea 生成、代码实验到论文撰写的全闭环,甚至其产出的论文在 ICLR 评审中击败了 55% 的人类投稿。这比 AlphaFold 更令人震惊,因为它触及了人类最后的堡垒——科学发现。虽然目前它还只能产出 Workshop 级别的论文,但文中揭示的「科研 Scaling Law」表明,随着算力和模型能力的提升,AI 科研的质量将呈指数级上升。这对开发者意味着什么?未来,写代码可能只是基础,如何利用 AI 智能体进行大规模假设验证,将成为高阶工程师的核心竞争力。
别再拿真机炼丹!南大终结「肉身排雷」,机器人0成本脑内练满级
具身智能领域也在经历类似的「降本增效」变革。南京大学提出的 VLA-MBPO 框架,试图解决机器人训练中最昂贵的「真机试错」问题。其核心在于引入世界模型,让机器人在虚拟的「脑内环境」中进行强化学习训练。不同于纯模仿学习(IL)的死记硬背,这种方法让机器人具备了「预判后果」的能力。特别是在长程任务中,通过交错式解码和短分支推演,有效缓解了传统世界模型误差累积的致命伤。这不仅大幅降低了硬件损耗和数据采集成本,更让机器人从「模仿者」向「思考者」迈进了一步。对于关注机器人开发的读者来说,这标志着 VLA 模型的后训练范式正在从单纯的数据堆叠,转向基于物理模拟的策略优化。
趋境ATaaS平台发布,打造日均万亿产能的“Token工厂”
最后,当算法在压缩和科研上狂飙突进时,底层的算力基础设施也在悄然重构。趋境科技发布的 ATaaS 平台,打出了「Token 工厂」的概念,郑纬民院士更是直言 AI 产业核心已从模型服务转向 Token 服务。这不仅仅是概念的更迭,更是系统架构的深层变革。通过异构协同和「以存换算」技术,该平台旨在解决算力闲置与 Token 高成本之间的矛盾。在 AI 应用爆发式增长的今天,如何像供水供电一样稳定、廉价地输送 Token 产能,将成为所有云厂商和 Infra 团队的终极命题。这与谷歌 TurboQuant 试图通过算法压缩减少内存需求,本质上异曲同工——都是在 AI 算力无限膨胀的背景下,对极致效率的殊途同归。
谷歌论文TurboQuant被ETH研究员指控涉嫌学术造假和抄袭先行技术RaBitQ,引发了900亿美元内存股市值蒸发和AI圈的广泛关注。
文章报道了趋境科技发布ATaaS高效能AI Token生产服务平台,郑纬民院士指出AI产业核心正从模型服务转向Token服务,旨在通过全栈技术优化解决算力投入与Token产出失衡问题。
谷歌发布TurboQuant压缩算法,结合PolarQuant与QJL技术,实现KV缓存6倍无损压缩及8倍速度提升,引发内存股震荡及开发者快速复现,标志AI基础设施效率的重大突破。
南京大学发表重磅论文,提出VLA-MBPO框架,通过世界模型让机器人在虚拟环境中进行强化学习训练,解决了真机训练成本高、安全性差及长程误差累积的痛点。
《Nature》报道了Sakana AI等推出的全自动「AI科学家」,实现了从想法到论文的全流程自动化,生成的论文在顶会评审中击败55%人类稿件,揭示了科研Scaling Law。
OpenAI Codex 技术总监 Michael Bolin 回顾职业生涯,强调在 AI 能写大部分代码的时代,提出正确问题和解决真正业务痛点的能力比写代码速度更重要。
本文提供了一份详尽的Mac Mini本地部署OpenClaw及Qwen3.5-35B模型的保姆级教程,涵盖Ollama安装、模型量化及自动化测试,旨在帮助用户在本地构建高效且保护隐私的AI工作站。
本文详细介绍了将 AI Agent(龙虾)接入企业微信的实操方法及其带来的工作流变革,展示了在信息收集、文档撰写、日程管理及电商协同等场景下的实际应用价值。
飞书官方开源了基于 Go 语言和 MIT 协议的 CLI 工具,提供 200+ 命令覆盖 11 个业务域,使 AI Agent 能直接操作飞书的消息、文档、日历等功能实现自动化工作流。
文章讲述了curl作者Daniel Stenberg在独自维护全球百亿设备依赖的基础设施时,面临资金匮乏和AI生成虚假漏洞报告的双重困境,呼吁业界重视开源维护者的生存现状与供应链安全。
西湖大学张岳实验室开源了AI论文绘图工具AutoFigure-Edit,通过五阶段流水线将文本生成为可编辑的SVG矢量图,解决了AI生图不可编辑的痛点。
Agoda 观察发现 AI 编码工具虽然提升了个人产出,但因瓶颈已转移至需求定义与验证环节,项目整体交付速度提升有限。
四川大学雷印杰团队提出一种基于事件链与关键帧机制的物理视频生成方法,通过引入物理公式约束和因果逻辑推理,显著提升了视频生成的时序一致性与物理真实性。
文章基于 GAIR Live 圆桌讨论,深入探讨了 OpenClaw 爆火后的智能体互联网(IoA)发展趋势,提出了关于架构、协议、标准及产业落地的六大核心论断。
文章探讨了如何通过精细的Harness(运行编排系统)设计,利用Planner、Generator和Evaluator分离的架构来解决Claude在长时运行任务中的上下文失控和自我评估不可靠问题,从而提升复杂应用开发的完成度。
文章介绍了ICRA 2026接收的IMR-LLM框架,该框架通过结合大模型语义理解与工业运筹学中的析取图及流程树约束,解决了多机器人协同控制中的逻辑幻觉与代码执行难题。
文章介绍了CMU提出的合作式GEO框架AutoGEO,该方案通过提取AI引擎偏好规则,在大幅提升内容可见度的同时维持搜索质量,为解决AI搜索商业化中的对抗式投毒问题提供了新思路。
文章探讨了AI提升个体效率但未显著提升组织生产力的困境,提出企业需要从流程、角色、决策和信息流四个维度进行“组织重设计”,并以特赞GEA为例介绍了企业级智能体的实践路径。
文章通过试用Claude、Manus及国内大厂的AI助理产品,分析了当前AI Agent在接管电脑和自动化办公方面的技术进展与落地现状,指出虽然技术更新迅速,但在实际应用中仍面临成本过高、场景匮乏等“拿锤子找钉子”的问题。
文章介绍了趋境科技发布的ATaaS平台,该平台旨在提供高效能的AI Token生产服务,并探讨了硬件高投入与高效Token产出之间的关系。
本文汇总了近期科技圈的多条快讯,重点涵盖了谷歌内部Agent Smith工具、Meta强制使用AI指标、月之暗面IPO传闻、智元机器人量产等AI与硬件领域的行业动态。
文章汇总了近期AIGC行业的几条快讯,涵盖美团开源原生多模态模型LongCat-Next、OpenAI广告业务收入增长、Anthropic拟IPO及阿里推出桌面Agent应用等。
智谱AI发布了GLM-5.1模型,主要针对编程场景进行了优化,官方称其编程能力逼近Claude Opus 4.6,并已通过实测展示了其在游戏开发和空间理解上的表现。
这是一篇涵盖AI行业动态、企业财报、新品发布及融资新闻的科技早报,涉及OpenAI、苹果、小米、比亚迪等多家公司。
文章分享了编辑部成员近期使用的三款新产品:西鸽 OpenRock X 气传导耳机、一加 15T 手机及松下面包机 PM1002,内容涵盖外观设计、使用体验及实用技巧。