
有东说念主问了个节略问题,家离洗车店就50米,该开车去如故步行去,像GPT、Claude、Llama这些常见大模子王人提倡步行,说这么环保省油距离近,它们能算清碳排放也能列出步数耗尽,但便是没相识到洗车这件事需要把车开畴昔才行,总不成东说念主走畴昔让机器在远方洗车,这根底不顺应践诺情况。

唯有谷歌的Gemini答对了这个题,它还补充说就算只隔五米远,车也得我方开畴昔才行,这话听起来节略,其实点出了东说念主工智能的老问题,它们学的是翰墨里的统计规则,不是真实寰宇中的因果说合,比如一看到洗车就念念到水啊泡沫啊环保啊这些词,却没弄显然车这个东西既是东说念主用的器用,亦然被东说念主操作的对象,这两样不成分开,就像你不成寄一把刀去切菜,刀得被东说念主拿着才气用。

这件事以前就发生过,2025年MIT作念过测试,让32个AI恢复300说念知识题,着力有73%在对于器用依赖的问题上出错,比如有东说念主问切菜应该用刀如故勺子,开云sportsAI显然刀更机敏,但不会念念到莫得刀就切不了东西,这种问题淌若出当今自动驾驶或者管事机器东说念主身上,可能会出事故——机器东说念主听到擦桌子的提醒,大致会递块布给你,却不知说念桌子得先放到眼前才行。

背后的原因很确凿,当今的大模子主要靠互联网上的文本素质出来,网上说“短途步行好”的内容特地多,东说念主工智能就把它当成了默许司法,却忘了在现实里,“功能优先”才是底线,Gemini阐扬稳小数,是因为它在素质时加入了“实体具身性”模块,更宥恕物体在践诺中怎样互动,欧盟和中国最近王人开动科罚这个事,新轨则条款东说念主工智能讲明澄清“为什么选择这个器用”,不成只说“我认为”。

当今OpenAI在搞真实寰宇语义补全,蓄意塞进3D模拟数据,百度也在休养物理司法层的权重,但改起来慢,因为模子照旧造成一套惯性逻辑,它不是笨,是没真确活过,没亲手推过车、拧过水龙头、摸过洗车机。




