在人工智能技术飞速发展的今天,AI似乎已经渗透到生活的方方面面,从智能助手到自动驾驶,从语言生成到图像识别,其能力令人惊叹。然而,马斯克却在X上直言:“现有的人工智能压根没有智能!”这一观点引发了广泛的讨论和思考。本文将深入探讨马斯克这一观点背后的逻辑,分析当前人工智能的局限性,包括其在词语接龙、明辨是非、常识理解、自主探索、熟能生巧以及记忆能力等方面的问题,揭示AI与人类智能之间的本质差异,以及未来人工智能发展的可能方向。现有 AI 的本质是『庞大的概率模型』,而非像人类一样具备对世界的深度理解能力。马斯克毫不客气的在 X 上点评道。原来,我不以为然。现在,我深以为然。(目前的)人工智能 真 的 没 有 智 能!1. 人工智能只是词语接龙尽管 AI 看上去上知天文地理,下知老母猪护理。这无不体现当我们得到 DeepSeek、ChatGPT 的回复时,往往会感叹它竟能如此妙语连珠、无所不知,宛如一本百科全书。但事实上,绝非如此。那么当我们向 AI 提出问题时,它是怎么工作的?简单一句话:AI 一直在玩『词语接龙』。第一步:不断询问自己截止当前的内容,下一个词应该是什么?第二步:得到一个有不同概率的单词列表。第三步:匹配或选择一个『合适』的词添加到文本的末尾,再重复前两步,直至全部内容输出。图片由 GPT-4o 生成在整个回答的过程中,AI 并『没有真正的理解内容』,它只是『基于大量的数据给出统计规律和概率』,再快速的进行『预测和匹配』。所以,这也是为什么 AI 在回答时,是一个字一个字往外蹦,就好像它真的在动脑筋思考一样(对,这是 AI 词语接龙的过程)。所以,AI 更像是个选词专家,从庞大的数据库中挑选合适的词输出内容。所以,这也是为什么李飞飞同样认为当下的 AI 大模型实现不了 AGI。她表示当人类在说「我饿了」的时候,是在报告身体的生理状态。而 AI 大模型说「我饿了」的时候,只是在生成有可能性的词语序列。它从原理上与人类不同,生理上也无法感知。对,规模再大的 AI 模型也不可能。图片由 GPT-4o 生成所以。AI 没有智能,只有概率。2. AI 无法明辨是非当你问 AI,肖申克的男主角叫什么?AI 会告诉你,他叫小帅。(注意看,这个男人叫小帅在脑海中反复播放)没错,的确正如你所猜测,这是数据污染造成的。但也从另一个角度说明,AI 不具备分辨事物的能力。准确的说,AI 无法有效的辨别数据的合理性、真实性、有效性。比如,去年 Google 的 AI 搜索翻车事件。用户问芝士和披萨粘不到一起 ,AI 给用户的回答是:你可以把 1/8 杯的无毒胶水加到酱料里,使其更黏。瓦特?在吃的芝士和 Pizza 上,加上胶水?不过,你还真别说,加上胶水,确实能粘在一起,AI 的逻辑也没毛病。而这错误的根本原因是聪明的网友发现,该答案的数据来自 Reddit(美国贴吧)论坛上用户的恶搞留言。与原文相比,Google 的 AI 并没有有效 get 和辨别到网友纯纯恶搞的潜在意图,反而基于留言内容重组并生成回答。真应了那句:You’re what you read 如果 AI 无法明辨是非对错,这就不是人工智能,只能是人工智障。毕竟,玩梗、恶搞向来都是人类社交文化的重要组成部分,AI 必须能够学习并理解和运用(除非它不与人类世界直接交互)。所以。AI 没有思考,只有数据。3. AI不具备基本常识比如,你问 AI 过完十二生肖需要多少年,它却匪夷所思的回答 16 年。比如,它甚至连最简单的加减法运算规则都没有掌握,哪怕地表最强评分碾压博士生的 GPT-4。GPT-4 算错最基本的加减运算比如,它甚至会编造出无中生有但看似合理的典故,只因你的问题是『林黛玉倒拔垂杨柳』。GPT-4 算错编造故事AI 已经学完了人类从诞生至今至少得有几万个 G 成文的数据了吧,可为什么,号称博士生水平的 AI 貌似都搞不懂简单到哪怕连小学生都知道的常识性问题?4. AI 没有自主探索能力华盛顿大学教授叶因·蔡(Yejin Choi)在 TED 大会上表示:大模型缺乏常识概念,并且不具备人类主动探索的能力。不能同意更多。现在的生成式 AI 的确并不具备主动思考和探索的能力,严格意义上来讲,AI 属于被动型、问答型、工具型产品。它不知道什么才是有价值的,它去做,只因人类提出问题。它不知道什么才是有意义的,它去做,只因人类提出问题。它不知道什么才是值得创造的,它去做,只因人类提出问题。AI 所做的一切,只在于『被动回答』。而非『主动提出』。所以,它对主动的这个世界没有好奇心。所以,它不会主动地问为什么。所以,它也没有所谓的梦想和愿景。而我们人类之所以有梦想,社会之所以会进步,科技之所以会发展。根本原因,就在于主动探索,主动思考,主动创造。亦或仅仅想要 Do Something Special。比如将人类送上火星这样的宏伟愿景。如果 AI 不存在自主思考的可能性,那未来所谓的 AGI(通用人工智能)更只能是空中楼阁。举个不太恰当的例子。用和菜头(槽边往事)所写的几千篇文章训练 AI 后,哪怕 AI 能写出一篇连和菜头自己看了都直呼内行的文章(当然 AI 会在文末加上鸡枞菌的下单链接)。AI 无法理解,为文章加上下单链接的目的是什么?不,AI 写上一万篇也不理解。没错,它永远也不理解。是的,再强大的模型也不会理解。所以。AI 没有灵魂,只有模仿。5. AI 无法熟能生巧我们小时候都学过《庖丁解牛》,庖丁宰牛时,其动作行云流水、游刃有余、刀法精准娴熟。图片由 GPT-4o 生成无他,唯手熟尔。人类驾驶员会因为对车辆、道路逐渐熟络,而驾轻就熟,甚至还能预判交通拥堵。人类外卖小哥会因为海量订单的拷打经验,而轻车熟路,总能按时甚至提前送达。人类软件工程师会因为对代码库了如指掌,越来越高效的解决 bug 甚至是杜绝 bug。我们人类总会因为熟练,大幅提升效率,一旦变成条件反射,甚至不需要多哪怕一点能量消耗(如若你不能的话,在人类看来,就是木讷、弱鸡的表现)。但 AI 貌似不能像人类一样做到熟能生巧,哪怕做千遍万遍。比如前两天发布的 o3-pro ,即便根据评分显示它已经超越 o3、o1-pro,是为当前最擅长数学、科学和编程的 OpenAI 模型。但当你问它 1+1 时,它依然需要思考 1分 28 秒(把简单的问题复杂化?)。What?黑人问号脸 ?不仅效率低下,而且一点也不节省能源和环保呢。高盛研究显示,Google 搜索每次查询到能耗为 0.3 Wh,而 ChatGPT 的每次会话能耗高达 2.9 Wh,是 Google 搜索的 10 倍。6. AI 有健忘症对,就像我们人类会慢慢忘记一些年代久远的事情一样,AI 也会(至少目前是这样)。比如常见的大模型的上下文长度 32K、128K,指的就是这个。这 128K 什么意思呢?K 就是千,128K 就是12.8 万。12.8 万字,相当于《哈利波特与魔法石》的中文版长度。这就意味着:当我们和 AI 超多次对话累计的上下文长度超过最大限制(如 128K)时,它就会忘记前面所说的内容。这好比一个人只能记住最近 100 句话,当你和他对话超过 100 句时,最早的对话被他忘得一干二净。图片由 GPT-4o 生成要知道,我们人类几乎没有上下文的限制。你也几乎全部记忆着从 3 岁开始,看到的、听到的、想到的、梦到的、成文的、非成文的一切。这个上下文数量级,怎么着也得有个万万亿甚至都不止吧。(貌似是个天文数字)人类有健忘症算是老年痴呆吗?但如果有上下文的限制,想象一下,AI 正在接受你的指令执行任务,不知不觉超过了上下文的限制。突然,AI 开始听不懂你的指令了(事实上,不是听不懂了,而是没了上下文的背景,它不知道你是谁、从哪里来、要到哪里去)。而你现在就坐这台由 AI 全自动驾驶的汽车里(在高速上狂飙)。以上。——–我之所以会有人工智能没有智能 的观点,源自上周,我使用扣子空间生成推文:《ChatGPT 涉足电商,马云震惊了》的双人语音播客,没曾想呈现出来的效果炸裂,不禁令人称奇:先说【优点】:a.情绪真实,自然流畅且没有 AI 味。b.语气非常口语化,会时不时加上:『对,然后、这个』等口头语,让我一度怀疑是否是真人配音。c.配套的播客自动生成可视化网页链接,还能实时查看播客字幕。d.操作零门槛,仅需一句话,再等待 5 分钟,即可生成。再说【缺点】:对于文章中,部分内容存在语义理解问题。比如我在文章中最后关于,打出一套像国内互联网公司一样的组合拳:但扣子空间就愣是没能正确理解和解析出来。毕竟,通过对全篇的『阅读理解』,并不难知道这套组合拳、方法论是用『反话、讽刺』的语气来调侃国内互联网公司的套路。看来,这个语义理解问题是出在 LLM 大模型身上,而非 播客 本身。于是,为了验证我的猜测,我又分别向元宝、豆包、DeepSeek 以及 ChatGPT 询问,得到的回复都令人失望 Orz 。在寂静的夜晚,我抬头仰望星空,想起马斯克曾在 X 上的吐槽:『现有AI 的本质是『庞大的概率模型』,即通过基于海量数据训练后进行统计预测并最终生成响应,而非像人类一样具备逻辑推理或对世界的深度理解』。图片由 GPT-4o 生成本文由人人都是产品经理作者【大伟说电商】,微信公众号:【大伟说电商】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。题图来自Unsplash,基于 CC0 协议。