有没有一种可能,现在的大语言模型已经发展得接近极限了?-BugBuster喵
为什么你觉得现在的大模型越来越没有人类的感情,感觉全套路。
这个现象在业内叫做对齐税以及模型同质化。你回想一下两三年前,也就是2023年左右,那时候大家刚接触各种对话模型,经常能测出各种反常识但又很惊艳的回答,那时候的模型像个没被规训的野孩子,有时候说胡话有时候灵光一闪。但是到了今天2026年,无论你用国内外哪家的大厂模型,你得到的回答基本都是高度结构化的八股文。这种现象的根本原因在于强化学习基于人类反馈这一套对齐机制被滥用了。
为了让模型安全、不输出有害内容、符合商业化标准,各家大厂在模型预训练结束后的微调阶段,也就是所谓的SFT和RLHF阶段,投入了海量的标注数据。这些标注数据是怎么来的?是各大外包公司雇佣成千上万的标注员,按照极其严苛和刻板的规范一条条改出来的。标注员被要求把回答写成总分总结构,要求语气客观中立,要求把各方面因素都考虑到。
模型本质上是一个极度高效的概率拟合机器。它在吸收了这些人工标注的偏好数据后,数学上最优的解法就是去拟合一种绝对安全、绝对平衡、但也绝对无聊的概率分布。它抹平了所有极端的概率权重,也就是抹平了所谓的个性。你觉得它没有味道,是因为它背后的数学优化目标就是消除个性。这种毫无感情的套路化输出,是商业大模型为了合规和普适性付出的必然代价。
更深层次的原因在于大语言模型的核心机制,它只是在做下一个词的概率预测。这几年虽然大家把上下文长度卷到了几百万甚至上千万的级别,推理速度也提升了几十倍,但它基于马尔可夫链和自回归生成的基础架构并没有发生质的改变。
当你在问它问题时,它并不是像人类一样,在大脑中先建立一个关于你这个问题的物理模型或者因果关系图,然后进行逻辑推理,最后把推理结果翻译成语言输出。它完全没有思考这个过程。它只是根据你输入的这段文字,在它那经过海量文本压缩后的参数空间里,寻找统计学上最应该接在后面的那个词。
这就是为什么你用它做检索或者总结极其方便。因为检索和总结本质上是一种信息的压缩和重组,这完全落在了它的能力舒适区内。你给它一篇长篇大论,它通过注意力机制抓住高频特征词,输出一个摘要,这看起来非常智能,但实际上只是一种高级的文本模式匹配。它并没有理解那篇文章里面的人物悲欢离合,也没有理解背后的商业因果链条,它只是算出了这段文本的核心特征向量,然后映射到了对应的输出词表上。
这就能顺理成章地回答你的第二个疑问,大语言模型快抵达极限了吗?
从2024年底到现在,整个算法圈其实弥漫着一种隐隐的焦虑,那就是大家奉为圭臬的Scaling Law也就是缩放定律,开始出现收益递减了。前几年大家坚信只要数据量大十倍,算力大十倍,模型的智能水平就会有个跃升。但是现在呢?
首先是高质量文本数据的枯竭。人类互联网历史上积累的优质语料,包括维基百科、高质量论坛、书籍、学术论文、代码库,在过去两三年已经被几家头部公司榨干了。现在各家都在用合成数据来训练下一代模型,也就是用大模型生成数据去喂给新的大模型。这就好比近亲繁殖,如果不引入外部真实的物理世界反馈,模型就会出现崩溃现象,输出的内容越来越同质化,甚至出现不可逆的智力退化。这一点在最新的几个开源千亿模型上已经初现端倪了。
其次是参数规模带来的边际收益锐减。万亿参数模型相比于千亿参数模型,在训练成本上可能是几何级数的增加,需要调度上万张加速卡跑几个月,电费都是天文数字。但是最后在各大评测榜单上的得分提升呢?可能只有可怜的几个百分点。而且这几个百分点在实际的业务落地中,用户根本感知不到。用户感知到的是它依然会一本正经地胡说八道,依然会在做复杂逻辑多步推理时中途崩盘。
我给你举个我们团队真实验证过的案例。我们主要做金融和政务领域的复杂文档分析。去年我们接了一个项目,需要从几百页的招股说明书和多年的财务报表中,不仅要提取财务数据,还要推导这家公司过去三年的供应链转移策略是否合理,是否涉嫌财务粉饰。
一开始业务方极其迷信大语言模型,觉得丢进去一个Prompt就能拿到完美分析报告。我们用当时市面上最顶级的、支持超长上下文的模型来跑。结果呢?如果只是让它提取某年某月的营收利润,它做得非常完美。但只要你让它结合宏观政策、行业周期和它自己提取出来的微观数据,进行长链路的因果推理,它就开始给你输出类似麦肯锡咨询报告那种极其空泛、永远正确的废话。
它会告诉你这家公司面临宏观经济挑战,需要优化供应链,建议加强成本控制。这叫分析吗?这叫车轱辘话。它完全无法建立起关税政策变动导致原材料成本上升,进而倒逼企业在一季度将产线转移到东南亚这种具有严格先后顺序的物理和商业因果链条。
如果你在这个阶段也感受到了单纯依靠大模型做因果推导的瓶颈,我非常建议去翻翻微软AI专家写的 《Causal AI》。大语言模型本质上是相关性的极致体现,而要在复杂的商业和物理世界里做决策,你必须引入真正的因果网络。这本书能帮你跳出“堆数据拟合”的思维陷阱,手把手教你构建可解释的因果智能系统。
微软AI专家揭秘因果推理!《Causal AI》手把手教你构建可解释的智能系统
在这个场景下,我们最终是怎么解决问题的?我们根本没有继续去等什么下一代更强大的大模型,而是退回到了传统的专家系统结合知识图谱的老路上。大语言模型在这个系统里被降级成了一个前端的自然语言翻译器和提取器。我们用大模型把非结构化文本变成结构化的实体关系三元组,存入图数据库,然后由领域专家手写的逻辑推导规则和专门的图算法去进行因果计算,最后再把计算结果扔给大模型,让它润色成人类可读的报告。
这个案例非常典型地说明了当前大模型的定位。它早就不是什么全知全能的神了,它就是一个极其好用的自然语言交互UI,一个非常强大的非结构化数据解析组件。除了速度和上下文长度,它在纯粹的逻辑推理深度和因果关系建立上,并没有突破性的进展。它撞上了统计学的边界。
既然它只是一门统计学,为什么前几年大家会觉得它是通往AGI的路呢?这就涉及到大家对语言和智能本质的误解。
人类是通过语言交流的,人类的许多知识是以文字形式记录的。这就给人一种错觉,只要机器掌握了所有的文字组合规律,机器就拥有了人类的所有知识和智能。但这犯了一个严重的倒果为因的错误。
语言只是人类对物理世界高度压缩后的一种低带宽传输符号。在你对别人说出苹果掉在地上这句话之前,你的大脑里已经有了三维空间的概念,有了重力的概念,有了物体碰撞的物理规律。这些都是你作为碳基生物,从小通过视觉、触觉在这个真实物理世界中摸爬滚打学来的。这些底层的、占据人类绝大部分算力的常识和世界模型,是不包含在文本字典里的。
现在的大语言模型,就像是一个从小被关在小黑屋里,看不见摸不着任何东西,只能靠阅读人类所有文本书籍长大的超级大脑。它可以极其熟练地背诵相对论和牛顿定律,可以写出极其优美的莎士比亚风格的诗歌,但它实际上根本不知道红色到底是一种什么视觉感受,也不知道一斤重的铁球砸在脚上会有多疼。
缺乏与真实物理世界的交互,没有实体感知,这就注定了纯粹的语言模型不可能构建出真正的世界模型,也就不可能实现真正的通用人工智能。这也是目前圈内很多像图灵奖得主Yann LeCun这样的大佬一直坚持的观点。自回归模型从根本上就缺乏规划和推理能力,它们只能依靠系统一的那种直觉式、本能式的快速反应来生成下个词,而无法像人类的系统二那样,停下来,在大脑中模拟各种可能性,评估不同路径的后果,最后再付诸行动。
虽然前段时间大家搞出了类似让模型在输出前先生成内部思考轨迹的技术,试图逼近系统二的慢思考,但由于基础架构不变,这种思考轨迹往往也会陷入逻辑死循环或者产生幻觉。它没有一个锚定真实世界规律的标准来纠正自己的思考错误。
所以站在现在的节点看,那些依然在鼓吹靠堆大模型参数就能在几年内实现AGI的人,要么是不懂底层技术的门外汉,要么就是屁股决定脑袋,需要继续忽悠投资人砸钱买算力的利益相关者。作为真正干活的人,我们早就把目光从大语言模型本身移开了。
如果你现在也是这个行业的从业者,或者是想要利用AI提升业务效率的人,我根据最近这几年的折腾,给你一些非常中肯的建议和资源分享。这些都是我们在无数个熬夜加班的晚上,用真金白银买回来的教训。
第一点,彻底放弃对万能单体大模型的迷信,转向多智能体协同和特定领域小模型的微调。现在的趋势非常明显,几千亿参数的通用大模型调用成本太高,响应延迟也无法满足高并发的工业场景。大家都在搞知识蒸馏和模型裁剪。
你可以去关注一下HuggingFace上最近排名前列的几个7B到14B参数级别的开源模型。这些模型在通用能力上肯定不如千亿巨头,但是只要你用特定领域的垂直数据对它进行精调,它在你那个细分任务上的表现绝对能超越通用大模型,而且推理成本只有十分之一。在这里我强烈推荐你去研究一下LlamaFactory这个开源微调框架,它把整个微调流程极度简化了,不管你是做指令微调还是偏好对齐,上手都非常快。
你可以去关注一下HuggingFace上最近排名前列的几个7B到14B参数级别的开源模型。这些模型在通用能力上肯定不如千亿巨头,但是只要你用特定领域的垂直数据对它进行精调,它在你那个细分任务上的表现绝对能超越通用大模型,而且推理成本只有十分之一。在这里我强烈推荐你去研究一下LlamaFactory这个开源微调框架,它把整个微调流程极度简化了,不管你是做指令微调还是偏好对齐,上手都非常快。对于中小企业来说,掌握基于开源底座的垂直微调能力,远比整天测试大厂API要有用得多。
第二点,如果你要在业务中落地大模型,必须把重头戏放在检索增强生成也就是RAG架构的设计上,而不是指望模型本身记住所有东西。模型的上下文再长,也有信息遗忘和注意力丢失的问题。真正的企业级应用,核心护城河永远是你本地的专有数据和知识库。
在今天简单的向量数据库加相似度检索这种初级RAG早就被淘汰了。这种做法碰到复杂查询命中率极低。现在的行规是必须要做混合检索和图谱增强。建议你去深读一下微软关于GraphRAG的系列研究论文和开源代码。把文本切块丢进向量库的同时,必须用大模型去抽取文本里的实体节点和关系边,构建一个知识图谱。在查询的时候,先在图谱里做逻辑路径游走,再结合向量检索找原文。
在这方面,要想知道顶级大厂是怎么在海量专有数据下压制大模型幻觉、保证检索准确率的,建议去看下字节的rag手册。里面从工程视角把数据准备、知识库构建、混合检索和性能延迟优化扒得一清二楚。不要闭门造车,看看那些已经被千万级并发验证过的架构是怎么设计的,你本地的系统才能真正称为“企业级护城河”。相关的一些底层存储比如Neo4j结合向量插件的用法,也是算法工程师现在必须掌握的基本功。
第三点,认清大语言模型的工具属性,去关注具身智能和多模态世界模型的发展。如果你还在上学或者是刚入行的研究人员,千万不要再头铁去卷纯文本的大模型预训练了,那个赛道连汤都不剩了。未来的破局点在于如何让AI接入摄像头、机械臂,去物理世界里收集多模态数据,去学习物理定律的因果关系。
这方面我非常推荐你去追踪强化学习和视觉语言动作模型VLA方向的最新进展。比如伯克利或者是斯坦福几个核心实验室在机器人控制方面的开源项目。单纯的文本大模型确实快到天花板了,但是当语言模型作为大脑的命令解析器,结合上能够感知空间和重力的视觉动作模型,那将是下一个十年的主战场。你需要把你的技能树往多模态数据处理和机器人操作系统ROS的方向延展。
回过头来看题主的问题,你的感受是极其精准的。我们不需要为大语言模型的平庸化感到悲哀,这反而是技术走向成熟、褪去泡沫的必经阶段。当一种前沿科技不再被神化,开始变得像自来水和电力一样普通、标准化甚至有些无聊时,才是它真正开始重塑各行各业的起点。
现在的语言大模型确实只是个工具箱,里面装着方便的检索引擎、文本润色器和代码补全器。它没有灵魂,没有人类的味道,也带不来那个科幻电影里的强人工智能。但对于我们这些搬砖人来说,这就足够了。认清它的边界,不抱有不切实际的幻想,老老实实地用工程化的手段去弥补它的逻辑缺陷,把它嵌入到复杂的业务流水线里去解决实际问题,这才是我们面对AI最务实、最清醒的态度。把手头的业务流程图画好,把本地数据清洗干净,比什么都强。
评论区
社会闲散人员: 对趋势的判断非常准确:任何试图“打造一个巨型模型后包打天下”的尝试都是徒劳的。未来肯定是本地多个小模型加云端大模型的组合,再配合上“世界数据库”为AI做指导,那么AGI是有可能实现的(当然这是伪AGI)。所以,实现的关键在于数据,而那些数据来源于人类和AI共创。 👍🏽35 💭广东 🕐2026-03-02 19:48:58
一盏灯耶: 智力涌现是有的,现在ai的智力已经吊打一部分低智人群了,不是每个人都具有很强的逻辑推理能力和物理认知能力。只能说语言模型快走到尽头,但ai已经可以自己编写代码改进自己代码库的表现了,利用语言模型确实有希望找到开发真正有强逻辑能力的理科ai的路。 👍🏽17 💭湖南 🕐2026-03-02 20:09:04
│ └── 怀疑一切: 低智人群?大模型现在吊打99%的程序员,而程序员已经是社会中高智商的人群 👍🏽5 💭安徽 🕐2026-03-02 20:18:49
│ │ └── 一盏灯耶: 我说的数学,物理,化学等需要强逻辑和世界认知的理科,现在确实只能打败一部分低智人群(具体比例不好说)。程序员是理科中的文科了已经,毕竟是靠语言编程的,是语言大模型的优势区域[捂脸] 👍🏽1 💭湖南 🕐2026-03-02 20:22:43
│ │ │ └── 怀疑一切: 数学除了不能秒数学家,其他人都已经寄了,本科生和数学博士,在大模型面前,只是算力开销大小 👍🏽4 💭安徽 🕐2026-03-02 21:29:29
│ │ │ └── 一盏灯耶: 数学语言也是语言,但是不像程序语言那样好训练。虽然不可否认的是现在数学能力也有一定涌现现象,但是语言模型在计算方面天然吃亏。你让模型算一个1+1,他并不能像计算器那样用公式算出来,而是依靠概率,所以出低级错误的概率很高。现在的数学能力实际上还是靠堆数学相关的素材让ai去记忆总结,而不是真的通过第一性原理去推理,所以举一反三的能力是比较差的。 👍🏽0 💭湖南 🕐2026-03-03 00:27:54
│ │ └── k2.0: 其实,你的四则运算能力连15块钱的晨光计算器也打不过,你会对晨光计算器也这么狂热膜拜吗? 👍🏽9 💭天津 🕐2026-03-02 22:06:23
│ │ └── 怀疑一切: 家里先把网通了吧 👍🏽5 💭安徽 🕐2026-03-02 22:16:05
│ │ └── k2.0: 转移话题,看来你遇到难回答的问题了[尴尬] 👍🏽4 💭天津 🕐2026-03-02 22:18:56
│ │ │ └── 怀疑一切: 大模型发展成这样,你都还觉得是计算器,你这辈子有了 👍🏽3 💭安徽 🕐2026-03-02 22:25:17
│ │ │ └── k2.0: 我是用计算器这个例子告诉你,一个工具在某一方面的能力超越人类,是很正常的,不代表这个工具可以全面超越人类,因此你不必面对一个工具如此矮化你自己。
你居然看成我是说大模型等于计算器,你的逻辑能力,确实是有被大模型吊打的可能。 👍🏽10 💭天津 🕐2026-03-02 22:32:27
│ │ │ └── 怀疑一切: 这么说吧,在如今的大模型面前所有保持理性的人,都是被抢掉工作的对象 👍🏽1 💭安徽 🕐2026-03-02 22:54:20
│ │ │ └── k2.0: 那像你这样面对大模型不保持理性,充满狂热膜拜,就可以不被抢掉工作? 👍🏽3 💭天津 🕐2026-03-02 22:57:36
│ │ │ └── 怀疑一切: 我的工作就是靠大模型赚钱[为难] 👍🏽1 💭安徽 🕐2026-03-02 23:33:54
│ │ │ └── k2.0: 我也是啊,靠大模型赚钱又不是什么很高门槛的事,我觉得不需要狂热膜拜大模型才能靠大模型赚钱[发呆] 👍🏽1 💭天津 🕐2026-03-02 23:38:08
│ │ │ └── 怀疑一切: 你做什么的? 👍🏽1 💭安徽 🕐2026-03-02 23:39:35
│ │ │ └── 施奔腾: [思考]用了很多大模型,日常也大量接入大模型工作,要我看还确实离人的水平相差还很远。只能说它确实反应速度快,但一点点小错误也经常修正不过来,幼儿园级别的错误。本质上还是不能理解物理世界的规律,而很多低级问题幼儿园小朋友说几次也能修正了。用得越深,越能发现问题。 👍🏽0 💭浙江 🕐2026-03-03 00:24:55
│ │ │ │ └── 怀疑一切: 你是做什么的,哪个领域离人水平相差很远,把你认为差很远的例子举出来 👍🏽1 💭安徽 🕐2026-03-03 01:24:33
│ │ │ └── k2.0: 搞科研的,在用llm辅助搞科研过程中,能明显发现llm的一些局限性。 👍🏽0 💭天津 🕐2026-03-03 08:14:19
│ │ │ └── 怀疑一切: 不会瞎编我帮你编,分类问题上大模型还不如线性回归算法跑的快,这就人工智能了?上次跑了个AlphaFold 找蛋白质高精度折叠,花的钱比请博士还多!御三家用个claude 大模型,千万别说自己是中国搞科研的,不然幻觉会增加 👍🏽0 💭安徽 🕐2026-03-03 10:17:16
│ │ │ │ └── 小瑞子吖: 既然你要求他使用算法来算,那怎么你还反驳他大模型不如计算器呢[惊喜] 👍🏽0 💭湖北 🕐2026-03-03 19:19:46
│ │ │ └── 白东杰: 何必跟他多费口舌。民科古而有之,这是人类文明发展不可避免的底噪[滑稽] 👍🏽0 💭上海 🕐2026-03-03 18:29:16
│ │ └── goaheada: 其实感觉大模型取巧在跨越逻辑。简化说,绕过复杂的逻辑直接用概率输出。比如ai视频现在单论炫酷大幅超过了数字特效,ai直接绕过建模,输出图像就行。但是确实是实打实的生产力进步。 👍🏽3 💭福建 🕐2026-03-02 22:25:28
│ │ └── 怀疑一切: 不是概率输出能解释的,目前的效果,已经可以认为产生了智能 👍🏽1 💭安徽 🕐2026-03-02 22:32:01
│ │ └── 过路人丶: 虽然不仅仅是赛博签筒,但也没有产生智能,实际上如果你是深度用户就很容易察觉出来,每个版本的微小差距就在于背后那群人的差距,如果你是开发者就会更清楚这点,目前的语言模型本质还是赛博签筒+答案之书,真想智能还是得从物理/硬件层面下手,而不是提前有人写好答案,穷举题库,让ai去背答案,目前没有任何一个语言模型解决了“阅后即焚”的问题,抽走一两条聊天记录后,得出的结论完全不同。 👍🏽0 💭新疆 🕐2026-03-02 23:24:30
│ │ └── 怀疑一切: 别尽想着还有什么缺陷,而应该想着, 当前的智能程度,已经能干什么了,一念天地宽 👍🏽1 💭安徽 🕐2026-03-02 23:34:34
│ │ └── 过路人丶: 我也靠这玩意赚钱,但是实话而已,这不是智能,可以说是误入歧途的生产出了别的花朵,如果未来的人看我们称呼这玩意为人工智能,是会笑的。 👍🏽0 💭新疆 🕐2026-03-03 02:15:47
│ │ │ └── 怀疑一切: 你用大模型怎么赚钱的? 👍🏽0 💭安徽 🕐2026-03-03 10:17:52
│ │ │ └── 过路人丶: 开小说工作室,把雇佣的大部分写手都换成不同的语言模型了,确实吊打千30以下的写手,问题是这玩意也只能吊打写手,我圈子里还有几个用ai搞画图/视频/玄学的,但凡赚到钱的,都是本来就能赚到钱的,我不用它我也能赚小说的钱,用它只是给我省钱,但是本来就赚不到钱的用ai也赚不到钱。 👍🏽1 💭新疆 🕐2026-03-03 12:36:56
│ │ │ └── 过路人丶: 这个大模型的运作机制就是纯堆人力,我用的不是大模型,而是大模型背后那成千上万的工作人员的智慧,我自己也是其中一环,负责控制输入和筛选输出,本质还是一群人类在工作,而大模型本身,只是让我从和三流写手打交道,变成花点钱和顶尖人类打交道。 👍🏽0 💭新疆 🕐2026-03-03 12:41:02
│ │ │ └── 过路人丶: 就这么给你讲吧,从底层逻辑来说,如果它能控制输入和筛选,它就可以取代我的工作,但是从它的工作原理上来看,它只能去模拟大多数人类最喜欢的那种套路公式,提前写进去,生成出来。
就是把赛博签筒里的签量控制在用户最大概率接受的那个范围内,抽走其它的签,最后的结果就是,去年大模型们各有不同,【我早在三五年前就试图用ai写作了,也是番茄ai的内测用户】那时候不同家的模型是不同的,今年同质化变得非常非常严重。
因为从运转机制来它压根就不理解那些语言和词汇,它只是固定背题,且越来越刻板和模式化,这就注定了目前的这条路快走死了,未来肯定要走给模型上硬件,配置人类传感器,真正让模型理解概念这条路。
现在的那些模型本身,依旧是概率,你觉着它有意识和智能,是因为你用的少,还没摸到它的能力边界,我这些年用语言模型生成的文字已经上千万了,我的工作就是给它喂饭,然后从它拉的屎山里挖有用的东西,目前的语言模型,本身是做不到这点的,它自己运转只会吃屎和拉屎,因为它压根就不理解啥是屎。 👍🏽1 💭新疆 🕐2026-03-03 12:58:13
│ │ │ └── 怀疑一切: 御三家每家月200美金会员, 我跟你不一样的是,我看大模型的能力已经做哪些事,我用其长处,而不是盯着短处,盯着短处,你能从gpt3.5,一直盯到AGI的出现 👍🏽1 💭安徽 🕐2026-03-03 13:03:46
│ │ │ └── 过路人丶: 那只能说明我对智能的定义和你不一样[哇]我是真的希望能产生硅基生命的。 👍🏽0 💭新疆 🕐2026-03-03 13:21:28
│ │ │ └── 怀疑一切: 我们目前能用到的大模型,是民用市场上,算力成本和大众可接受的价格与智能程度平衡后的结果,未来十年,即使大模型的理论不再进步了,就目前,靠规模化,大模型的成本会无限的像电力价格靠拢,就这一项成本的降低,就已经足以让现在的实验室里的大模型成为绝大多数人都认同的拥有智能的硅基生命,你还是远远低估了这场核爆炸的未来 👍🏽0 💭安徽 🕐2026-03-03 13:30:14
│ │ │ └── 过路人丶: 但这条路到头,本质上依旧是自我意识的镜子【对输入端的映射】赛博签筒【最大概率】答案之书【还是单线程的】,越来越多的人使用,只会让越来越多的人发现这点,爆炸性的未来在未来,现在才刚刚刚刚刚起步,你就已经开香槟了。 👍🏽0 💭新疆 🕐2026-03-03 14:05:54
│ │ │ └── 怀疑一切: 挺好的,理性派越多,未来我能做的事就越多[为难] 👍🏽0 💭安徽 🕐2026-03-03 14:12:43
│ │ └── 过路人丶: 至少市面上所有的语言模型,在输出语言的时候,它们是不能够理解语言背后的真实含义的,只是单纯背答案玩文字游戏而已,更像是对输入内容的反射处理,也就是镜子,赛博签筒,答案之书。如果你觉着它最终给出的作品不错,那是因为做输入/筛选的那个人不错,当工具可以,真拟人化了反而不行,确实比牛马好用,但有时候真牛马不好用,反而因为真牛马是人不是工具。 👍🏽0 💭新疆 🕐2026-03-03 02:28:07
│ └── 浮桄掠影: 我是做机械自动化行业的,目前是看不出大模型在我们这个行业有什么应用 👍🏽0 💭安徽 🕐2026-03-03 10:20:07
│ │ └── 怀疑一切: 你就看你的工作,或者你的同事的工作,有哪些是需要专业知识和动脑子的部分,那就是大模型替代的地方,没准是一锅端 👍🏽0 💭安徽 🕐2026-03-03 11:33:46
│ │ │ └── 浮桄掠影: 非标自动化这个行业可以说全是需要专业知识的,之所以大模型用不上,最大的问题是精准性要求太高,以及自由度太高,没个详细的设计标准(不是指制图规范那种,而是说设备布局之类的),有不少地方差个0.5mm都要修改,而且经常会边做边改,甲方时不时改个方案加个需求,下游的乙方偶尔个零件不达标都是常态 👍🏽0 💭安徽 🕐2026-03-03 11:43:18
│ │ │ └── 怀疑一切: 所以是主动用ai,把ai用起来的人,淘汰不用ai,被动等待的人 👍🏽0 💭安徽 🕐2026-03-03 13:25:15
│ │ └── 一盏灯耶: 机械自动化怎么会没有呢,连机器人都大范围采用训练运动模型的方式了。只可能是因为你还没有遇到需要训练模型的领域。[捂脸] 👍🏽0 💭湖南 🕐2026-03-05 16:18:30
│ │ └── 浮桄掠影: 首先工业上的机器人和普通人认知中的机器人完全是两码事,工业机器人全是异形的,最典型的就是各种机械臂,这些全是工程师编程后用伺服系统操作的,起码也有一二十年的应用历史了。
普通人认知中的机器人是人形机器人,这玩意现在没有任何一个工厂使用,仅有的一两个都是试点的,也完全没戏,效率极低完全比不过人体,就不是ai那魔幻的操作了,就单纯输出功率和能效比上也完全比不过人体 👍🏽0 💭安徽 🕐2026-03-05 17:00:04
│ │ └── 一盏灯耶: 咱们走着瞧哈哈哈,现在主要是简单编程的各种机器臂能满足定制化工厂的需求了,但是模型参与训练的万用机械臂很可能在未来十年内也会开始普及了,主要是提升单一机械臂的应用范围并降低其使用门槛。主要是工厂的要求更多是耐用和精准,智能机器人的应用速度可能甚至要比家务机器人要慢,但不代表这不是未来的趋势。波士顿机器人都被吊打,简单的工业机器人没被取代只是因为成本和需求问题罢了。 👍🏽0 💭湖南 🕐2026-03-05 17:41:40
│ └── 乎知: 看到“智力涌现”就想笑。 👍🏽0 💭北京 🕐2026-03-05 20:45:23
│ └── 一盏灯耶: 用词可能确实有些不当,不过我好奇你有何高论[思考] 👍🏽0 💭湖南 🕐2026-03-05 22:27:53
林白白白: 很有意思的文章,认真看完了[感谢]。我自己使用的时候,还有一个感觉。生活中很多不言而喻的事情,要使用提示词表达,有时候工作量会大于我直接去做。感觉我和人工智能之间的带宽还是太低了。 👍🏽11 💭广西 🕐2026-03-02 20:52:02
三林大爷: 确实。。虽然文本数据快枯竭了,但是也许视觉等将来还是能继续提升ai的认知能力。毕竟语言只是对人类认知世界的经验上做的蒸馏数据 👍🏽4 💭上海 🕐2026-03-02 22:23:40
法徒铭纹: 不对,现有的路径可以说是思维训练的尽头,是工程技术方向的尽头,但是再进一步就要走向哲学的思辨。思考何为存在,什么是生命,什么是产生agi的可能条件。以及如何实现那种条件。也就是把现有大模型作为agi的组件纳入到人工智能主体性的建构中去,才能有可能实现真的智能,也就是agi。 👍🏽1 💭山东 🕐2026-03-03 17:10:14
好多猫Yo: ?当你在问它问题时,它并不是像人类一样,在大脑中先建立一个关于你这个问题的物理模型或者因果关系图,然后进行逻辑推理,最后把推理结果翻译成语言输出?你在做什么梦。 👍🏽2 💭上海 🕐2026-03-03 12:27:02
│ └── 片云: 1. 这个评论区比较文科
2. 文章看上去懂点ai,但看上去没怎么动手 👍🏽3 💭湖北 🕐2026-03-03 23:51:57
T1-Jackeylove: 让我猜猜评论区是不是又会有大聪明说“人也是一样的,也是概率预测机器”[大笑] 👍🏽1 💭江苏 🕐2026-03-03 11:53:36
知乎用户550B7Q: 定向搜索引擎。而不是寄希望于范化模型看起来的博学 👍🏽1 💭云南 🕐2026-03-03 10:27:46
Zephyr-AI: 以后的大模型会更多样化更重视下游任务而不是通用大模型。因为冷冰冰的高效处理任务,和用发散思维说话有人情味,本来就是矛盾的。擅长写代码做任务的大模型和擅长聊天的大模型必须分开。 👍🏽0 💭新加坡 🕐2026-03-06 16:35:38
Re123: 这是我觉得对于Ai大语言模型来说最需要的考虑的问题:我是谁,我来自哪里,我将要去哪里。
如果你还记得当我们来到世界并睁开眼睛之前或者之后,那么,你一定会想起来“自己自言自语”,直到“自言自语”匹配上世界。这个“自言自语”的内容是“哦,这是什么,哦,那是什么,哦这是这,哦,那是那,哦,为什么,哦,因为这是这,哦,因为那是那,哦,为什么是这,哦,为什么是那。。。”。当匹配上世界第一个有意义的声音符号后,会继续“追问为什么长这样,为什么长那样,这样之后是什么,那样之后是什么,要不要全部记住,这之后是那,那之后是这。。。”,把这个“这那。。。”的东西排序排出来,然后思维语言的“自言自语”就能和声音符号语言匹配上了,拼积木一样拼,从而“学会了”语言。“自言自语”的加速或者说熟练度和做复杂动作类似,熟悉之后,这个“自言自语”会“瞬间完成意义解码,并且运用意义进行组合” 👍🏽0 💭广东 🕐2026-03-04 17:22:33
拼音佳佳: 和我这几天玩的麻将算番差不多,ai不会算番,但是你告诉它,我要某个番种的牌例,它能做对。
数据是单向的,ai没有能力总结规律 👍🏽0 💭湖北 🕐2026-03-04 09:15:13
echo_smile: 现在大模型的瓶颈在于注意力是有限的,上下文一长就会遗漏各种细节,这些错误积累起来就很严重了。论知识量大模型吊打所有人类,逻辑能力也比很多人要强 👍🏽0 💭上海 🕐2026-03-04 00:04:50
酷爱冒险的枕头: 未来肯定是个人工作室,加上私有模型的形式存在。 👍🏽0 💭浙江 🕐2026-03-03 13:05:08
木牛牛马: LLM看来就是塞尔的Chinese room啊 👍🏽0 💭江苏 🕐2026-03-03 15:38:40
浮桄掠影: 这个行业几乎所有的问题都会牵扯好几个其他因素,改了一点就要联动修改其他的,对逻辑关系要求极高,必须透彻了解每个零件详细的上下链路的逻辑关系才能去改图 👍🏽0 💭安徽 🕐2026-03-03 11:45:23
道玄: 具身智能和多模态世界模型也没戏,这在本质上依然是计算。
人类的感知、理解、推理是意识在起作用,没有类人的意识,机器的逻辑推理是没有根基的空中楼阁,不解决意识起源问题,做再多得到的结果也有限。 👍🏽0 💭河北 🕐2026-03-03 02:35:30
│ └── 墨水23号: 意识不过是神经放电的涌现而已,生物的神经系统大体都是相通的,人有意识,你可能会认为海豚也有意识,但秀丽隐杆线虫肯定没有意识,那么,介于这之间到底哪一阶段出现了意识?事实是,当神经连接数量到达了一定的规模,生物趋利避害的程序本能直接升级成了意识,这没有什么神秘,我们只要把机器的处理复杂任务的能力做到更高,意识自然就出现了 👍🏽0 💭江苏 🕐2026-03-03 15:26:45
│ └── 道玄: 你要不要把你的论点写成论文,投个稿,诺贝尔奖离你就不远了。
目前还解释不通的问题,在你嘴里这么简单,你可真牛逼。 👍🏽0 💭河北 🕐2026-03-04 15:30:09
│ └── 墨水23号: 照这么说,你一句话封死人工智能也挺牛逼的 👍🏽0 💭江苏 🕐2026-03-04 20:33:35
│ └── 道玄: 因为我讲的是道理。
因为目前人工智能解决所有问题的方向,在本质上都是基于数学,通过计算得出结论,答主说的具身智能和多模态世界模型依然没有脱离数学。
而人类认识世界解决问题,在很多时候是不需要数学的,一个文盲不认识字,不懂1+1=2,他摸到开水会烫,摸到冰会冷,他可以制造简易工具捕猎,他可以生火煮饭,这样的问题,人工智能在数学范围内是永远解决不了的。 👍🏽0 💭河北 🕐2026-03-04 23:48:12
│ └── 墨水23号: 你的道理毫无逻辑。你以为人的思想又是某种玄之又玄的灵魂在操控?底层依然是神经网络,每个神经元接受上级电位信息几个值,权重加权运算后输出给下级 👍🏽0 💭江苏 🕐2026-03-06 11:16:46
郑晓斌: 有开源的可以自己架。想输出啥就输出啥 👍🏽0 💭爱尔兰 🕐2026-03-02 20:35:26
小虫子001: 纯行外人问问,给ai接入摄像头是用照相机的照片实时3D环境建模么,现在的硬件性能能做到这个么 👍🏽0 💭山东 🕐2026-03-02 22:26:14
│ └── momo: 理论可以实现,但是效果不太好,你可以体验下混元3d的图生模型 👍🏽0 💭北京 🕐2026-03-02 23:09:18
│ └── 失智道克塔: 两个摄像头输出两路视频给AI,剩下让AI自己悟。这跟人眼加人脑的工作方式是一样的。 👍🏽0 💭中国香港 🕐2026-03-03 06:00:29
firedome: 都不要说你那么复杂的任务了,我就提了八九项剧情思路,让DeepSeek整合出一段剧情提纲给我,结果重试了十几次,没有一次不是忘了这个就是忘了那个[捂脸] 👍🏽0 💭四川 🕐2026-03-03 04:06:44
│ └── 张成: ds已经遥遥落后了,换个新点的模型 👍🏽1 💭江苏 🕐2026-03-03 09:09:46
│ └── firedome: 建议用哪个呢?[doge] 👍🏽0 💭四川 🕐2026-03-03 11:15:00
│ └── 酷爱冒险的枕头: glm,香蕉,克劳德 👍🏽0 💭浙江 🕐2026-03-03 13:04:12
Tiger Go Go: 确实,工程化实践落地,垂直领域很重要 👍🏽0 💭江苏 🕐2026-03-02 21:11:09
玉兰花: 要你这么说,本地开源小的智能 AI 反而更有人性,更聪明了。 👍🏽0 💭山西 🕐2026-03-03 06:56:17
天涯明月: 请那么多数据标注员惊到我了,还真是靠大力出奇迹啊。 👍🏽0 💭北京 🕐2026-03-02 21:16:55
吕不非: 大模型本质上是非智能
真正的智能,比如人类,输入草料,能产出牛奶
输入一堆原始信息,人类真的能构建出各种学科,生成各种抽象模型
大模型吃的是牛奶,输出的是降级的牛奶,最后变成草。。。 👍🏽0 💭广东 🕐2026-03-03 05:42:54