机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 56|回复: 0

skill是一种AI时代的工业垃圾吗

[复制链接]

2万

主题

3万

帖子

21万

积分

超级版主

Rank: 8Rank: 8

积分
212156
发表于 昨天 10:04 | 显示全部楼层 |阅读模式
本帖最后由 寂静回声 于 2026-4-16 10:12 编辑


不完全是胡说八道,确实绝大多数平台做 Skill 商店,本质就是 Web2 流量逻辑的延续:想把大模型的通用能力固化成可售卖的 "数字商品",通过抽成、流量分发和生态锁客延续平台收租模式。
通用skill确实没法在企业中应用,不同公司的 ERP 结构、财务口径、权限体系千差万别,云端封装的通用 Skill 在企业场景下几乎必然水土不服。这也是为什么现在绝大多数企业级 AI 应用,都不会用平台提供的通用 Skill,而是自己开发内部专用工具。
不同公司的 ERP 结构、财务口径、权限体系千差万别,云端封装的通用 Skill 在企业场景下几乎必然水土不服。这也是为什么现在绝大多数企业级 AI 应用,都不会用平台提供的通用 Skill,而是自己开发内部专用工具。

但skill也不是什么工业垃圾,Skill 的本质不是简单的 API 包装,它解决的是大模型本身无法解决的四个核心问题。
让大模型 "临时写代码直接调用企业核心 API",在任何合规企业都是绝对禁止的。Skill 可以提供沙箱运行、细粒度权限控制、操作审计和异常拦截,而动态生成的代码根本无法保证这些。
大模型生成的 "完美调用逻辑" 只存在于理想情况,实际中 API 会超时、限流、返回错误格式、存在各种边缘情况。经过测试的 Skill 已经踩过了所有坑,而大模型生成的代码第一次几乎必然处理不好这些问题。
很多 Skill 不是单 API 调用,而是包含多步流程、状态管理、数据转换和业务规则。比如 "生成合并财务报表" 可能需要调用 5 个以上 API,应用 10 多条公司特定的计算规则。这不是几秒钟能生成好的,每次都生成一遍效率极低且极易出错。
企业应用最看重稳定和可预测,动态生成的代码每次都不一样,出了问题根本无法排查和复现。而 Skill 是版本化的,可以测试、回滚和迭代。

文章假设 "只要有接口文档,大模型就能生成完美的调用代码",这在当前技术阶段完全不成立。
大模型经常会误解接口文档,生成错误的参数或调用方式。
对于非 RESTful 的复杂接口,如 SOAP、GraphQL 的复杂查询,生成正确率会大幅下降。
大模型无法知道接口的隐性约束,如某些参数不能同时使用、某些值有特殊含义。
生成代码的执行结果需要验证,而验证本身又需要额外的大模型调用,成本和延迟都会显著增加。

MCP 不会消灭 Skill,它会让 Skill 变得更强大、更通用。两者是互补关系,不是替代关系。
MCP 解决的是 "怎么连接" 的问题,统一的通信协议,,而 Skill 解决的是 "连接什么" 和 "怎么用" 的问题,能力的定义和封装。
即使所有系统都接入了 MCP 总线,你依然需要定义哪些能力是可用的、这些能力的参数是什么、返回什么数据,这本质上就是 Skill 的定义。
MCP 支持的 "动态能力发现",只是让 Skill 不需要提前安装,而不是不需要 Skill 本身。
MCP 本身也需要安全、权限、审计这些机制,而这些恰恰是现在 Skill 平台在做的事情。

对于个人用户和大多数简单场景,通用 Skill 已经足够好用且性价比极高。比如查天气、订机票、发邮件、翻译文档,一个通用 Skill 可以满足 99% 用户的需求。比每次让大模型生成代码更快、更便宜、更可靠。用户不需要懂任何技术,直接用自然语言调用即可。


"能看到一把手和二把手的权力博弈导致资源内耗",这是科幻小说级别的想象。
当前所有大模型,包括 GPT-5、Claude 4,都绝对不可能做到这一点。

大模型能发现 "利润率下降" 和 "人事变动频繁" 之间存在相关性,但它永远无法建立 "权力博弈→资源内耗→利润率下降" 这个因果链条。
它不知道什么是 "权力",不知道什么是 "博弈",不知道为什么两个人不和会导致整个业务线出问题。它只能在训练数据里见过无数次 "当 A 和 B 发生冲突时,C 通常会下降",然后给出一个统计意义上的猜测。

这不是 "模型不够大" 的问题,而是大模型的本质决定了它永远不可能拥有这种能力。

组织内部的权力关系、利益格局、潜规则,绝大多数都不会写在任何文档里。它们存在于人们的眼神、语气、会议上的沉默、私下的沟通中。
这些 "隐性知识" 是人类管理者最宝贵的财富,也是大模型永远无法获取的。除非你把公司里所有人的每一次对话、每一个表情都录下来喂给模型,否则它根本不可能知道谁和谁是一派,谁在给谁使绊子。

大模型能理解文字的表面意思,但它永远无法真正理解人类行为背后的动机。它不知道一个人说 "我再考虑考虑",其实是 "我不同意";不知道一个人说 "我支持这个方案",其实是 "我想趁机捞好处"。
而权力博弈的本质,恰恰就是动机和意图的博弈。一个连人类为什么要撒谎都理解不了的 AI,怎么可能看穿复杂的权力斗争?
文中描述的 "诊断直觉",是人类管理者经过几十年的实践,在大脑中形成的一种快速模式识别能力。这种能力是基于无数次成功和失败的经验,以及对人性的深刻洞察形成的。
大模型的 "直觉" 只是统计概率,它能告诉你 "历史上有 80% 的类似情况是由权力斗争导致的",但它无法告诉你 "这一次是不是"。而在真实的商业决策中,"这一次是不是" 才是最关键的。

也就是说,一个现实中的 AI 管理助手,能做到的是:
"老板,我发现华东区的利润率在过去 3 个月下降了 15%。我调取了财务、销售、人事的数据,发现同期华东区的人员离职率上升了 20%,跨部门审批的平均时长增加了 30%,而且有 3 个关键项目的进度严重滞后。历史数据显示,当这三个指标同时出现时,有 75% 的概率是组织管理出了问题。我已经整理了相关的详细数据,供你参考。"
但它绝对做不到:
"老板,华东区的利润率下降是因为总经理和销售总监不和。他们两个在争夺明年的预算,故意互相拆台,导致项目无法推进。我建议你把销售总监调到其他区,或者直接换掉总经理。"




回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2026-4-17 19:32 , Processed in 0.115737 second(s), 20 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表