人工智能涉及一些很专业的知识.我无法从专业的角度,去相对准确地判断.

最近 英伟达和微软的股票大涨, 而我关注的股票跌的一塌糊涂. 我的投资策略肯定不支持我 “追涨”; 但是对比如此强烈, 也不得不多思考和关注一些.

我最近用 ChatGPT 更多的是用来说一些可有可无的东西.它对于我, 更类似于一个 “程序员鼓励师” 的角色. 比如: 我会问它, 基于博客内容, 请分析作者的一些性格特征. 我承认, GPT4夸人, 是真的夸的人挺舒服的.不是那种简单的尬夸, 是相对能夸到点上.当然, 理智点想, 这也只能说明 GPT 的摘要生成算法, 相对更强一些.

最近在处理一些或大或小的技术问题, 大都是直接 Google 搜索的关键字. 我还是更喜欢第一手信息. 因为第一手信息不仅能解决自己的问题, 更能开阔自己的视野.

某些通用的,常规的问题, GPT 会给出更直接的答案. 但是如果改用 Google 搜索关键字, 或许会有惊喜.比如: 某个博客站, 给出了一步一步分解的图文教程.

更专业的技术问题, GPT 会犯一些无法被忽略,但是可能又无法轻易被识别的错误.我在算法练习时的体验, 已经有足够的说服力了. 当用于生产环境的代码时, 如果出了问题, 会非常让人抓狂. 从100行代码种, 找出某个细微的逻辑错误, 并不像看上去那么简单.

另外就是一些 “长尾” 场景.其实也算不上 “长尾”. 我还是倾向于怀疑: ChatGPT 采用的数据集, 导致其处理某些问题更有优势,但是另一些问题会很吃力, 甚至会来回绕圈.

我现在越来越倾向于认为: ChatGPT 是 “窃取” 了其数据集的成果, 导致让人误认为它有某种智能.一个不恰当的类比: ChatGPT 将用户输入, 转换为 特定的可能相关的关键词, 传输给 Google; 将 Google 返回的结果, 结合用户的输入, 进行二次加工, 使其更便于用户使用.

这的确是一个不恰当的类比, 它简化了过多的细节.但是这个类比,试图揭示一个最重要的问题: ChatGPT 的回答, 是自己 “生成” 的, 还是基于某些高质量高权重的已有的回答, 二次加工出来的?

这个问题,非常重要. 如果 GPT 只是基于高权重的回答二次加工, 那其实说明, 他并没有真正理解你的问题, 只是将某个更可能解决你问题的答案, 二次加工,返回给了你. 更为重要的是, 连 “关联性” 本身的判断, 可能都不是 GPT 独力完成的, 更多的是基于现实世界已有的权重. 比如: 它可能会给与来自 StackOverFlow 网站的训练素材更高的权重, 单纯只是因为网站本身的信誉较高, 而不是因为 GPT 自己的 “思考”.

如果GPT更多的是基于现实世界的答案权重的二次加工, 那就涉及到一个 先有鸡还是蛋的问题. 如果有一天, StackOverFlow 拒绝向 GPT 开放呢? 这就像,一个高超的模仿者, 如果有一天失去了模仿对象, 又该怎么办呢? 又或者说: 即使可以一直模仿, 那GPT的上限, 最多也就是被模仿的对象本身, 又能对它有多高的期待呢?

如果, 我是说如果, GPT生成的答案, 关于答案和问题的关联性是自己独力做出的, 那 英伟达和微软 或许配得上它们因为 AI 而暴涨的股价.有这种可能性吗? 我不确定.我无法从技术角度来问答. 而且 OpenAI 也没有公开相关的技术细节.从 Google 一直无法赶上 ChatGPT 的结果来看, OpenAI 使用的技术也不是简单的公开的某些 AI 相关的技术. 所以, 我怀疑问题还是出在了 数据集 上.如果某一天 OpenAI 公布 GPT4 的数据集, 或许就真相大白了.有点奇怪. 如果和技术集无关, 过去这么久了, 应该可以公开 GPT4 相关的数据集了吧.

从人性的角度, 我还是宁愿相信, ChatGPT 并不是独力分析,然后给出的答案.因为, 假如 AI 真的可以基于知识和问题,做出自己独立的分析, 那我们人类存在的意义又是什么呢?

所以说, 或许几个月后, 当 ChatGPT 无法满足大众对于 “智能” 的期待时, 英伟达和微软,股价应该会大挫吧. 那个时候的 ChatGPT, 更多的会成为一个好像会思考的 “人工智能”…一个更多只能用来逗闷子的 “AI”…