随笔: 我们为什么需要 "老师"?
我们为什么需要 “老师”?
这是一个非常奇怪的问题. 但是在感受到 GPT 给予我的巨大帮助后, 我忍不住去认真地思考这个问题.
当然, 这里的 “老师”, 是广义上的. TA 当然可以学校里的老师, 但是TA也可以是任何具有辅导其他人职责的人. 比如: 考学家教, 运动员教练, 甚至公司里的 “高级工程师”, 在某种程度上, 也可以视为 新入员工的 “老师”. 为了避免不必要的对 “教师” 的冒犯, 同时也为了和 AI 学习中的一些概念相互相, 我下面统一用 “教练” 来代指广义上的 “老师”.
我认为, 我们真正需要的不是 “教练”, 而是各种场景下, 与之对应的 “教练数据”. 更进一步: 我们需要基于 “教练数据” 来确定自己的 “学习”, 是否正确,是否有偏离, 后续可能要怎样进行调整, 进而提高自己对某个知识的认识.
“教练数据”, 通常被认为是 “死” 的, 就像习题册上的答案. 答案上可能会有一些讲解,但是 “讲解” 本身, 可能并不是自己的疑惑点. 此时, 我们可能只能求助于我们的 “教练”. 在 GPT 之前, 可能是这样. 当然, 在广义上的 “学习” 活动中, 我们可以借助 Google 进一步搜索相关信息, 来佐证我们的理解, 然后尝试解答我们特有的困惑 – 但是效率, 往往不高. 我们可能遇到相似的问题, 但是我们大概率不会遇到相同的问题.
有了 GPT, 或许未来会变得大不一样. 因为它可以源源不断地实时生成新的 “教练数据”. 就好像你有了一个 “教练”, 1个24小时随叫随到的 “教练”. 或者说: 我们真正在乎的不是 “教练”, 而是与我们眼下问题, 相对应的 “教练数据”. 我们的大脑中,现在有了一个 “问题”, 我们必然也有了自己的初步答案, 但是我们需要确认下,最好是能尽快地, 同时和一个较为权威或者可靠地 “教练” 确认下 “正确的答案”.
有一部分 “教练”, 必然会被取代.具体被取代的范围, 取决于 AI 的发展程度. 以我为例, 如果没有GPT, 我大概率想加入某个付费的 算法课程, 我唯一的目的,就是希望能及时和人讨论下我的题解和思路; 但是,现在我肯定不会加入类似的课程.
一个简单的畅想: 当未来 AI 能真正理解语音和腔调时, 是不是那些以 对话练习为主业的 “教练” 也面临危机呢?
当然, 有一些显而易见的隐忧. 因为 AI 模型, 迭代之后, 可能会降低特定领域的体验. 就比如某些 3A 大作, 自以为更新了某个很重要的优化, 结果在某些系统上, 反倒更卡. 这也不是妄言. 但是, 我相信未来他们应该有一套自己的评估标准, 能相对可靠地识别 AI 模型的质量.
说实话, 现在的 AI 模型发展, 真的很奇怪. OpenAI 异军突起, 而 Google 的Bard用了那么久的时间, 还是无法追赶上(纯个人使用体验, 不同领域, 可能模型表现不一样). Apple, 现在又表现的很平静. Apple 的 Apple Vision Pro 最近正式出货了. 我现在有点怀疑, Apple 是不是在 新硬件 上投入过多, 导致压根就没有在 生成式 AI 上持续发力? 当然, 作为买不起 Apple Vision Pro 的我, 对它的新品, 也没有任何兴趣. 那个东西, 真的是面向消费市场的东西吗? 还是说, 未来几年, 世界GDP会快速发展, 然后 Apple Vision Pro 会大卖? 等我真的有钱了, 我为何不去雪场滑雪, 去健身房健身, 去电影院观看最新电影, 去和朋友聚会; 而是买 Apple Vision Pro 看各种情景的高清投影, 然后产生一种身临其境的感觉? — 有一种 酸 Apple Vision Pro 的感觉… 期待它大卖吧… 又或者说: 我现在其实就需要一个比 GPT4 更强大的GPT, 来告诉我, 我的分析, 哪里有不足.
AI 也有很多分支. 但是我相信未来能替代各种 “教练”的, 必然是 生成式AI. 因为只有生成式AI, 才有可能基于不同用户的不同特异性问题, 产生可能正确的 “教练数据”. 至于生成的 “教练数据” 本身的质量, 当然也就决定了不同平台 AI 的能力. 就像现在 Bard 也是生成式AI, 但是我一般只拿它问下无关痛痒的问题, 类似于无聊时解闷的那种存在, 和 “教练” 肯定不是一个级别的.或许今天, Google , Apple 都会有大动作吧. 毕竟他们不差钱, 应该也有办法找到合适的人.
有一个衍生的问题: AI 的知识, 有可能超越人类知识的总和吗? 或者说: AI 本身, 能生成新的知识吗? 对此, 基于我目前有限的了解, 我倾向于认为: AI 无法生成 人类 不知道的知识. 这有点像一个悖论: 如果 AI 不知道什么是正确的, 它又要依据什么, 生成正确的教练数据? – 其实,我的理解还是有点偏颇. 某种程度上, 还有看怎么定义 “知识”. 广义上, 如果数据本身的规律, 也是一种 “知识”的话, 如果数据标记的正确, AI 或许能发现新的 “知识”, 因为AI的视角,和人不太一样. 好吧. 至于重要的理论突破, 如果有现成的标记数据, 或许 AI 真的能发现…但是, 既然都有数据了, 不被人类本身识别出来的规律, 又能有多少呢…
另一个衍生的问题: 当未来 AI 足够 NB 时, 我们是否还必要学习? 什么事, 都问 AI 是不是就可以了? 应该还是要学的, 但是学习的 侧重点, 会有些区别. 首先, 我认为: 未来的学习, 侧重点, 绝对不会是 “如何写好提示词”. “如何写好提示词” 本身也应该是 AI 自己去解决的. 我不太能猜想还没发生的事, 但是我可以类比下:
在很早很早之前, 进行复杂的计算, 往往需要你有深厚的 数学 知识; 但是有了计算机后, 事情变化了, 相对一部分任务, 我们只需要了解 某一类问题,对应的数学公式子, 然后找到代码库中对应的函数名就可以了. 当然, 特定场景下还是需要知道的更深入些.
基于目前的了解, 未来可能会是一个教育高度公平, 人人都能按需学习, 然后集中主要精力做自己真正重要需要关注的事情上.就像现在: Java 引入了自动内存管理, 大家就不用整天为野指针提心吊胆了.
我其实有点困惑: 未来有可能出现一个 全知全能的 AI 吗? 一个只要你问, 就能给你合适答案的 AI. 但是那个时候, 可能会出现一个新的悖论: 你没有办法问你不知道的问题; 你没有办法判定 你不知道答案 的答案是否正确. 如果考虑到隐私和数据共享的限制, 答案会变得简单一些: 一个无法知晓所有信息的AI, 必然无法总是做出 “正确” 的回答. 想象下: 美股股票, 发财报前, 尽管有各种预测, 但是没有人真正知道财报状况. 为什么? 因为相关数据, 属于公司的机密.
基于此, 未来, 我们,或者我们的后裔, 可能不会再受到 公共知识获取 相关的限制.但是, 未来可能更加考验一个人的智慧, 谋略, 眼光; 甚至还包括一些 情绪管理, 时间规划方面的软能力的竞争. 这有点像: 很久以前, 要解决的是 “吃不饱” 的问题; 当经济足够发展之后, 要考虑的是能不能 “吃得好” 的问题.
希望未来的人, 都能实现, 网速自由, AI自由, 游戏自由, 显卡自由. 我的笔记本,带不动 3A 游戏. 我可能周末又要把 AI机, 切换回 Widnwos 系统玩游戏了.没有对比, 就没有伤害. 现在笔记本上的游戏体验, 真的完全无法接受.我这一周, 几乎都能玩…