「日本語」间隔复习进度追踪-20240207
可能的技术 TODO: 记录相关的技术改进需求
- 紧急 制作一批 N5 ~ N1 的词汇闪卡. 思路:
- 数据集, 暂时参考fluentu
- 语音包, 使用 google translate 的半公开 API. Cloud API 价格不贵, 但是无法正确处理 日语的音变. 如 ここに, 音变后的发音是 kogoni, 而不是 kokoni.
https://translate.google.com/translate_tts?ie=UTF-8&client=tw-ob&tl=ja&q=%E3%81%93%E3%81%93%E3%81%AB
- 基于 这里 词汇量,快速统计: N1 3000, N2 2500, N3 2000, N4 1500, N5 1000
- 问题: 日文汉字; 答案: 日本罗马音标 + 中文英文双语翻译 + Google 音频.
- 可以用 GPT4, 单独找出有严重含义差异的汉字词组, 不成熟的提示词如下:(效果出奇的好. 感兴趣的童鞋,可以试一下 金玉满堂 的 金玉.)
(system角色) 用户后续将直接输入日语汉字. 你现在是一个精通中文和日语的老师. 将根据给定的汉字在中文和日语中的含义和使用场景的相似情况, 给出合适的回复. 每次回复, 都必须是标准JSON数据, 且不以非JSON格式返回任何其他内容. 数据内应包含相似度(满分100,完全相似), 中文的含义和使用场景, 日语中的含义和使用场景.
- 加个循环播放的按钮, 点击循环播放.
- 用途: 辅助单个句子的影子跟读.
- 备选方案: 最好单独加个大大的 循环播放的按钮.
- 制作下影子跟读的材料. 将对应音频 + 文本, 都制作确认好.(第一期, 先制作10个.)
- 有版权顾虑, 所以大概率不会公开自己的成果物.
- 制作方法, 会另外开技术帖子, 单独表述.
- 待修正素材记录:
- 伊藤と。 缺失了后半句.
- 待定,建议做: 为每个卡片文本, 制作一个基于 Google 翻译的离线语音包, 供有歧义时,快速参照使用.
核心目标
- 旧卡片, 复习完毕.(DONE)
- 新课程学习 1课.(MISS)
- 当课新卡片 新学习.(MISS)
- 实验性质 2月份独立进行的影子跟读试验, 每天15分钟, 开始与结束各自录音对比.(MISS)
- 实验性质 本周(2.5 ~ 2.11) 记忆 2~4次词汇, 每次30分钟左右. 评估下词汇记忆的效果和进度.如有帮助, 最好能尽快熟悉 N1~N5所有词汇.(MISS)
今日进度(全天动态补充):
- 初始待复习卡片: 155
- 第 1 轮复习后剩余: 110, 耗时 35 分钟
- 第 2 轮复习后剩余: 58, 耗时 64 分钟
- 第 3 轮复习后剩余: 14, 耗时 51 分钟
- 第 4 轮复习后剩余: 0, 耗时 11 分钟
- 总耗时: 约 161 分钟
- 平均速度: 0.96个 / 分钟
学习心得和感悟(全天动态补充.纯感受.不保证正确性.):
-
我怀疑自己以前背英语单词的方法, 可能是错误的. 真有必要记忆拼写细节吗?!?
- もう一度言って下さい。, 罗马音标是 mo ichido itte kudasai.. 其中 moi 连读了;分开读, 会非常拗口.
- 这是使用了影子跟读时, 发现的发音细节.
- 不是说其他方式, 一定发现不了这个细节, 但是影子跟读, 在一定程度上提高了发现声音细节的概率或者说效率.
- 技术次层面, 影子跟读, 应该是提升了 语音信息的权重, 让大脑给予了更多的时间片.
- 跑个题: 有点像扔帕鲁球捉帕鲁. 能否捉到, 同时受概率和运气的影响; 但是高阶的帕鲁球,往往拥有更高的捕捉处成功率.
- 影子跟读时, 声音重合的一致程度的高或者低, 能更容易被察觉; 重合度低, 说明发音不一致.
- 为了避免不必要的焦虑, 我要再次重申: 听不清没关系, 说错了没关系, 读错了也没关系. 总会听清的. 而且, 如果语调节奏正确, 或许压根不会有人注意到自己的某个音节发音有点差异.
- 時間 的发音, 更接近 jigan, 还是 jigang?
- 答案: 都可以. 我听了几个母语人士的音频, 两种声音都有听到. 我自己相对会倾向于 jigang.
- 真遇到时, 音频中怎么读的, 就跟着读就行了.
- 我未来最终会怎么说, 大概率取决于第一个经常和我说这个词的日语母语人士.
- 大段文字的影子跟读,应该是建立在初步理解的基础上, 即已经解决了单词和句子级别的影子跟读.
- 因为无法被识别的声音,大概率会被大脑归类为噪音, 降级降权处理与存储.
- 对于不识字的人,是大脑建立了声音和影像之间的联系, 进而间接记忆了语音;但后者的建立过程,应该是相对低效率, 且相对死板的.
- 更进一步: 会说某种语言, 和用某一种语言把某个问题给说明白, 后者才是我需要的能力.
- 即: 过于琐碎的发音细节, 我没必要投入精力关注. 我没必要去假装日语母语人士, 我也不应将日语中不夹杂任何汉语口音,作为训练目标. – 如果我非要这么做, 就有点像, 一个东北人, 努力想压制自己普通话中的东北风味 — 一件没有任何意义的事; 相反, 在能表达清楚,互相能听懂的前提下, 适当的其他方言的特色, 反倒更加能彰显说话者的独特腔调与品位.
- 基于以上讨论, 我应该尽快寻找和建立与日语母语人士的沟通渠道. 我无法可靠地把握判断发音细节,有无必要深究的标准. 我需要在实际的交流中, 去真切地感受这个 标准 或者 界限.
-
作为一个基础的规则, 后续以 Google 翻译的日语发音, 作为基础版本. 辅以 fluentu 上收集的母语人士的发音. 每个词都查 fluentu, 速度上有点慢了.
- 影子跟读时, 如果大脑认为自己还没准备好, 就尊重它, 让它用自己熟悉的方式, 先熟悉下素材.
- 这一条有争议. 有一种观点认为: 应该完全忽略语义, 只记忆声音.
- 基于我的自身体验, 完全忽略语义, 会导致学习过程无法连续性的进行. Level1, 是我较为熟悉的日常内容, 偶尔有些生词, 也没有刻意记忆;但是来到 Level2, 明显感觉异常吃力, 最后到了, 已经无法可靠地复述声音的地步.
- 截至目前, 我倾向于我的观点, 可能更接近于事实, 即: 大脑在单位时间内, 能处理的陌生信息, 是有限的; 对于熟悉的信息, 大脑自己有办法加速对应的复述或者使用技巧的提升.
- 影子跟读生效的原理, 可能不是影子跟读本身, 而是借助了大脑本身的模仿能力.即: 影子跟读, 本质上是设法突出了某个有差异的音节, 供大脑自己去想办法去模拟.至于大脑如何模拟, 或许我们不用关心.
- 原始的感想: 大脑会自己尝试不同的方式,以尽可能模仿发出类似的声音…或许根本不用什么发音法则…不然 小孩子 永远不会学会发音了
- 如果我的推测正确, 这个方式可能会生效的的核心是: 释放大脑的模仿力.
- 更一步: 我做的所谓算法训练, 本质上, 也只是放大了某一部分 现实(客观问题) 和 主观 (大脑已知) 两者之间的差异, 进而给大脑创造机会, 去关注这个差异, 进而 模仿 或者尝试解决这个差异.
- 我无法保证我能听懂很多东西, 但是我能听 清 的音节, 越来越多了. 而每一次自己能真正听清的音节, 也展示出了 可复用性,即: 只要听清过一次, 后续再听到,就能很清晰地分辨出来.
- 这一点, 我是十分意外的.我原来以为一句子会掩盖词语的音节, 导致我不得不在每个独立的场景和句子中, 去独立区分出同一个音节.
- 冷たいです。,快速 影子跟读,更更容易捕捉到发音差异. 比如 此处的 た, 其实发音是 da, 而不是 ta.
- 影子跟读时, 要坦然面对有差异的地方.
- 听不出来, 也没关系, 总会听出来的.
- 能听出来, 那就是一个进步的阶梯呀阿! 哈哈哈.
- 影子跟读体会: 发音 差异, 有可能不是 听出来, 而是 感觉 出来的.
- 就像玩拼图,直接拿可能相似的模块 去比对,要比在大脑中去计算各种细节,要直观和准确的多. 这个时候, 我们不是 看出了 差异, 直接直接快速 试 出了差异.
- 影子跟读, 某种程度上, 就是在尝试将 拼图块 尝试拼到拼图上. 与其去耐心 聆听, 不如直接各种声音方式都试下, 看看哪种更接近.