可能的技术 TODO: 记录相关的技术改进需求

  • 紧急 制作一批 N5 ~ N1 的词汇闪卡. 思路:
    • 声音, 还是建议优先找母语人士 人工录制的. 建议找下现成的 Anki 卡片, 看有没有符合要求的.
    • 数据集, 暂时参考fluentu
    • 数据集备选: https://iknow.jp/content/japanese
    • 待定.还是优先尝试找找母语人士人工制作的音频资源 语音包, 使用 google translate 的半公开 API. Cloud API 价格不贵, 但是无法正确处理 日语的音变. 如 ここに, 音变后的发音是 kogoni, 而不是 kokoni.
        https://translate.google.com/translate_tts?ie=UTF-8&client=tw-ob&tl=ja&q=%E3%81%93%E3%81%93%E3%81%AB
      
    • 基于 这里 词汇量,快速统计: N1 3000, N2 2500, N3 2000, N4 1500, N5 1000
    • 问题: 日文汉字; 答案: 日本罗马音标 + 中文英文双语翻译 + Google 音频.
    • 可以用 GPT4, 单独找出有严重含义差异的汉字词组, 不成熟的提示词如下:(效果出奇的好. 感兴趣的童鞋,可以试一下 金玉满堂金玉.)

      (system角色) 用户后续将直接输入日语汉字. 你现在是一个精通中文和日语的老师. 将根据给定的汉字在中文和日语中的含义和使用场景的相似情况, 给出合适的回复. 每次回复, 都必须是标准JSON数据, 且不以非JSON格式返回任何其他内容. 数据内应包含相似度(满分100,完全相似), 中文的含义和使用场景, 日语中的含义和使用场景.

    • 可以借助gpt,按照某种规则,给日语汉字分类. 这样或许可以加速日语学习过程.;其实直接让 gpt给个难度分类就行了;然后按照 中日相似度和难度, 综合排序. ==> 可能的排序规则: 难度, 使用频率, 中日含义相似度等.
    • 会先尝试记忆最频繁使用的 500 ~ 1000 词, 观察下效果.

核心目标

  • 旧卡片, 复习完毕.(DONE)
  • 新课程学习 1课.(MISS)
  • 当课新卡片 新学习.(MISS)
  • 每日词汇新记忆.(MISS)
  • 每日词汇复习.(MISS)
  • 每日素材修正(修正方式: 本地修改 + 清除浏览器缓存后 + 新同步到Server)(DONE)

今日进度(全天动态补充):

  • 初始待复习卡片: 80
  • 第 1 轮复习后剩余: 0, 耗时 70 分钟
  • 总耗时: 约 251 分钟
  • 平均速度: 1.14 个 / 分钟

学习心得和感悟(全天动态补充.纯感受.不保证正确性.):

  • たくさんです。さん 的发音是类似于汉字 , 而不是汉字 .
    • 音频素材 和 Google 翻译的发音, 都能佐证.
    • 将音频的声音调大, 可能相对更明显地听出这个细节.
  • 我临时有个猜想: 所谓的听力的 进步, 某种程度上, 可能指的就是耳朵对特定语言越来越敏感, 能听懂的声音细节, 越来越多.
    • 这就像: 自己家养的狗狗, 自己是很容易分辨; 如果是外人, 两个外观相似的狗狗在一起, 大概率无法准确区分.
    • 或许, 未来听力显著进步的第一个特征是, 几乎能够复述下一个日语句子; 而不是能听懂所有的日语. 因为复述短句, 只需要听清音节即可.
    • 即使是在母语中, 能听清音节, 但是听不懂对方到底想表达什么,或者用的哪个词的情况, 也很常见. 比如: 网上时不时出来一个网络热词.嘻哈大火时, 我经常听到 siger~siger~. 我认为我是能准确听懂这个音节的, 但是我无法和已有的常见词汇联系起来. 我甚至在一段时间里, 一度以为他们在谈论 LOL 中的英雄 死歌.
    • 说这些, 我想表达的是: 听力本身, 有可能是独立于 词汇 的. 听力, 可能更多的是在于大脑对语言的细节越来越熟悉, 能够越来越精确地区分出不同的音节. 而对于能不能理解, 那就必须结合其他背景知识, 来统一判定了.
    • 简言之: “听清” 和 “听懂” 是两个目标. 听力的训练目标, 应该是 “听清”, 也就需要相对细致地听更多的音频, 掌握或者说熟悉声音的各种细节; 而 “听懂”, 应该是语言的综合目标, 需要借助其他信息, 如 词汇的积累等.
  • 左へ行って下さい。(hidari e itte kudasai.) 中的 , 发音更接近中文 , 而不是 . 应该是 i-e 连读了. 特殊之处在于 ri 的发音还是完整的.所以最终听起来是 hidari ie.

  • それ 能清晰的听出是 soule. 看来提高音量, 真的很重要呀!

  • 食べませんでした 中的 , 在有的音频中, 发音很像英文”day”.
    • 我其实是有点困惑的.同一个课程,出现了多种读法.
    • 因为是不同的母语人士录制的声音, 我有些怀疑他们是不是不同地区的人.或许连他们自己都没意识到这些细微的差异.
    • 也不排除, 课程本身, 是故意为之, 让我们熟悉两种不同的发音.
    • 在日常生活中, 估计大概率大家会根据自己的习惯读. 我推测: 喜欢发出 day 音的, 大概率会将  统一按照 day 来读. 等我找到和母语人士相对合适的接触方式后, 我会耐心观察记录下.
  • 日语, 某种程度上, 有点像变成语言中的 JavaScript. 能用, 但是按照现在的编程要求看, 不是特别的现代化, 缺少了一些关键特性. 我推测: 古老的语言, 可能或多或少都有类似的问题.具体是指: 语言本身, 要远远比语言本身的语法规则更古老, 导致语法规则不宜穷举所有的特例, 最多导致非母语人士学习时, 会很困惑. 因为非母语人士会发现, 大家日常说的, 好像和语法, 并不是完全一致的; 但是又不可能指着母语人士说, 请按照书上写的发音…

  • 英語を話しましたか。(eigo o hanashimashita ka.)其中 英語 的发音, 我听起来, 更接近 艾勾, 而不是 A勾.有点奇怪, 不确定 ei 中的 i 为何没有发音.

  • 我发现一个现象: 即使是在 回响 阶段, 符合预期的声音, 一般不会有太大的波动;但是与自己预期不符合的音节, 似乎自动被放大了有些, 能显著吸引耳朵的注意力.
    • 这有点像, 我听非汉语母语人士说汉语, 总是能准确听出他们发音不 地道 的地方. 并不是我刻意去听差异, 而是大脑会自动放大那些不是很 地道 的地方. 当然, 地道 也是一个玄学. 如果一个正在说普通话的人, 突然插进来一句方言特有的词, 大概率也会被 大脑 识别出来, 因为不符合大脑的声音预期.
    • 基于此, 正式跟读前, 试听/或者说 “回响” 2~3次, 就够了. 没必要一直听. 听的再多, 大脑暂时无法感知的音节, 大概率还是无法感知; 稍不注意, 大脑还可能陷入过度聚焦,以至于啥都听不清的特殊模式中.