「日本語」间隔复习进度追踪-20240210
可能的技术 TODO: 记录相关的技术改进需求
- 紧急 制作一批 N5 ~ N1 的词汇闪卡. 思路:
- 数据集, 暂时参考fluentu
- 待定.还是优先尝试找找母语人士人工制作的音频资源 语音包, 使用 google translate 的半公开 API. Cloud API 价格不贵, 但是无法正确处理 日语的音变. 如 ここに, 音变后的发音是 kogoni, 而不是 kokoni.
https://translate.google.com/translate_tts?ie=UTF-8&client=tw-ob&tl=ja&q=%E3%81%93%E3%81%93%E3%81%AB
- 基于 这里 词汇量,快速统计: N1 3000, N2 2500, N3 2000, N4 1500, N5 1000
- 问题: 日文汉字; 答案: 日本罗马音标 + 中文英文双语翻译 + Google 音频.
- 可以用 GPT4, 单独找出有严重含义差异的汉字词组, 不成熟的提示词如下:(效果出奇的好. 感兴趣的童鞋,可以试一下 金玉满堂 的 金玉.)
(system角色) 用户后续将直接输入日语汉字. 你现在是一个精通中文和日语的老师. 将根据给定的汉字在中文和日语中的含义和使用场景的相似情况, 给出合适的回复. 每次回复, 都必须是标准JSON数据, 且不以非JSON格式返回任何其他内容. 数据内应包含相似度(满分100,完全相似), 中文的含义和使用场景, 日语中的含义和使用场景.
- 加个循环播放的按钮, 点击循环播放.
- 用途: 辅助单个句子的影子跟读.
- 备选方案: 最好单独加个大大的 循环播放的按钮.
- 制作下影子跟读的材料. 将对应音频 + 文本, 都制作确认好.(第一期, 先制作10个.)
- 有版权顾虑, 所以大概率不会公开自己的成果物.
- 制作方法, 会另外开技术帖子, 单独表述.
- 待修正素材记录:
- 伊藤と。 缺失了后半句.
-
待定,建议做: 为每个卡片文本, 制作一个基于 Google 翻译的离线语音包, 供有歧义时,快速参照使用.
- 待定: 或许可以用间隔复习法,影子跟读. 需要调整下现在的闪卡逻辑和UI.
核心目标
- 旧卡片, 复习完毕.(DONE)
- 新课程学习 1课.(MISS)
- 当课新卡片 新学习.(MISS)
- 实验性质 2月份独立进行的影子跟读试验, 每天15分钟, 开始与结束各自录音对比.(MISS)
- 实验性质 本周(2.5 ~ 2.11) 记忆 2~4次词汇, 每次30分钟左右. 评估下词汇记忆的效果和进度.如有帮助, 最好能尽快熟悉 N1~N5所有词汇.(MISS)
今日进度(全天动态补充):
- 初始待复习卡片: 40
- 第 1 轮复习后剩余: 0, 耗时 34 分钟
- 总耗时: 约 34 分钟
- 平均速度: 1.17 个 / 分钟
学习心得和感悟(全天动态补充.纯感受.不保证正确性.):
-
我选购了一个骨传导的耳机.不确定是不是智商税, 有点忐忑. 这几天,连续佩戴耳机, 即使左右耳交替, 不舒适感, 也越来越强烈.
- 我要试着相信, 相信影子跟读时, 大脑第一反应,认为自己听到的声音!
- 因为如果不是大脑的第一反应,几乎没有意义!我在和人说话时, 不可能有脑力去把各种音变重新过一遍.
- 我将尝试: 听到什么,立即跟读, 即使听到的东西和我已知的音变, 有些冲突, 有些不 统一!
- 尽量减少 反复 听. 我发现这个时候, 刻意去按照 “想象”的 发音去听, 会越听越迷糊, 好像两种发音都有点想. 这有点像: 如果我们盯着一个汉字一直看, 看着看着,可能会感觉这个汉字变得非常陌生.
-
为了培养对第一反应的信任,或许应该只允许影子跟读,屏蔽小声默读等发音方式.–需要观察下效果.
- 影子跟读,不是为了检测自己读的 对不对;而是基于慢半拍的跟读,强化原始声音信息的存储,以逐步提高对母语者声音的模仿的相似度!
- 即: 影子跟读目的, 不是为了发现 “不同”,而是为了模仿的更像.
- 我推测: 有可能是可以直接通过 影子跟读 本身得到模仿的效果的, 甚至在我们发现某种 差异 之前, 我们的大脑已经提前掌握了模仿的方法.
- 想想下,我们尝试模仿某个明星说话,最直接的方式 是什么?肯定是慢一个拍子的影子跟读. 如此,即使发音不完全一样,但也会有几分神似. 作为非母语人士,有几分神似就够了. 我又不是做主持人的.
- 显而易见, 我对第二语言的发音预期, 可能愈加趋于理智了. 第二语言,就是第二语言, 没必要将发音媲美母语者, 作为一个目标.对于大部分工作, 这个目标, 可能意义不大.
- 在不影响沟通效率的前提下, 大家都忙的不行, 有人会关注你的普通话夹杂的某种地方口音吗?