然后我的解决思路是这样:
[ol]
[/ol]
做到有动力、很快带来回报、随着工作生活的深入愈加掌握
最后将以上思路实现具体化:
后端生成生词本,使用 nlp 技术进行分析,通过当前上下文判断单词词性,比如单词:“bear”,在当前上下文是动词,那么你学习的将会是动词“忍受”的释义,而不是名词“熊”的释义
再提供个功能让用户快速筛选出自己的生词和熟词
学习流程:
难点和不足:
第一个是词库:做过背单词的都知道词库是绕不开的,如果要识别用户上传的任意素材就必须有一个很全的英语词库支撑,目前解决办法一般是,买词库(要花钱)、用开源(词库不完整)、或者直接使用版权词典(侵权风险),后面我想集成查词功能,把用户平时查词典需求给囊括进来,比如集成到 Alfred 、Raycast 方便查词,那用户查一次我就要付一次费用,那价格无法支撑,所以我的解决方案是利用 chatgpt 来生成,花了几个月的时间专研和整理了下,发现通过结合 nlp 词性分析和自我提示,最后再通过人工校对我觉得能达到一个不错的效果:
第二个问题是词性分析:目前使用的 nlp 词性分析不能百分百准确,后面会让用户可以自己更改词性,同时 nlp 词性分析速度有点慢,消耗计算机资源也很多,计划后面上 GPU 加速试试
发此文有两个目的:
[ol]
[/ol]
最后:
谢谢大家,占用了珍贵的版面,同时感谢站长提供的平台