首页
论坛
Yoo趣儿
›
编程语言
›
Python
›
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些 ...
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些库和工具
查看
180
|
回复
1
作者:
xiaohundun
发布时间:2023-5-26 17:31:03
我看很多都不更新了,比如 jieba
想找到一个相对活跃的
另外有没有一些 NLP 教程推荐的
NLP
,
分词
,
词性
,
jieba
相关帖子
•
分词泛程序
•
明年的工作如何开局?愁坏了
•
哪个分词最好用 推荐个吃cpu和内存尽量少点的
•
elasticsearch/lucene 怎么优化多语言搜索?
•
张少涵教程:Python词云制作——以HOH言论为例
•
实现一个企业内部知识库的问答机器人
•
一直在找的英语单词翻译 API,自己做出来了
•
分词器,哪个效果更好?
•
恳求大佬帮我制作一个淘宝标题分词的软件
•
印度阿三搞出了自己的主权AI: Sarvam 105B
superbase
2023-5-26 17:32:00
https://github.com/hankcs/HanLP
一直在更新,也很多年了。可以试试
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
贴子编辑
企业有一个抖音号宣传自己,就不用网站了吗
必应死活不放索引怎么办
尽管我知道:搜狗秒收技术,又有啥用,我已
大家还会继续搞网站吗?
每日一贴:不知道未来还有新人成为站长吗
35元想去注册几个,但是对比以后品相一般,
VMware Workstation Pro 12、15、16、17、2
[AI]做了个可以调用本地大模型API的安卓聊
搜狗快速收录的方法应该可以了,搜狗收录几
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部