首页
论坛
Yoo趣儿
›
编程语言
›
Python
›
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些 ...
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些库和工具
查看
162
|
回复
1
作者:
xiaohundun
发布时间:2023-5-26 17:31:03
我看很多都不更新了,比如 jieba
想找到一个相对活跃的
另外有没有一些 NLP 教程推荐的
NLP
,
分词
,
词性
,
jieba
相关帖子
•
印度阿三搞出了自己的主权AI: Sarvam 105B
•
哪个分词最好用 推荐个吃cpu和内存尽量少点的
•
明年的工作如何开局?愁坏了
•
elasticsearch/lucene 怎么优化多语言搜索?
•
张少涵教程:Python词云制作——以HOH言论为例
•
实现一个企业内部知识库的问答机器人
•
一直在找的英语单词翻译 API,自己做出来了
•
分词器,哪个效果更好?
•
恳求大佬帮我制作一个淘宝标题分词的软件
•
分词泛程序
superbase
2023-5-26 17:32:00
https://github.com/hankcs/HanLP
一直在更新,也很多年了。可以试试
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
AI和传统网站,各有各的道,你们没必要慌。
说不清来路的钱,见光S
穷得睡不着,怎么办
搞了个AI收录网,各位大牛有什么优化建议吗
aitokens.cn 一口价11500元交易。
我今天花一千元买4t全新硬盘主要是担心会继
现在网站这么便宜了吗
听说知乎每天也可以打卡
服务器每6个小时重启,宝塔如何实现?
马斯克新项目超级计划曝光
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部