首页
论坛
Yoo趣儿
›
编程语言
›
Python
›
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些 ...
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些库和工具
查看
65
|
回复
1
作者:
xiaohundun
发布时间:2023-5-26 17:31:03
我看很多都不更新了,比如 jieba
想找到一个相对活跃的
另外有没有一些 NLP 教程推荐的
NLP
,
分词
,
词性
,
jieba
相关帖子
•
分词器,哪个效果更好?
•
实现一个企业内部知识库的问答机器人
•
张少涵教程:Python词云制作——以HOH言论为例
•
elasticsearch/lucene 怎么优化多语言搜索?
•
哪个分词最好用 推荐个吃cpu和内存尽量少点的
•
有没有支持剪贴板分词功能的精简版[受
•
PHP使用PhpAnalysis进行分词 如何用的?是这样写吗
•
那么多seo都在搞培训我也来搞给seo培训,第一章seo起源
•
明年的工作如何开局?愁坏了
•
一直在找的英语单词翻译 API,自己做出来了
superbase
2023-5-26 17:32:00
https://github.com/hankcs/HanLP
一直在更新,也很多年了。可以试试
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
周末外出,带上电脑继续更新网站
rtsp 的海康威视的视频流如何在网页上显示
请问有没有面向对象的Jscript的书?
DNS服务器配置异常,请到域名注册管理处检
这就是风口
今年域名是不是不好卖了
Linux .do 开放注册
几千元的自动扫地机是不是爆利??????
小红书老外太多了
看到一位坛友找了个比自己大2岁还带个5岁的
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部