首页
论坛
Yoo趣儿
›
编程语言
›
Python
›
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些 ...
有大佬用过 NLP 做分词、词性分析么?中文方面推荐那些库和工具
查看
164
|
回复
1
作者:
xiaohundun
发布时间:2023-5-26 17:31:03
我看很多都不更新了,比如 jieba
想找到一个相对活跃的
另外有没有一些 NLP 教程推荐的
NLP
,
分词
,
词性
,
jieba
相关帖子
•
印度阿三搞出了自己的主权AI: Sarvam 105B
•
明年的工作如何开局?愁坏了
•
哪个分词最好用 推荐个吃cpu和内存尽量少点的
•
elasticsearch/lucene 怎么优化多语言搜索?
•
张少涵教程:Python词云制作——以HOH言论为例
•
实现一个企业内部知识库的问答机器人
•
一直在找的英语单词翻译 API,自己做出来了
•
分词器,哪个效果更好?
•
恳求大佬帮我制作一个淘宝标题分词的软件
•
分词泛程序
superbase
2023-5-26 17:32:00
https://github.com/hankcs/HanLP
一直在更新,也很多年了。可以试试
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
中国域名隐私保护将免费是真的吗
看来国内的AI确实没有和境外网站互通,我看
政策非常OK,诚心合作的朋友来拿钱
长期低价正版年付nyanpass商业版授权
【明盘出】狐蒂云首批日本138 16c16g 三网
Travelmapify-一个帮你抄小红书旅行计划作
又一友链站倒闭,95links
折价改邮箱出搬瓦工 44.49 刀
大部分ai没办法分析实时新闻
YT春招进行中,英雄不问出处,诚邀有志之士
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部