V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
kenneth
V2EX  ›  程序员

关于中英文分词的疑问

  •  
  •   kenneth · 2013-06-04 16:48:39 +08:00 · 3697 次点击
    这是一个创建于 4195 天前的主题,其中的信息可能已经有所发展或是发生改变。
    文章中混合有英文,中文的用什么词库分词呢。
    9 条回复    1970-01-01 08:00:00 +08:00
    alexkh
        1
    alexkh  
       2013-06-04 16:50:12 +08:00
    jieba分词?
    swulling
        2
    swulling  
       2013-06-04 16:53:22 +08:00
    Python的话,直接Google『中文分词 Python』

    中英文混合分析和中文分词有啥区别么。。多出来的英文部分不要太简单
    kenneth
        3
    kenneth  
    OP
       2013-06-04 17:11:37 +08:00
    @alexkh jieba不错,是一个中文分词,我想如何中文和英文都有,那也一样的?

    @swulling 肯定有区别。只是不知道区别在哪里。
    swulling
        4
    swulling  
       2013-06-04 17:40:30 +08:00
    kenneth
        5
    kenneth  
    OP
       2013-06-04 17:53:08 +08:00
    @swulling 感觉分词效果也不是很好,语料库还是不够。
    Eson
        6
    Eson  
       2013-06-04 18:35:45 +08:00
    分词使用的话,其效果我觉得很大程度上取决于你的词典,不然程序再怎么做也不可能尽如人意
    Hualin
        7
    Hualin  
       2013-06-04 18:58:01 +08:00   ❤️ 1
    先对原文进行正则表达式匹配,把英文单词 数字 符号 和其他非中文字符进行 tokenize,然后把新的序列交给中文分词算法。
    比如句子
    string1:我爱 python,,,
    tokenize 为
    string2:我爱 `EN`SYM`SYM`SYM`
    然后交给中文分词,其中 EN 代表 英文单词特征,SYM代表标点符号特征
    然后进行汉字标记
    string3:SSSSSS
    其中 S 表示单独成词的标记,其他 label 可以为 B (一个长词的开始),M(一个长词的词中),E (一个长词的结束)。英文单词和数字以及标点也被认为是 S (单独成词的汉字)。
    buru
        8
    buru  
       2013-06-08 16:31:45 +08:00
    @Hualin 你好,想问一下,你有用过elasticsearch吗?可否把这个步骤也交给它进行处理?
    Gestalt
        9
    Gestalt  
       2013-06-08 20:11:40 +08:00
    看你对准确度的要求了……
    CRF++,用这个实现个中文分词然后训练语料好的话似乎召回率能到97%
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1329 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 23:29 · PVG 07:29 · LAX 15:29 · JFK 18:29
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.