首页 | 官方网站   微博 | 高级检索  
     

基于新统计量mt的汉语自动分词方法研究
引用本文:黄鑫,朱征宇,谢祈鸿.基于新统计量mt的汉语自动分词方法研究[J].微处理机,2008,29(1):107-110.
作者姓名:黄鑫  朱征宇  谢祈鸿
作者单位:重庆大学计算机学院,重庆,400044
摘    要:汉语自动分词是进行中文信息处理的基础。传统分词需要大规模加工过的熟语料库做为测试集来训练模型以获取参数,代价高昂。在互信息和t-测试差的基础上,通过将两者进行线性和非线性组合,提出了一个新的统计量mt。该统计量所需的所有统计数据直接从待切分的生语料中获得,无须大规模加工过的熟语料和人工干预,大大降低了分词成本。测试结果显示,该统计量关于字间位置的分词正确率为80.14%,比单独使用互信息和t-测试差分别提高了6.83%和7.27%。

关 键 词:分词  互信息  t-测试差
文章编号:1002-2279(2008)01-0107-04
修稿时间:2005年10月24

Statistical-based Approach to Chinese Word Segmentation
HUANG Xin,ZHU Zheng-Yu,XIE Qi-Hong.Statistical-based Approach to Chinese Word Segmentation[J].Microprocessors,2008,29(1):107-110.
Authors:HUANG Xin  ZHU Zheng-Yu  XIE Qi-Hong
Abstract:Automatic Chinese word segmentation is the basis of Chinese information processing.It is expensive for obtaining parameter to use lage-scale annotated corpus.This paper presents a new statistical measure mt,in terms of a linear and non-linear combination of two common statistical measures,mutual information and difference of t-test.All statistical data needed derived from raw corpus automatically without using lage-scale annotated corpus,which aim to decrease cost.The experimental result shows segmentation accuracy reachs 80.14%.The segmentation is better compared to using mutual information and difference of t-test singly.
Keywords:Chinese word segmentation  Mutual information  Difference of t-test
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号