请问使用LAC分词,怎么返回词语在原句子中的位置信息?(tokenize)
Created by: LeeYongchao
例如在jieba分词中可以这么用: jieba.tokenize(u'永和服装饰品有限公司', mode='search')
word 永和 start: 0 end:2 word 服装 start: 2 end:4 word 饰品 start: 4 end:6 word 有限 start: 6 end:8 word 公司 start: 8 end:10 word 有限公司 start: 6 end:10
请问LAC中有没有这种接口?如果没有,请问哪里可以用?