+ [PostJson下载](/doc/index)
+ #### 要点说明
+ [content-type](/doc/content)
+ [post请求Cookie格式](/doc/cookie)
+ [post请求Header格式](/doc/header)
+ #### 本地版接口说明
* [分词工具](/doc/fenci)
* [汉语转拼音](/doc/pinyin)
## 汉语分词
### 本地版下载地址
[下载地址](/doc/index)
### 分词词库下载地址
[分词词库](http://cdn.ouapi.com//dictionary)
### 1) 请求地址
```
http://你本地工具启动的ip/tool/ajaxfenci
```
### 2) 调用方式:HTTP post
### 3) 接口描述:
* 对提供的汉语进行分词,以"\t" 进行分割
### 4) 请求参数:
#### POST参数:
|字段名称 |字段说明 |类型 |必填 |备注 |
| -------------|:--------------:|:--------------:|:--------------:| ------:|
|article|要进行分词的汉语|string|Y|-|
### 5) 请求返回结果示例:
```
{
"code": 1,
"msg": "OK",
"data": "中文\t分词\t(\tchinese\t \tword\t \tsegmentation\t)\t \t指\t的\t是\t将\t一个\t汉字\t序列\t切\t分成\t一个\t一个\t单独\t的\t词\t。\t分词\t就是\t将\t连续\t的\t字\t序列\t按照\t一定\t的\t规范\t重新\t组合\t重新组合\t成\t词\t序列\t的\t过程\t。\t我们\t知道\t,\t在\t英文\t的\t行文\t中\t,\t单词\t之间\t是\t以\t空格\t作为\t自然\t分界\t符\t的\t,\t而\t中文\t只是\t字\t、\t句\t和\t段\t能\t通过\t明显\t的\t分界\t符\t来\t简单\t划界\t,\t唯独\t词\t没有\t一个\t形式\t上\t的\t分界\t符\t,\t虽然\t英文\t也\t同样\t存在\t短语\t的\t划分\t问题\t,\t不过\t在\t词\t这\t一层\t上\t,\t中文\t比\t之\t英文\t要\t复杂\t的\t多\t、\t困难\t的\t多\t。"
}
```
### 6) 请求返回结果参数说明:
|字段名称 |字段说明 |类型 |必填 |备注 |
| -------------|:--------------:|:--------------:|:--------------:| ------:|
|code|为1 代表成功|string|Y|-|
|msg|信息描述|string|Y|-|
|data|返回分词的结果|string|Y|-|