12345678910111213141516171819202122232425262728 |
- # Integration tests for Smart Chinese analysis components
- #
- "Tokenizer":
- - do:
- indices.analyze:
- text: 我购买了道具和服装。
- tokenizer: smartcn_tokenizer
- - length: { tokens: 7 }
- - match: { tokens.0.token: 我 }
- - match: { tokens.1.token: 购买 }
- - match: { tokens.2.token: 了 }
- - match: { tokens.3.token: 道具 }
- - match: { tokens.4.token: 和 }
- - match: { tokens.5.token: 服装 }
- - match: { tokens.6.token: "," }
- ---
- "Analyzer":
- - do:
- indices.analyze:
- text: 我购买了道具和服装。
- analyzer: smartcn
- - length: { tokens: 6 }
- - match: { tokens.0.token: 我 }
- - match: { tokens.1.token: 购买 }
- - match: { tokens.2.token: 了 }
- - match: { tokens.3.token: 道具 }
- - match: { tokens.4.token: 和 }
- - match: { tokens.5.token: 服装 }
|