分解
文字を構成要素にマッピングする処理。正規分解は意味を保持し(é → e + ◌́)、互換分解は意味が変わる場合があります(fi → fi)。
What Is a Decomposition Mapping?
A decomposition mapping tells you how a Unicode character can be broken down into a sequence of simpler characters. There are two kinds:
- Canonical decomposition: the character is identical in meaning and rendering to its decomposed sequence. For example, U+00E9 LATIN SMALL LETTER E WITH ACUTE (é) canonically decomposes to U+0065 LATIN SMALL LETTER E + U+0301 COMBINING ACUTE ACCENT.
- Compatibility decomposition: the character is only compatible (semantically similar, possibly different appearance) with its decomposed sequence. For example, the ligature U+FB01 fi (fi) compatibility-decomposes to U+0066 f + U+0069 i, and U+00B2 ² (superscript two) decomposes to U+0032 2.
Normalization Forms
The four Unicode Normalization Forms are defined in terms of decomposition and canonical composition:
| Form | Decomposition | Composition |
|---|---|---|
| NFD | Canonical | No |
| NFC | Canonical | Yes (canonical) |
| NFKD | Compatibility | No |
| NFKC | Compatibility | Yes (canonical) |
import unicodedata
samples = [
("\u00E9", "é e+acute"), # canonical
("\u00C5", "Å A+ring"), # canonical
("\uFB01", "fi fi ligature"), # compatibility
("\u00B2", "² superscript 2"), # compatibility
("\u2126", "Ω OHM SIGN"), # canonical → U+03A9 GREEK CAPITAL OMEGA
]
for char, label in samples:
raw = unicodedata.decomposition(char)
nfd = unicodedata.normalize("NFD", char)
nfkd = unicodedata.normalize("NFKD", char)
nfc = unicodedata.normalize("NFC", nfd)
print(f" {label}")
print(f" decomposition() raw : {raw!r}")
print(f" NFD : {[f'U+{ord(c):04X}' for c in nfd]}")
print(f" NFKD : {[f'U+{ord(c):04X}' for c in nfkd]}")
print(f" NFC : {[f'U+{ord(c):04X}' for c in nfc]}")
The unicodedata.decomposition() function returns a raw string from UnicodeData.txt. A leading tag in angle brackets like <compat>, <font>, <circle>, <wide>, etc. indicates a compatibility decomposition; no tag means canonical.
Practical Implications
Search and indexing: NFKC normalization lets you match file against file or 2 against 2. Many search engines apply NFKC before indexing. Security: Compatibility decomposition can reveal confusable characters—U+2126 Ω and U+03A9 Ω look identical and are canonically equivalent, so an application that compares usernames should normalize first. Identifiers: Python 3 uses NFKC for identifier normalization (PEP 3131).
Quick Facts
| Property | Value |
|---|---|
| Unicode property name | Decomposition_Mapping |
| Short alias | dm |
| Types | Canonical, Compatibility (13 tags: <compat>, <font>, <circle>, etc.) |
| Python function | unicodedata.decomposition(char) → raw string |
| Normalization function | unicodedata.normalize(form, string) |
| Forms | NFD, NFC, NFKD, NFKC |
| Spec reference | Unicode Standard Annex #15 (UAX #15) |
関連用語
プロパティ のその他の用語
文字が最初に割り当てられたUnicodeバージョン。システムやソフトウェアバージョン間での文字サポートを判断するのに役立ちます。
Unicode property (UAX#11) classifying characters as Narrow, Wide, Fullwidth, Halfwidth, Ambiguous, or …
Unicode property controlling how Arabic and Syriac characters connect to adjacent characters. …
Unicode property listing all scripts that use a character, broader than the …
文字を大文字・小文字・タイトルケースに変換するルール。ロケール依存の場合があり(トルコ語のI問題)、1対多のマッピングもあります(ß → SS)。
文字が属する文字体系(例:ラテン、キリル、漢字)。Unicode 16.0は168個のスクリプトを定義し、Scriptプロパティはセキュリティと混在スクリプト検出に重要です。
サポートしていないプロセスで目に見える効果なく無視できる文字で、異体字セレクター・ゼロ幅文字・言語タグなどが含まれます。
名前付きの連続したコードポイント範囲(例:基本ラテン = U+0000〜U+007F)。Unicode 16.0は336個のブロックを定義し、すべてのコードポイントはちょうど1つのブロックに属します。
RTLコンテキストでグリフを水平に反転すべき文字。例:( → )、[ → ]、{ → }、« → »。
すべてのコードポイントを30個のカテゴリ(Lu・Ll・Nd・Soなど)の1つに分類する体系で、7つの主要クラス(文字・記号・数字・句読点・記号・区切り・その他)にグループ化されています。