Spec-Zone .ru
спецификации, руководства, описания, API
|
Unicode является вычислительным промышленным стандартом, разработанным к последовательно, и уникально закодируйте символы, используемые на письменных языках во всем мире. Стандарт Unicode использует шестнадцатеричный, чтобы выразить символ. Например, значение 0x0040 представляет латинский символ A. Стандарт Unicode был первоначально разработан, используя 16 битов, чтобы закодировать символы, потому что основные машины были 16-разрядными PC.
Когда спецификация для языка Java создавалась, стандарт Unicode был принят и char
примитивный был определен как 16-разрядный тип данных, с символами в шестнадцатеричном диапазоне от 0x0000 до 0xFFFF.
Поскольку 16-разрядное кодирование поддерживает 216 (65 536) символы, который недостаточен, чтобы определить все символы в использовании во всем мире, стандарт Unicode был расширен на 0x10FFFF, который поддерживает более чем один миллион символов. Определение символа в языке программирования Java не могло быть изменено от 16 битов до 32 битов, не заставляя миллионы приложений Java больше не работать должным образом. Чтобы исправить определение, схема была разработана, чтобы обработать символы, которые не могли быть закодированы в 16 битах.
Символы со значениями, которые являются за пределами 16-разрядного диапазона, и в пределах диапазона от 0x10000 до 0x10FFFF, вызывают дополнительными символами и определяются как пара char
значения.
Этот урок включает следующие разделы:
char
тип данных.Character
, String
, и связанные классы.