Pesquisar este blog

sexta-feira, 27 de janeiro de 2012

ASCII e Unicode

Os sistemas antigos de representação de dados usam sete ou oito Bits para caracterizar os símbolos, representando, respectivamente, 128 ou 256 símbolos diferentes, enquanto um novo sistema, o Unicode, utiliza dois bytes e pode representar 512 símbolos diferentes.


Resposta: Correto.

Unicode é um padrão que permite aos computadores representar e manipular, de forma consistente, texto de qualquer sistema de escrita existente. O Unicode fornece um número único para cada caracter, não importa a plataforma, o programa ou a língua.

Os caracteres Unicode são codificados em dois bytes, ao invés de um único byte como no padrão ASCII adotado em outras linguagens de programação. Dessa forma, é possível representar um número muito maior de caracteres, permitindo abrigar diversas linguagens. No entanto, para os usuários que utilizam caracteres do alfabeto latino (como é o nosso caso), não há diferença perceptível.

A lógica interna de muitos programas legados tipicamente permite somente 8 bits para cada caractere, tornando impossível o uso de mais de 256 códigos sem processamento especial. Programas 16-bit suportam somente dezenas de milhares de caracteres. Por outro lado, o Unicode já definiu pouco mais de 107 mil caracteres codificados. 

Nenhum comentário:

Postar um comentário