Objetivos:
|
Apresentar os conceitos básicos sobre a estrutura das informações enviadas e recebidas pelos computadores, bem como descrever os principais padrões de codificação de caracteres binários, que permitem aos computadores manipular e representar informações também na linguagem escrita.
|
Recursos e materiais:
|
Nenhum
|
Última atualização:
|
16/03/2020
|
Aulas do capítulo:
|
Fundamentos da Computação: 1. Uma breve viagem pela história dos computadores 2. A estrutura de um computador digital 3. Os sistemas de numeração: a base da computação 4. As conversões de base numéricas na computação 5. Os sinais e as operações aritméticas com números binários 6. Entendendo a codificação de caracteres binários 7. Exercícios sobre os fundamentos da computação |
Em nosso estudo sobre como os computadores processam as informações, aprendemos como as máquinas fazem para diferenciar números positivos e negativos no sistema de numeração binário, além de como elas realizam cada uma das operações aritméticas nessa forma de representação. Caso queira se tornar fera na computação, acesse nosso linke fique antenado sobre esse assunto. Falta encontrarmos a resposta de como os computadores lidam com a codificação de caracteres binários para a representação da informação no formato de texto. Para isso, conheceremos com mais detalhes os conceitos de bit, byte, palavra e códigos de caracteres
O bit, o byte e a palavra
Toda informação que enviamos para um computador (como dados a serem processados ou instruções de um programa) é interpretada pela CPU através de circuitos eletrônicos que operam informações sob a forma de tensões elétricas em nível baixo (valor 0) ou nível alto (valor 1). Damos o nome de bit (do inglês, BInary digiT) para a menor unidade de informação possível de ser enviada à CPU.
Um bit pode assumir somente valores de 0 ou 1 e, portanto, representa muito pouca informação individualmente. Dessa forma, os computadores são organizados para trabalharem com o máximo número de bits em paralelo, havendo, no mercado, modelos de 8, 16, 32, 64 e até 128 bits. Cada conjunto desses sinais em paralelo é chamado de palavra.
Como forma de ilustração, consideremos o exemplo apresentado na Figura 1. Cada algarismo 0 ou 1 representa um bit e o conjunto completo forma uma palavra, no caso, de 8 bits. Além disso, cada quatro bits formam um nybble, enquanto que a cada dois nybbles, temos um byte.

Codificação de caracteres binários
Para que os computadores possam transferir e compartilhar entre si informações no formato de texto, sem necessidade de tradução, eles precisam trabalhar com sistemas de codificação que padronizam palavras nos caracteres (letras, símbolos e números) presentes em cada idioma.
Existem diversos códigos de padronização de caracteres, como o EBCDIC (Extended Binary Coded Decimal Interchange Code – Código Decimal de Intercâmbio Codificado em Binário Estendido), o BCD (Binary Coded Decimal – Decimal Codificado em Binário), e, talvez, o mais famoso deles, o ASCII (American Standard Code for Information Interchange – Código Padrão Americano para Intercâmbio de Informações).
O ASCII utiliza 7 bits e, por isso, permite a representação de até 128 (27) caracteres. A Tabela 1 a seguir ilustra a representação dos caracteres “A”, “B” e “C” de acordo com esse código, sendo que a lista completa de caracteres representados pelo ASCII pode ser conferida nesse link.
Caractere | Binário | Octal | Decimal | Hexadecimal |
---|---|---|---|---|
A | 100 0001 | 101 | 65 | 41 |
B | 100 0010 | 102 | 66 | 42 |
C | 100 0011 | 103 | 67 | 43 |
Embora exista também uma versão estendida, o Extended ASCII, que adiciona outros 128 caracteres para a escrita de símbolos especiais, não é possível representarmos os símbolos e letras de todas as línguas escritas do mundo em apenas 256 caracteres. Como forma de contornar essa dificuldade, o código de representação de caracteres que tem ganho cada vez mais aplicação é o Unicode, um programa de codificação de bit variável que permite alternar entre sistemas de 8, 16 e 32 bits, aumentando as possibilidades de representações. Para os primeiros 128 caracteres do Unicode, a representação é a mesma do código ASCII.
Com todas essas informações, temos agora condições de darmos nossos primeiros passos e estudarmos como escrever nossos programas de computador. Para ficar por dentro das novidades que vêm por aí e aprender tudo sobre a Mecatrônica, se cadastre agora em nosso blog clicando nesse link. Estamos prontos para tirar suas dúvidas e alavancar o seu crescimento!
Referências bibliográficas
A. A. T. Maia, “Fundamentos da Computação – Algoritmos – Programação em Linguagem C”. Universidade Federal de Minas Gerais, 2013.
“ASCII Table and Description”. Online. [Acesso em 20 Fevereiro 2018]
Teste de pontuação
Teste de resposta