Pedaço

Explicamos o que é um bit, quais são seus diferentes usos e os métodos em que esta unidade de computação pode ser calculada.

Um bit é a menor unidade de informação que a computação usa.

O que é um pouco?

Na computação  , um valor do sistema de numeração binário é chamado de bit (sigla em inglês para  dígito binário , ou seja, “dígito binário”) . Este sistema é assim denominado porque compreende apenas dois valores de base: 1 e 0, com os quais um número infinito de condições binárias pode ser representado: ligado e desligado, verdadeiro e falso, presente e ausente, etc. 

Um bit é, então, a unidade mínima de informação usada pela computação , cujos sistemas são todos suportados pelo referido código binário. Cada bit de informação representa um valor específico: 1 ou 0, mas combinando diferentes bits, muitas outras combinações podem ser obtidas, por exemplo:

Modelo de 2 bits (4 combinações):

00 – ambos desligados

01 – Primeiro fora, segundo na

10 – Primeiro, segundo fora

11 – Ambos

Com essas duas unidades , podemos representar quatro valores de pontos . Agora, suponha que temos 8 bits (um octeto), equivalente em alguns sistemas a um  byte : obtemos 256 valores diferentes.

Desta forma, o sistema binário opera atentando para o valor do bit (1 ou 0) e sua posição na string representada: se ele está ligado e aparece em uma posição à esquerda, seu valor é duplicado, e se aparece à direita, cortado ao meio. Por exemplo:

Para representar o número 20 em binário

Valor binário  líquido 1 0 1 0 0

Valor numérico por posição: 168421

Resultado: 16 +0 +4 +0 + 0 =   20

Outro exemplo: para representar o número 2,75 em binário, assumindo a referência no meio da figura:

Net Binário  Valor 0 1 0 1 1

Valor numérico por posição: 4210,50,25

Pontuação: 0 +2 +0,5 +0 + 0,25 =    2 7 5

Os bits no valor 0 (desligado) não são contados, apenas os do valor 1 (ligado) e seu equivalente numérico é dado com base na sua posição na string, para formar assim um mecanismo de representação que será posteriormente aplicado aos caracteres alfanuméricos (chamados ASCII ).

Assim, as operações são gravadas nos microprocessadores dos computadores : podem ser arquiteturas de 4, 8, 16, 32 e 64 bits . Isso significa que o microprocessador lida com aquele número interno de registros, ou seja, a capacidade de cálculo que a Unidade Aritmético-Lógica possui.

Por exemplo, o primeiro computador da série x86 (o Intel 8086 e Intel 8088) tinha processadores de 16 bits, e a diferença marcante entre suas velocidades não devia afetar tanto sua capacidade de processamento, quanto com a ajuda adicional de um barramento de 16 e 8 bits, respectivamente .

Da mesma forma, os bits são usados ​​para medir a capacidade de armazenamento de uma memória digital.

Veja também: HTML