Stavo guardando questo video sui valori massimo e minimo di numeri interi con segno.
Prendi un esempio di un valore con segno positivo - 0000 0001 Il primo bit indica che il numero è positivo e gli ultimi 7 bit sono il numero stesso. Quindi è facilmente interpretabile come +1.
Ora prendiamo un esempio di un valore con segno negativo - 1000 0000 che risulta essere -8. Ok, il computer può capire che è un valore negativo a causa del primo bit, ma come diavolo capisce che 000 0000 significa -8?
In generale, come vengono memorizzati / interpretati in un computer i valori con segno negativo?