En matemáticas, los números negativos en cualquier base se representan del modo habitual, precediéndolos con un signo "−". Sin embargo, en una computadora, hay varias formas de representar el signo de un número. Este artículo trata cuatro métodos de extender el sistema binario para representar números con signo: signo y magnitud, complemento a uno, complemento a dos y exceso N.
Para la mayoría de usos, las computadoras modernas utilizan típicamente la representación en complemento a dos, aunque pueden usarse otras en algunas circunstancias.
Signo y Magnitud
Un primer enfoque al problema de representar el signo de un número podría consistir en asignar un bit para representar el signo, poner ese bit (a menudo el bit más significativo) a 0 para un número positivo, y a 1 para un número negativo. Los bits restantes en el número indican la magnitud (o el valor absoluto). Por lo tanto en un byte con solamente 7 bits (aparte del bit de signo) la magnitud puede tomar valores desde 01111111(+127)a 0000000 (0), y de aquí a 11111111 (-127). Así se puede representar números desde -12710 hasta +12710. Una consecuencia de esta representación es que hay dos maneras de representar 0, 00000000 (0) y 10000000 (-0). De este modo -43 decimal codificado en un byte de ocho bits es 10101011. Este enfoque es directamente comparable a la forma habitual de demostrar el signo (colocando "+" o "-" al lado de la magnitud del número). Algunas de las primeras computadoras binarias (por ejemplo la IBM 7090) utilizaron esta representación, quizás por su relación obvia con la práctica habitual (Muchas computadoras decimales también usaron el sistema "signo y magnitud).
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario