El CRC es un código de detección de
error cuyo cálculo es una larga división de computación en el que se descarta
el cociente y el resto se convierte en el resultado, con la importante
diferencia de que la aritmética que usamos conforma que el cálculo
utilizado es el arrastre de un campo , en este caso los bits. El tamaño del
resto es siempre menor que la longitud del divisor, que, por lo tanto,
determina el tamaño del resultado. La definición de un CRC especifica el
divisor que se utilizará, entre otras cosas. Aunque un CRC se puede construir
utilizando cualquier tipo de regla finita, todos los CRC de uso común emplean
una base finita binaria, esta base consta de dos elementos, generalmente el 0 y
1. El resto de este artículo se centrará en este tipo de composición, es decir
el ámbito binario y los principios generales de los CRC.
No hay comentarios:
Publicar un comentario