ELEMENTOS DEL SISTEMA DE INFORMACIÓN
Fuente
Una
fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser
una computadora y mensajes sus archivos; una fuente puede ser un dispositivo de
transmisión de datos y mensajes los datos enviados, etc. Una fuente es en sí
misma un conjunto finito de mensajes: todos los posibles mensajes que puede
emitir dicha fuente. En compresión de datos se tomará como fuente el archivo a
comprimir y como mensajes los caracteres que conforman dicho archivo.
Tipos de fuente
Por la naturaleza generativa de sus mensajes, una fuente puede ser aleatoria
o determinística. Por la relación entre los mensajes emitidos, una fuente puede
ser estructurada o no estructurada (o caótica).
Existen varios tipos de fuente. Para la teoría de la información interesan
las fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es
posible predecir cuál es el próximo mensaje a emitir por la misma. Una fuente
es estructurada cuando posee un cierto nivel de redundancia; una fuente no
estructurada o de información pura es aquella en que todos los mensajes son
absolutamente aleatorios sin relación alguna ni sentido aparente. Este tipo de
fuente emite mensajes que no se pueden comprimir; un mensaje, para poder ser
comprimido, debe poseer un cierto nivel de redundancia; la información pura no
puede ser comprimida sin que haya una pérdida de conocimiento sobre el mensaje.5
Mensaje
Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos
que viaja por una red y cualquier cosa que tenga una representación binaria
puede considerarse un mensaje. El concepto de mensaje se aplica también a
alfabetos de más de dos símbolos, pero debido a que tratamos con información
digital nos referiremos casi siempre a mensajes binarios.
Código
Un código es un conjunto de unos y ceros que se usan para representar un
cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo
al mensaje 0010 lo podemos representar con el código 1101 usando para codificar
la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje
puede, en algunos casos, representarse con un código de menor longitud que el
mensaje original. Supongamos que a cualquier mensaje S lo codificamos usando un
cierto algoritmo de forma tal que cada S es codificado en L(S) bits; definimos
entonces la información contenida en el mensaje S como la cantidad mínima de
bits necesarios para codificar un mensaje.
Información
La información contenida en un mensaje es proporcional a la cantidad de bits
que se requieren como mínimo para representar al mensaje. El concepto de
información puede entenderse más fácilmente si consideramos un ejemplo.
Supongamos que estamos leyendo un mensaje y hemos leído "string of
ch"; la probabilidad de que el mensaje continúe con "aracters"
es muy alta. Por lo tanto, cuando realmente leemos "aracters" del
archivo la cantidad de información que recibimos es muy baja pues estábamos en
condiciones de predecir que era lo que iba a ocurrir. La ocurrencia de mensajes
de alta probabilidad de aparición aporta menos información que la ocurrencia de
mensajes menos probables. Si luego de "string of ch" leemos
"imichurri" la cantidad de información que recibimos es mucho mayor.
No hay comentarios:
Publicar un comentario