Medidas informáticas

  Del mismo modo que existen medidas para otros ámbitos de la vida, como la longitud, el peso, la altura, la economía, u otras, también se dan ciertas medidas en el ámbito informático, que es con el que funcionan los dispositivos informáticos (ordenadores, teléfonos móviles, tabletas, etc.).
  Los tipos de medidas de la informática más habituales son las referentes a la capacidad de almacenamiento de la información, la de la velocidad de procesamiento, y la de la tasa de transferencia de datos, pero aquí también se verá alguna otra medida interesante y útil para el usuario de dispositivos informáticos.
   Conocer cómo son realmente este tipo de medidas es importante para poder evaluar ciertos rasgos de los equipos informáticos que afectan a su rendimiento, y para poder tener una base sobre la que comparar y comprar piezas de repuesto cuyo rendimiento tambien depende de las mismas.

CAPACIDAD DE ALMACENAMIENTO

  Al trabajar con información binaria, un dispositivo informático tiene al bit como unidad mínima. Un bit [acrónimo del término inglés Binary digit ("dígito binario", en español)], o bitio, como también se le llama, es un dígito del sistema de numeración binario; esto significa que, al contrario que en el sistema de numeración decimal (donde se emplean 10 dígitos, o símbolos), se usan sólo dos dígitos, el "0" y el "1". Por lo tanto, se trata de la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información, y se representa con una "b".
Conversión básica del sistema binario al decimal
  La siguiente unidad está formada por 4 bits, y se llama nibble. Esta unidad, representada con "nb", es el conjunto de cuatro dígitos binarios, por lo que 1 nb equivale a 4 b. Generalmente, el nibble, o tetrade, se utiliza para describir la cantidad de memoria utilizada para almacenar un dígito de un número almacenado en Decimal codificado en binario [estándar para representar números decimales en el sistema binario, en donde cada dígito decimal es codificado con una secuencia de 1 nb; "Binary-Coded Decimal" (BCD), en inglés] en un ordenador central de IBM. Esta técnica se utiliza para reducir los requisitos de espacio, haciendo la computación más rápida y la depuración más sencilla. Un byte de 8 bits es dividido en mitades, y cada nibble se utiliza para almacenar un dígito. El último nibble de la variable se reserva para el signo. Así una variable que puede almacenar más de nueve dígitos se "empaquetaría" en 5 bytes.
  Si se siguen sumando bits se llega a la siguiente medida de información, el byte, u octeto, cuyo símbolo generalizado es "B", aunque tiene otros. Esta unidad de información es la unidad de información de base utilizada en computación y en telecomunicaciones, y que resulta equivalente a un conjunto ordenado de 8 b (normalmente). Los prefijos utilizados para medidas de byte normalmente son los mismos que los prefijos del Sistema Internacional empleados para otras medidas, pero tienen valores ligeramente distintos al estar basados en potencias de 1.024 (210); por ejemplo, si un disco de DVD tiene escrito que su capacidad es de 4'7 GB, no equivale a su número de bytes correspondiente, sino al equivalente a 4'38 GB, ya que en esos dispositivos siempre habrá bytes de menos. La tabla de medidas del byte es la siguiente:
  Como puede comprobarse, para calcular de menor a mayor medida se divide la cantidad entre 1.024, mientras que para hacer lo contrario hay que multiplicar el valor por 1.024.
  Conocer los bits y sus derivados puede ayudar al usuario a comprender la potencia de la memoria RAM, la arquitectura de su procesador, el peso de los archivos y programas de cualquier tipo, o la potencia de su tarjeta gráfica, por ejemplo.

VELOCIDAD DE PROCESAMIENTO

  La velocidad de procesamiento de un dispositivo informático es la inversión de tiempo que utiliza para realizar una tarea individual, con lo que su medición permite saber cuántas tareas haría este en un segundo. Esas tareas pueden ser, desde enviar un bit, o varios, por un canal de datos en un sistema digital de comunicaciones, hasta hacer una operación básica (suma, desplazamiento,...) en el caso de un procesador. Esta velocidad se mide en ciclos por segundo o hercios ("hertz", en alemán; en honor al físico  Heinrich Rudolf Hertz, descubridor de la propagación de las ondas electromagnéticas), representados por "Hz".
  La siguiente tabla muestra los múltiplos del hercio en el Sistema Internacional:
  Un usuario que sepa algo sobre esta medida informática puede fijarse en las características del microprocesador de cualquiera de sus dispositivos informáticos y entender a qué velocidad van y saber así si le conviene cambiarlo, o bien comparar distintos procesadores.

TASA DE TRANSFERENCIA DE DATOS

  Conocida en inglés como "bit rate", es la cantidad de información (bits) que se puede transferir en una unidad de tiempo (segundo), es decir, la velocidad que alcanzan los datos por un canal. Esta característica del dispositivo informático se mide en bits/segundo, que se representan con el símbolo "bps", y se calcula empleando la siguiente fórmula:
Transferencia máxima (MB/s) = (frecuencia x número_bits_bus) / 8
  Prácticamente todas las partes de un dispositivo informático tienen una tasa de transferencia de datos, por lo que saber reconocerla y calcularla permite al usuario detectar posibles fallos en esas piezas (si la cantidad de transferencia actual es muy baja con respecto a la inicial, o si se interrumpe, por ejemplo), o hacer comparaciones entre el mismo tipo de pieza a la hora de adquirir una nueva (comparación entre dos lápices de memoria, por ejemplo).
  Los múltiplos de los bits/segundo son los siguientes:

IMÁGENES

  Otra medida que se suele utilizar en informática se refiere a las imágenes digitales. El píxel [acrónimo del inglés "picture element" (elemento de imagen)] es la menor unidad homogénea en color que forma parte de una imagen digital, su símbolo es "px". Los píxeles son los puntos de color (siendo la escala de grises una gama de color monocromática). Las imágenes se forman como una sucesión de píxeles. La sucesión marca la coherencia de la información presentada, siendo su conjunto una matriz coherente de información para el uso digital. El área donde se proyectan estas matrices suele ser rectangular. La representación del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un área homogénea en cuanto a la variación del color y densidad por pulgada, siendo esta variación nula, y definiendo cada punto sobre la base de la densidad, en lo referente al área.
  Un píxel, comúnmente, se representa con: 8 bits (28 colores), con 24 bits (224 colores; 8 bits por canal de color) o con 48 bits (248 colores).
  La utilidad de conocer las medidas en píxeles reside tanto a nivel de archivos de imagen, tanto de imagen fija como de vídeo, como a nivel de resolución de pantalla. Para saber el número total de píxeles de una imagen o resolución de pantalla, basta multiplicar el ancho de la imagen máxima que puede generar por el alto de la misma; también es posible dividir el número de píxeles de ancho entre el número correspondiente al alto, y conocer la proporción de la imagen obtenida.
  Los múltiplos más habituales del píxel son el megapíxel (Mpx; 1.000.000 px), y el gigapíxel (Gpx; 1.000.00.000 px); ambos se utilizan para expresar la resolución de imagen de cámaras digitales.


No hay comentarios:

Publicar un comentario

Deje aquí su comentario, si no puede comentar, pruebe a hacerlo desde otro navegador de red u otro equipo.