Unidades de medidas de almacenamiento

Kilobyte

El almacenamiento de datos informáticos es una tecnología que consiste en componentes informáticos y medios de grabación que se utilizan para conservar datos digitales. Es una función central y un componente fundamental de los ordenadores[1]: 15-16
La unidad central de procesamiento (CPU) de un ordenador es la que manipula los datos realizando cálculos. En la práctica, casi todos los ordenadores utilizan una jerarquía de almacenamiento,[1]: 468-473 que sitúa las opciones de almacenamiento rápidas pero caras y pequeñas cerca de la CPU y las opciones más lentas pero menos caras y grandes más lejos. Por lo general, las tecnologías rápidas y volátiles (que pierden los datos cuando se apagan) se denominan «memoria», mientras que las tecnologías más lentas y persistentes se denominan «almacenamiento».
Incluso los primeros diseños de ordenadores, la Máquina Analítica de Charles Babbage y la Máquina Analítica de Percy Ludgate, distinguían claramente entre procesamiento y memoria (Babbage almacenaba los números como rotaciones de engranajes, mientras que Ludgate lo hacía como desplazamientos de varillas en lanzaderas). Esta distinción se amplió en la arquitectura de Von Neumann, donde la CPU consta de dos partes principales: La unidad de control y la unidad aritmética lógica (ALU). La primera controla el flujo de datos entre la CPU y la memoria, mientras que la segunda realiza operaciones aritméticas y lógicas sobre los datos.

Gráfico de unidades de almacenamiento informático

En informática y telecomunicaciones, una unidad de información es la capacidad de algún sistema estándar de almacenamiento de datos o canal de comunicación, utilizada para medir las capacidades de otros sistemas y canales. En la teoría de la información, las unidades de información también se utilizan para medir la información contenida en los mensajes y la entropía de las variables aleatorias.
Las unidades de capacidad de almacenamiento de datos más utilizadas son el bit, la capacidad de un sistema que sólo tiene dos estados, y el byte (u octeto), que equivale a ocho bits. Los múltiplos de estas unidades pueden formarse a partir de ellas con los prefijos del SI (prefijos de potencia de diez) o los prefijos binarios más recientes de la CEI (prefijos de potencia de dos).
En 1928, Ralph Hartley observó un principio fundamental de almacenamiento,[1] que fue formalizado por Claude Shannon en 1945: la información que puede almacenarse en un sistema es proporcional al logaritmo de N estados posibles de ese sistema, denotado logb N. Cambiar la base del logaritmo de b a un número diferente c tiene el efecto de multiplicar el valor del logaritmo por una constante fija, a saber logc N = (logc b) logb N.

Byte

Tiempo de lectura 2 min.Unidad de almacenamiento digital – De los bits a los megabytes10 de febrero de 2021Las unidades de almacenamiento digital son una forma de medir los datos y la información que se guardan en cosas como los discos duros de los ordenadores. Entender qué es una unidad y cómo influye en el almacenamiento de datos añade valor a su negocio. Aquí veremos qué es una unidad de almacenamiento y cómo varía su tamaño desde el diminuto Bit (b) hasta el gigantesco Yottabyte (YB).
Las unidades de almacenamiento digital son una expresión de los datos informáticos. Se utilizan abreviaturas para expresar los distintos tamaños de las unidades, como los kilobytes (KB) y los megabytes (MB) que suelen aparecer en los archivos de imágenes o música. La clave para entender cómo se clasifican las unidades de almacenamiento es comprender cómo se mide el almacenamiento digital de una empresa.
Un ejemplo de la vida real de una unidad de almacenamiento digital es cómo medimos la distancia. Si sale a correr, medirá la distancia en metros o millas. Esto es una expresión de un tamaño mayor de forma consolidada. En lugar de decirle a un amigo que has corrido 1.500 metros, probablemente le dirás una milla.

Unidades de almacenamiento informático de menor a mayor

En informática y telecomunicaciones, una unidad de información es la capacidad de algún sistema estándar de almacenamiento de datos o canal de comunicación, utilizada para medir las capacidades de otros sistemas y canales. En la teoría de la información, las unidades de información también se utilizan para medir la información contenida en los mensajes y la entropía de las variables aleatorias.
Las unidades de capacidad de almacenamiento de datos más utilizadas son el bit, la capacidad de un sistema que sólo tiene dos estados, y el byte (u octeto), que equivale a ocho bits. Los múltiplos de estas unidades pueden formarse a partir de ellas con los prefijos del SI (prefijos de potencia de diez) o los prefijos binarios más recientes de la CEI (prefijos de potencia de dos).
En 1928, Ralph Hartley observó un principio fundamental de almacenamiento,[1] que fue formalizado por Claude Shannon en 1945: la información que puede almacenarse en un sistema es proporcional al logaritmo de N estados posibles de ese sistema, denotado logb N. Cambiar la base del logaritmo de b a un número diferente c tiene el efecto de multiplicar el valor del logaritmo por una constante fija, a saber logc N = (logc b) logb N.

Acerca del autor

admin

Ver todos los artículos