Imagine an airplane flying one millimeter above the ground and circling the Earth once every 25 seconds while counting every blade of grass. Shrink all that down so that it fits in the palm of your hand, and you'd have something equivalent to a modern hard drive, an object that can likely hold more information than your local library. So how does it store so much information in such a small space? At the heart of every hard drive is a stack of high-speed spinning discs with a recording head flying over each surface. Each disc is coated with a film of microscopic magnetised metal grains, and your data doesn't live there in a form you can recognize. Instead, it is recorded as a magnetic pattern formed by groups of those tiny grains. In each group, also known as a bit, all of the grains have their magnetization's aligned in one of two possible states, which correspond to zeroes and ones. Data is written onto the disc by converting strings of bits into electrical current fed through an electromagnet. This magnet generates a field strong enough to change the direction of the metal grain's magnetization. Once this information is written onto the disc, the drive uses a magnetic reader to turn it back into a useful form, much like a phonograph needle translates a record's grooves into music. But how can you get so much information out of just zeroes and ones? Well, by putting lots of them together. For example, a letter is represented in one byte, or eight bits, and your average photo takes up several megabytes, each of which is 8 million bits. Because each bit must be written onto a physical area of the disc, we're always seeking to increase the disc's areal density, or how many bits can be squeezed into one square inch. The areal density of a modern hard drive is about 600 gigabits per square inch, 300 million times greater than that of IBM's first hard drive from 1957. This amazing advance in storage capacity wasn't just a matter of making everything smaller, but involved multiple innovations. A technique called the thin film lithography process allowed engineers to shrink the reader and writer. And despite its size, the reader became more sensitive by taking advantage of new discoveries in magnetic and quantum properties of matter. Bits could also be packed closer together thanks to mathematical algorithms that filter out noise from magnetic interference, and find the most likely bit sequences from each chunk of read-back signal. And thermal expansion control of the head, enabled by placing a heater under the magnetic writer, allowed it to fly less than five nanometers above the disc's surface, about the width of two strands of DNA. For the past several decades, the exponential growth in computer storage capacity and processing power has followed a pattern known as Moore's Law, which, in 1975, predicted that information density would double every two years. But at around 100 gigabits per square inch, shrinking the magnetic grains further or cramming them closer together posed a new risk called the superparamagnetic effect. When a magnetic grain volume is too small, its magnetization is easily disturbed by heat energy and can cause bits to switch unintentionally, leading to data loss. Scientists resolved this limitation in a remarkably simple way: by changing the direction of recording from longitudinal to perpendicular, allowing areal density to approach one terabit per square inch. Recently, the potential limit has been increased yet again through heat assisted magnetic recording. This uses an even more thermally stable recording medium, whose magnetic resistance is momentarily reduced by heating up a particular spot with a laser and allowing data to be written. And while those drives are currently in the prototype stage, scientists already have the next potential trick up their sleeves: bit-patterned media, where bit locations are arranged in separate, nano-sized structures, potentially allowing for areal densities of twenty terabits per square inch or more. So it's thanks to the combined efforts of generations of engineers, material scientists, and quantum physicists that this tool of incredible power and precision can spin in the palm of your hand.
Imagina el vuelo de un avión a un milímetro del suelo que da vueltas a la Tierra una vez cada 25 segundos mientras cuenta cada brizna de hierba. Encoge todo eso para que quepa en la palma de tu mano, y tendrías algo equivalente a un disco duro moderno, un objeto que quizá puede almacenar más información que tu biblioteca local. Pero, ¿cómo almacena tanta información en un espacio tan pequeño? En el núcleo del disco duro hay una pila de discos giratorios de alta velocidad con un cabezal de grabación que sobrevuela cada superficie. Cada disco está codificado con una película de granos metálicos magnetizados microscópicos, y tus datos no viven allí en una forma que puedas reconocer. En cambio, se almacenan como un patrón magnético formado por grupos de esos diminutos granos. En cada grupo, también conocido como bit, todos esos granos tienen sus magnetizaciones alineadas en uno de dos estados posibles, que corresponden a ceros y unos. Los datos se escriben en el disco convirtiendo cadenas de bits en corriente eléctrica alimentada vía un electroimán. Este imán genera un campo suficientemente fuerte para cambiar la dirección de la magnetización del grano del metal. Una vez que esta información se escribe en el disco, la unidad usa un lector magnético para convertirlo de nuevo en una forma útil, muy similar a una aguja de fonógrafo que traduce ranuras de un disco en música. Pero, ¿cómo conseguir tanta información a partir solo de ceros y unos? Bueno, poniendo montones de ellos juntos. Por ejemplo, una letra se representa con un byte, u ocho bits, y tu foto promedio requiere varios megabytes, cada uno de los cuales son 8 millones de bits. Como cada bit debe escribirse en el área física de un disco, siempre buscamos incrementar la densidad de área del disco, o cuántos bits pueden colocarse en una pulgada cuadrada. La densidad de área de un disco duro moderno es de unos 600 gigabits por pulgada cuadrada, 300 millones de veces mayor que la del primer disco duro de IBM de 1957. Este avance increíble en capacidad de almacenamiento no fue solo una cuestión de hacer todo más pequeño, sino que requirió varias innovaciones. Una tecnología llamada proceso de litografía de película delgada les permitió a los ingenieros encoger el lector y el escritor. Y a pesar de su tamaño, el lector se hizo más sensible aprovechando nuevos descubrimientos en las propiedades magnéticas y cuánticas de la materia. Se pudieron compactar los bits gracias a algoritmos matemáticos que filtran el ruido de la interferencia magnética, y encontrar las secuencias de bits más probable de cada señal de lectura. Y el control de expansión térmica del cabezal fue posible ubicando un calentador bajo el escritor magnético, permitiendo que vuele a menos de cinco nanómetros sobre la superficie del disco, es del ancho de dos hebras de ADN. Desde hace varias décadas, el crecimiento exponencial del poder de almacenamiento y procesamiento ha seguido el patrón conocido como Ley de Moore, que, en 1975, predijo que la densidad de información se duplicaría cada 2 años Pero en torno a los 100 gigabits por pulgada cuadrada, encoger más el grano magnético o acercarlos más plantea un nuevo riesgo llamado efecto superparamagnético. Cuando el volumen de grano magnético es demasiado pequeño, la energía térmica perturba fácilmente su magnetización y puede hacer que los bits cambien involuntariamente, llevando a la pérdida de datos. Los científicos resolvieron esta limitación de manera muy simple: cambiando la dirección de grabación de longitudinal a perpendicular, permitiendo una densidad de área de un terabit por pulgada cuadrada. Recientemente, el límite potencial se ha aumentado otra vez mediante la grabación magnética asistida por calor. Usa un medio de grabación térmicamente más estable, cuya resistencia magnética se reduce momentáneamente calentando un punto determinado con un láser, permitiendo la escritura de datos. Y si bien esas unidades están en etapa de prototipo, los científicos ya tienen el próximo truco potencial bajo la manga: medios con patrones de bits, donde las ubicaciones de bits se colocan en estructuras nanométricas separadas, potencialmente permitiendo densidades de área de 20 terabits por pulgada cuadrada o más. Es gracias a los esfuerzos combinados de generaciones de ingenieros, científicos de materiales, y físicos cuánticos que este instrumento de potencia y precisión increíbles puede girar en la palma de tu mano.