Imagine an airplane flying one millimeter above the ground and circling the Earth once every 25 seconds while counting every blade of grass. Shrink all that down so that it fits in the palm of your hand, and you'd have something equivalent to a modern hard drive, an object that can likely hold more information than your local library. So how does it store so much information in such a small space? At the heart of every hard drive is a stack of high-speed spinning discs with a recording head flying over each surface. Each disc is coated with a film of microscopic magnetised metal grains, and your data doesn't live there in a form you can recognize. Instead, it is recorded as a magnetic pattern formed by groups of those tiny grains. In each group, also known as a bit, all of the grains have their magnetization's aligned in one of two possible states, which correspond to zeroes and ones. Data is written onto the disc by converting strings of bits into electrical current fed through an electromagnet. This magnet generates a field strong enough to change the direction of the metal grain's magnetization. Once this information is written onto the disc, the drive uses a magnetic reader to turn it back into a useful form, much like a phonograph needle translates a record's grooves into music. But how can you get so much information out of just zeroes and ones? Well, by putting lots of them together. For example, a letter is represented in one byte, or eight bits, and your average photo takes up several megabytes, each of which is 8 million bits. Because each bit must be written onto a physical area of the disc, we're always seeking to increase the disc's areal density, or how many bits can be squeezed into one square inch. The areal density of a modern hard drive is about 600 gigabits per square inch, 300 million times greater than that of IBM's first hard drive from 1957. This amazing advance in storage capacity wasn't just a matter of making everything smaller, but involved multiple innovations. A technique called the thin film lithography process allowed engineers to shrink the reader and writer. And despite its size, the reader became more sensitive by taking advantage of new discoveries in magnetic and quantum properties of matter. Bits could also be packed closer together thanks to mathematical algorithms that filter out noise from magnetic interference, and find the most likely bit sequences from each chunk of read-back signal. And thermal expansion control of the head, enabled by placing a heater under the magnetic writer, allowed it to fly less than five nanometers above the disc's surface, about the width of two strands of DNA. For the past several decades, the exponential growth in computer storage capacity and processing power has followed a pattern known as Moore's Law, which, in 1975, predicted that information density would double every two years. But at around 100 gigabits per square inch, shrinking the magnetic grains further or cramming them closer together posed a new risk called the superparamagnetic effect. When a magnetic grain volume is too small, its magnetization is easily disturbed by heat energy and can cause bits to switch unintentionally, leading to data loss. Scientists resolved this limitation in a remarkably simple way: by changing the direction of recording from longitudinal to perpendicular, allowing areal density to approach one terabit per square inch. Recently, the potential limit has been increased yet again through heat assisted magnetic recording. This uses an even more thermally stable recording medium, whose magnetic resistance is momentarily reduced by heating up a particular spot with a laser and allowing data to be written. And while those drives are currently in the prototype stage, scientists already have the next potential trick up their sleeves: bit-patterned media, where bit locations are arranged in separate, nano-sized structures, potentially allowing for areal densities of twenty terabits per square inch or more. So it's thanks to the combined efforts of generations of engineers, material scientists, and quantum physicists that this tool of incredible power and precision can spin in the palm of your hand.
Imaginem um avião a voar a um milímetro acima do solo e a dar a volta à Terra de 25 em 25 segundos enquanto conta todas as ervinhas. Encolham isso tudo de modo a caber na palma da mão e terão uma coisa equivalente a um disco duro moderno, um objeto que pode armazenar mais informações do que uma biblioteca. Então, como é que é possível guardar tantas informações num espaço tão pequeno? No núcleo de um disco duro há uma pilha de discos giratórios de alta velocidade com uma cabeça de gravação que voa sobre cada superfície. Cada disco está revestido de uma película de microscópicos grãos de metal magnetizado, mas os dados não estão ali numa forma que possamos reconhecer. Em vez disso, estão armazenados como um padrão magnético formado por grupos desses grãos minúsculos. Em cada grupo, conhecido por um "bit", todos os grãos têm a magnetização alinhada num de dois estados possíveis que correspondem a zeros e uns. Os dados são escritos no disco pela conversão de cadeias de "bits"` em corrente elétrica alimentada por um eletroíman. Este íman gera um campo suficientemente forte para alterar a direção da magnetização dos grãos de metal. Depois de estas informações estarem escritas no disco, a unidade usa um leitor magnético para a transformar numa forma útil, tal como a agulha de um fonógrafo traduz em música as estrias gravadas. Mas como conseguimos tantas informações a partir de zeros e uns? Juntando-os em grande quantidade. Por exemplo, uma letra é representada por um "byte", ou seja, oito "bits" e uma foto comum têm vários "megabytes", cada um dos quais tem oito milhões de "bits". Como cada "bit" tem de ser escrito na área física do disco, estamos sempre a tentar aumentar a densidade da área do disco ou seja, quantos "bits" podem ser encaixados num centímetro quadrado. A densidade da área de um disco duro moderno é de cerca de 100 "gigabits" por centímetro quadrado, ou seja, 300 milhões de vezes maior do que o primeiro disco duro da IBM, em 1957. Este progresso espantoso da capacidade de armazenagem não é apenas uma questão de tornar tudo mais pequeno mas envolveu imensas inovações. Uma técnica chamada processo litográfico de película delgada permitiu que os engenheiros reduzissem o leitor e o gravador. Apesar da sua dimensão, o leitor tornou-se mais sensível tirando partido de novas descobertas nas propriedades magnéticas e quânticas da matéria. Também se podem compactar os "bits", graças a algoritmos matemáticos que filtram o ruído da interferência magnética e encontrar as sequências de "bits" mais prováveis de cada sinal de leitura. O controlo da expansão térmica da cabeça foi possível colocando um aquecedor sob o gravador magnético, permitindo voar a menos de 5 nanómetros sobre a superfície do disco, ou seja, a largura de duas cadeias de ADN. Nas últimas décadas, o crescimento exponencial na capacidade de armazenagem e de processamento de um computador seguiu um padrão, conhecido por Lei de Moore que, em 1975, previu que a densidade de informações duplicaria de dois em dois anos. Mas com cerca de 17 "gigabits" por centímetro quadrado, reduzir mais os grãos magnéticos ou compactá-los mais colocava um novo risco, chamado efeito super paramagnético. Quando o volume de um grão magnético é demasiado pequeno, a sua magnetização é facilmente prejudicada pela energia calorífica e pode fazer com que os "bits" se misturem intencionalmente, levando à perda de dados. Os cientistas resolveram este problema de uma forma muito simples: alterando a direção da gravação da forma longitudinal para perpendicular, permitindo que a densidade da área se aproxime de 166 "gigabits" por cm2. Recentemente, o limite potencial voltou a aumentar, através da gravação magnética assistida. Isto usa um meio de gravação ainda mais estável termicamente, cuja resistência magnética é momentaneamente reduzida aquecendo um local específico com um laser e permitindo a gravação dos dados. Embora estas unidades ainda estejam numa fase de protótipos os cientistas já têm na manga um próximo truque: os meios com padrões de "bits" em que as localizações de "bits" são organizadas em estruturas separadas, com uma nanodimensão, permitindo potencialmente densidades de áreas com 3 "terabits" por cm2 ou mais. Assim, é graças aos esforços conjuntos de gerações de engenheiros, de cientistas de materiais e de físicos quânticos que este instrumento, de potência e precisão incríveis pode girar na palma da nossa mão.