Imagine an airplane flying one millimeter above the ground and circling the Earth once every 25 seconds while counting every blade of grass. Shrink all that down so that it fits in the palm of your hand, and you'd have something equivalent to a modern hard drive, an object that can likely hold more information than your local library. So how does it store so much information in such a small space? At the heart of every hard drive is a stack of high-speed spinning discs with a recording head flying over each surface. Each disc is coated with a film of microscopic magnetised metal grains, and your data doesn't live there in a form you can recognize. Instead, it is recorded as a magnetic pattern formed by groups of those tiny grains. In each group, also known as a bit, all of the grains have their magnetization's aligned in one of two possible states, which correspond to zeroes and ones. Data is written onto the disc by converting strings of bits into electrical current fed through an electromagnet. This magnet generates a field strong enough to change the direction of the metal grain's magnetization. Once this information is written onto the disc, the drive uses a magnetic reader to turn it back into a useful form, much like a phonograph needle translates a record's grooves into music. But how can you get so much information out of just zeroes and ones? Well, by putting lots of them together. For example, a letter is represented in one byte, or eight bits, and your average photo takes up several megabytes, each of which is 8 million bits. Because each bit must be written onto a physical area of the disc, we're always seeking to increase the disc's areal density, or how many bits can be squeezed into one square inch. The areal density of a modern hard drive is about 600 gigabits per square inch, 300 million times greater than that of IBM's first hard drive from 1957. This amazing advance in storage capacity wasn't just a matter of making everything smaller, but involved multiple innovations. A technique called the thin film lithography process allowed engineers to shrink the reader and writer. And despite its size, the reader became more sensitive by taking advantage of new discoveries in magnetic and quantum properties of matter. Bits could also be packed closer together thanks to mathematical algorithms that filter out noise from magnetic interference, and find the most likely bit sequences from each chunk of read-back signal. And thermal expansion control of the head, enabled by placing a heater under the magnetic writer, allowed it to fly less than five nanometers above the disc's surface, about the width of two strands of DNA. For the past several decades, the exponential growth in computer storage capacity and processing power has followed a pattern known as Moore's Law, which, in 1975, predicted that information density would double every two years. But at around 100 gigabits per square inch, shrinking the magnetic grains further or cramming them closer together posed a new risk called the superparamagnetic effect. When a magnetic grain volume is too small, its magnetization is easily disturbed by heat energy and can cause bits to switch unintentionally, leading to data loss. Scientists resolved this limitation in a remarkably simple way: by changing the direction of recording from longitudinal to perpendicular, allowing areal density to approach one terabit per square inch. Recently, the potential limit has been increased yet again through heat assisted magnetic recording. This uses an even more thermally stable recording medium, whose magnetic resistance is momentarily reduced by heating up a particular spot with a laser and allowing data to be written. And while those drives are currently in the prototype stage, scientists already have the next potential trick up their sleeves: bit-patterned media, where bit locations are arranged in separate, nano-sized structures, potentially allowing for areal densities of twenty terabits per square inch or more. So it's thanks to the combined efforts of generations of engineers, material scientists, and quantum physicists that this tool of incredible power and precision can spin in the palm of your hand.
Wyobraźmy sobie samolot, który leci milimetr nad powierzchnią i okrąża Ziemię raz na 25 sekund, licząc każde źdźbło trawy. Gdy pomniejszymy to wszystko tak, by zmieściło się w ludzkiej dłoni, otrzymamy coś przypominającego współczesny dysk twardy. Przedmiot mieszczący więcej informacji niż miejska biblioteka. Jak to możliwe? Sercem każdego dysku twardego są bardzo szybko obracające się płyty. Nad każdą z nich umieszczona jest głowica zapisująca. Płyty powleka folia mikroskopijnych ziaren z namagnesowanego metalu. Dane występują tam w nierozpoznawalnej dla nas formie. Zapisane są pod postacią magnetycznego wzoru, który tworzą mikroskopijne ziarna. W każdym układzie znanym jako bit ziarna są namagnesowane w jednym z dwóch kierunków. Każdy z nich odpowiada zeru lub jedynce. Dane są zapisywane na dysku przez zamianę ciągów bitów w wiązki elektryczne przechodzące przez elektromagnes. Magnes wytwarza na tyle silne pole, że może zmieniać kierunek namagnesowania metalowych ziaren. Gdy informacja zostaje zapisana na płycie, dysk używa czytnika magnetycznego, by nadać jej rozpoznawalną postać. Tak jak igła gramofonowa odczytuje rowki jako muzykę. Skąd aż tyle informacji z samych zer i jedynek? Dzieje się tak poprzez ich łączenie. Litera przedstawiana jest za pomocą jednego bajta, czyli 8 bitów. Zdjęcie składa się z kilku megabajtów. Każdy megabajt to 8 milionów bitów. Każdy bit musi zostać fizycznie zapisany na płycie, więc próbuje się powiększać gęstość zapisu płyt albo zwiększać liczbę bitów na centymetr kwadratowy. Gęstość zapisu na dysku twardym to około 100 gigabitów na centymetr kwadratowy. 300 milionów razy więcej niż miał pierwszy dysk IBM z 1957 roku. Ten niesamowity postęp w pojemności dysków nie wziął się z samej idei pomniejszania wszystkiego, a z licznych innowacji. Technologia cienkowarstwowa pozwoliła inżynierom zmniejszyć głowicę zapisująco-odczytującą. Niezależnie od wielkości głowice stały się bardziej czułe dzięki odkryciom w dziedzinie magnetycznych i kwantowych cech materii. W zagęszczaniu bitów pomogły matematyczne algorytmy, które odfiltrowują magnetyczne zakłócenia, wyszukując najbardziej pasujące sekwencje bitów w trakcie przesyłu danych. Zastosowanie ogrzewacza głowicy umożliwiło kontrolę jej rozszerzalności cieplnej. Pozwoliło to unosić się głowicy nad płytą w odległości poniżej pięciu nanometrów, czyli takiej jak między dwiema nićmi DNA. Przez kilka ostatnich dekad przyrost pojemności i mocy obliczeniowej komputerów w wykładniczym tempie następował zgodnie z prawem Moore'a, który w 1975 przewidywał, że gęstość informacji będzie podwajać się co 2 lata. Przy około 15 gigabitach na centymetr kwadratowy dalsze pomniejszanie lub upychanie ziaren magnetycznych groziło wystąpieniem efektu superparamagnetycznego. Kiedy objętość ziarna magnetycznego jest zbyt mała, łatwo się ono rozmagnesowuje pod wpływem energii cieplnej. Bity zaczynają samoistnie zmieniać kierunek, co prowadzi do utraty danych. Naukowcy łatwo pokonali to ograniczenie, zmieniając kierunek zapisu z podłużnego na prostopadły. Umożliwiło to powiększenie gęstości zapisu do 150 gigabitów na centymetr kwadratowy. Ostatnio granica znów została przekroczona dzięki wspomaganemu termicznie zapisowi magnetycznemu, który wykorzystuje nośniki bardziej odporne na zmiany temperatury. Opór magnetyczny zostaje natychmiast zmniejszony przez podgrzanie danego miejsca laserem, co umożliwia zapis danych. Choć dyski tego typu są obecnie w fazie prototypu, naukowcy mają już kolejnego asa w rękawie. To nośniki o bitowej strukturze, na których bity zajmują wydzielone nanoregiony. Zagęszczenie wyniosłoby wtedy 3 terabity na centymetr kwadratowy lub więcej. Wspólny wysiłek całych pokoleń inżynierów, badaczy materiału i fizyków kwantowych sprawił, że to urządzenie o niezwykłej mocy i precyzji mieści się w ludzkiej dłoni.