Czym jest megabajt lub MB?
Definiowanie megabajtów
Słownik komputerowy Microsoft Press definiuje pojęcie megabajt jako 1 048 576 bajtów lub 1 000 000 bajtów. Liczby te różnią się, ponieważ wielokrotności bajtów, które musiały być wyrażone przez moce komputera, są wyrażone w podstawie 2, co oznacza dogodną nazwę (mega przedrostek oznacza moc miliona). Ludzie używają podstawy 10, kiedy wykonujemy przypisania mocy w wielokrotnościach bajtów (to jest 10 ^ 6). Z drugiej strony komputery używają systemu dwójkowego, gdzie 2 jest podstawą w przypadku wielokrotności bajtów (tj. 2 ^ 20).
Dekompozycja bajta
Bajt definiowany jest jako osiem bitów komputerowych. Bity to cyfry binarne, które są podstawowymi jednostkami informacyjnymi komputera. Bit może być tylko jedną z dwóch różnych wartości: 0 lub 1. Te reprezentują dwa stany informacyjne, takie jak włączanie i wyłączanie lub tak i nie.
Jednostki informacyjne
Najmniejszą jednostką informacji na komputerze jest bit. Osiem bitów stanowi bajt. 1024 bajty to jeden kilobajt. 1024 kilobajty to jeden megabajt. 1024 megabajty to jeden gigabajt. 1024 gigabajty to jeden terabajt. Obecnie większość rozmiarów dysków twardych komputerów jest mierzona w gigabajtach. W niedalekiej przyszłości dyski twarde będą mierzone w terabajtach.
Ilość miejsca do przechowywania
Producenci komputerów używają systemu dziesiętnego do określania ilości przestrzeni dyskowej. Ponieważ komputery używają systemów binarnych, można uzyskać rozbieżność między pojemnością dysku twardego i tą pokazywaną przez komputer a ilością rozpoznaną na dysku twardym. Komputer wyświetlający zawartość 10 gigabajtów przestrzeni dyskowej (za pomocą systemu dziesiętnego) będzie wyglądał jak 10 000 000 000 bajtów. Jednak w systemie binarnym, którego używają komputery, te same 10 gigabajtów wynosi 10 773 428 240 bajtów. W rezultacie zamiast komputera rozpoznającego 10 gigabajtów, będzie to tylko 9.31 gigabajtów miejsca. Jest to wynikiem różnicy w definicji i nie należy go rozumieć jako błędną kalkulację komputerową.