Czym jest bajt a czym bit? Dlaczego komputery pracują w oparciu o system binarny? Na te pytania (a także na kilka innych), postaramy się odpowiedzieć w poniższym artykule.
Co to jest kod binarny?
Wbrew pozorom, praca procesora komputera jest o wiele mniej złożona, niż praca ludzkiego umysłu. Procesor rozróżnia jedynie dwa stany – ten w którym prąd przepływa (1) i ten, w którym prądu nie ma (0). Na podstawie tego, tworzone są algorytmy znacznie bardziej złożonych liczb a także ogólnie definiowanych danych.
Jak więc to działa w praktyce? W systemie binarnym 0 to 0, 1 to 1, ale już 10 to 2 a 11 to 3. Idąc tym samym torem myślenia, można dojść do wniosku, że litera B to 01100010.
Bajt vs bit
Taka jedynka lub zero, to inaczej bit. Z kolei osiem takich znaków (bitów) to oczywiście jeden bajt. W przypadku wartości komputerowych, mamy do czynienia z nieco innym przelicznikiem niż w klasycznej fizyce. Przedrostek kilo nie oznacza, że jeden kilobajt to 1 000 bajtów, lecz 1024 bajtów.
Ta nieco inna kalkulacja jednostek wiąże się oczywiście z wieloma błędami, jakie popełniają nabywcy sprzętu komputerowego. Wciąż wielu z nich wierzy, że dysk terabajtowy może zmieścić aż 1000 gigabajtów danych. Na szczęście realia są znacznie bardziej korzystne, niż wydawałoby się to na pierwszy rzut oka…
Kwanty wchodzą do gry
W wielu laboratoriach, trwają prace nad komputerami kwantowymi. W czym tkwi różnica pomiędzy nimi a komputerami tradycyjnymi? Jak już wspominaliśmy, tradycyjne komputery opierają się na systemie obecności, bądź nieobecności przepływającego prądu. W komputerze kwantowym, kwant może być zarówno jedynką jak i zerem. Jak to możliwe?
Jeśli pamiętamy lekcje fizyki to najprawdopodobniej wiemy, że elektron nie ma jasno określonej pozycji w układzie z jądrem atomowym. Można jednak w miarę możliwości określić, jakie jest przypuszczalne miejsce w którym aktualnie się znajduje (orbita). Tą właściwość wykorzystują nowoczesne komputery kwantowe a w zasadzie – ich raczkujący protoplaści.