Co oznacza GHz w komputerach?

Wydajność procesora komputerowego mierzona jest w gigahercach.

Historia

Termin gigaherc pochodzi od jednostki "hertz", która zawdzięcza swoją nazwę Heinreichowi Hertzowi, który badał promieniowanie elektromagnetyczne. Badania Hertza nad cyklami elektrycznymi doprowadziły do ​​koncepcji herców, która jest miarą tych cykli na sekundę.

Wykonuj konta

Właściwość Hertz opiera się na obrotach na sekundę. Rewolucja w sekundach odpowiada hercowi. Tysiąc obrotów na sekundę to jeden kiloherc. Jeden milion obrotów na sekundę składa się na jeden megaherc. Wreszcie jeden miliard cykli na sekundę odpowiada jednemu gigahercowi.

Praktyczne zastosowanie

Dziesięć lat temu nie było rzadkością procesory o pojemnościach mierzonych w megahercach. Na przykład można zobaczyć reklamy dla procesora Pentium 3 500 Mhz. Komputery są obecnie mierzone w gigahercach. W dzisiejszych czasach bardzo często spotyka się sprzęt o dwóch gigahercach, co oznacza, że ​​procesor wykonuje 2 miliardy obrotów na sekundę.

Im szybciej, tym lepiej

Im wyższa prędkość zegara jednostki centralnej (CPU), tym szybciej komputer będzie. Procesor, który daje 2 000 milionów obrotów na sekundę (2 GHz), będzie szybszy niż jeden z 500 milionami obrotów na sekundę (500 MHz). Gdy kupujesz komputer, im więcej herc masz, tym szybciej maszyna będzie.

Teorie / spekulacje

Obecnie opracowywane są procesory terahercowe. Komputery te obiecują zdolność obliczeniową nie tylko szybszą, ale także bardziej wydajną w zużyciu energii.