Wszystkie wielkości w informatyce. Czym są bity i bajty (kilobajt, megabajt, gigabajt, terabajt), a także cechy jednostek miary informacji

W nowoczesnych komputerach możemy wejść informacje tekstowe, wartości liczbowe oraz informacje graficzne i dźwiękowe. Ilość informacji przechowywanych w komputerze mierzy się jego „długością” (lub „objętością”) wyrażoną w bitach. Bit - minimum jednostka miary informacji (z angielskiego BInary digiT - cyfra binarna). Każdy bit może przyjmować wartość 0 lub 1. Bit nazywany jest także bitem komórki pamięci komputera. Do pomiaru ilości przechowywanych informacji stosuje się następujące jednostki:

1 bajt = 8 bitów;

1 KB = 1024 bajty (KB odczytuje się jako kilobajt);

1 MB = 1024 KB (MB czyta się jak megabajt);

1 GB = 1024 MB (GB jest odczytywane jako gigabajt).

Beat (z angielskiego. cyfra binarna; także baw się słowami: angielski. fragment- Trochę)

Według Shannona bit to logarytm binarny prawdopodobieństwa zdarzeń równie prawdopodobnych lub suma iloczynów prawdopodobieństwa przez logarytm binarny prawdopodobieństwa zdarzeń równie prawdopodobnych.

Jeden bit kodu binarnego (cyfra binarna). Może przyjmować tylko dwie wzajemnie wykluczające się wartości: tak/nie, 1/0, wł./wył. itp.

Podstawowa jednostka miary ilości informacji odpowiadającej ilości informacji zawartej w doświadczeniu, które ma dwa równie prawdopodobne wyniki. Jest to tożsame z ilością informacji w odpowiedzi na pytanie, która pozwala na udzielenie odpowiedzi „tak” lub „nie” i nic więcej (czyli ilość informacji, która pozwala jednoznacznie odpowiedzieć na postawione pytanie). Jeden bit binarny zawiera jeden bit informacji.

W technologia komputerowa i sieci danych, zazwyczaj przesyłane są wartości 0 i 1 różne poziomy napięcie lub prąd. Na przykład w chipach opartych na TTL 0 jest reprezentowane przez napięcie w zakresie od +0 do +3 W i 1 w zakresie od 4,5 do 5,0 W.

Szybkość przesyłania danych w sieci jest zwykle mierzona w bitach na sekundę. Warto zauważyć, że wraz ze wzrostem prędkości transmisji danych bit nabrał także innego wyrażenia metrycznego: długości. Zatem w nowoczesnej sieci gigabitowej (1 Gigabit/s) na jeden bit przypada około 30 metrów drutu. Z tego powodu trudność karty sieciowe znacznie wzrosła. Wcześniej na przykład w sieciach jednomegabitowych długość bitu wynosząca 30 km była prawie zawsze w oczywisty sposób większa niż długość kabla między dwoma urządzeniami.

W informatyce, zwłaszcza w dokumentacji i standardach, słowo „bit” jest często używane w znaczeniu cyfry binarnej. Na przykład: pierwszy bit jest pierwszą cyfrą binarną danego bajtu lub słowa.

Obecnie bit to najmniejsza możliwa jednostka informacji w informatyce, ale prowadzone są intensywne badania w tej dziedzinie komputery kwantowe założyć obecność q-bitów.

Bajt (angielski) bajt) - jednostka miary ilości informacji, zwykle równa ośmiu bitom, może przyjmować 256 (2 8) różnych wartości.

Ogólnie rzecz biorąc, bajt to sekwencja bitów, których liczba jest stała, i stanowi minimalną adresowalną ilość pamięci w komputerze. W nowoczesne komputery ogólny cel bajt jest równy 8 bitom. Aby podkreślić, że w opisie mamy na myśli bajt ośmiobitowy protokoły sieciowe Używa się terminu „oktet”. oktet).

Czasami bajt jest sekwencją bitów tworzących podpole słowa. Niektóre komputery mogą adresować bajty o różnej długości. Zapewniają to instrukcje ekstrakcji pola asemblerów LDB i DPB na PDP-10 i Common Lisp.

W IBM-1401 bajt wynosił 6 bitów, podobnie jak w Mińsku-32, w BESM - 7 bitów, w niektórych modelach komputerów Burroughs Computer Corporation (obecnie Unisys) - 9 bitów. Wiele nowoczesnych procesorów sygnału cyfrowego wykorzystuje bajty o długości 16 bitów lub większej.

Nazwy tej użył po raz pierwszy w 1956 roku W. Buchholz przy projektowaniu pierwszego superkomputera IBM 7030 dla wiązki bitów przesyłanych jednocześnie w urządzeniach wejścia-wyjścia (sześć sztuk), później w ramach tego samego projektu bajt został rozszerzony do ośmiu (2 3) bity.

Nie używa się jak zwykle wielokrotnych przedrostków tworzących jednostki pochodne bajtu: po pierwsze, w ogóle nie używa się drobnych przedrostków, a jednostki informacji mniejsze niż bajt nazywane są słowami specjalnymi (nibble i bit); po drugie, przedrostki powiększające oznaczają średnią dla każdego tysiąca 1024 = 2 10 (kilobajt jest równy 1024 bajtom, megabajt jest równy 1024 kilobajtom lub 1 048 576 bajtom itp. z gigabajtami, terabajtami i petabajtami (już nieużywane)). Różnica zwiększa się wraz z wagą konsoli. Bardziej poprawne jest używanie przedrostków binarnych, ale w praktyce nie są one jeszcze używane, być może ze względu na kakofonię - kibibajt, mebibajt itp.

Czasami przedrostki dziesiętne są używane w sensie dosłownym, na przykład przy wskazywaniu pojemności dyski twarde: dla nich gigabajt może oznaczać milion kibibajtów, czyli 1 024 000 000 bajtów, a nawet tylko miliard bajtów, a nie 1 073 741 824 bajtów, jak na przykład w modułach pamięci.

Kilobajt (kbajt, kB) m., skl . - jednostka miary ilości informacji równa (2 10) standardowych (8-bitowych) bajtów lub 1024 bajtom. Służy do wskazywania ilości pamięci w różnych urządzeniach elektronicznych.

Nazwa „kilobajt” jest ogólnie przyjęta, ale formalnie jest niepoprawna, ponieważ przedrostek kilo - oznacza pomnożenie przez 1000, a nie 1024. Prawidłowy przedrostek binarny dla 2 10 to kibi - .

Tabela 1.2 - Wiele przedrostków tworzących pochodne

Megabajt (MB, M) m., skl. - jednostka miary ilości informacji równa 1048576 (2 20) standardowych (8-bitowych) bajtów lub 1024 kilobajtom. Służy do wskazywania ilości pamięci w różnych urządzeniach elektronicznych.

Nazwa „Megabajt” jest ogólnie przyjęta, ale formalnie niepoprawna, ponieważ przedrostek mega - , oznacza pomnożenie przez 1 000 000, a nie 1 048 576. Prawidłowy przedrostek binarny dla 2 20 to mebi - . Wykorzystując obecną sytuację Duże korporacje, produkcja dyski twarde, które na etykietach swoich produktów rozumieją, że megabajt to 1 000 000 bajtów, a gigabajt to 1 000 000 000 bajtów.

Najbardziej oryginalną interpretację terminu megabajt stosują producenci dyskietek komputerowych, którzy rozumieją go jako 1 024 000 bajtów. Zatem dyskietka o pojemności 1,44 MB faktycznie mieści tylko 1440 KB, czyli 1,41 MB w zwykłym znaczeniu tego słowa.

Pod tym względem okazało się, że megabajt może być krótki, średni i długi:

krótki - 1 000 000 bajtów

średnia - 1 024 000 bajtów

długi - 1 048 576 bajtów

Gigabajt to wielokrotna jednostka miary ilości informacji, równa 1 073 741 824 (2 30) standardowych (8-bitowych) bajtów lub 1024 megabajtom.

Przedrostek SI giga - jest użyte błędnie, ponieważ oznacza pomnożenie przez 10 9 . Za 2 30 należy spożyć przedrostek binarny gibi-. Duże korporacje produkujące dyski twarde wykorzystują tę sytuację i przy etykietowaniu swoich produktów megabajt oznacza 1 000 000 bajtów, a gigabajt oznacza 1 000 000 000 bajtów.

Słowo maszynowe jest wielkością zależną od maszyny i platformy, mierzoną w bitach lub bajtach, równą szerokości rejestrów procesora i/lub szerokości szyny danych (zwykle jest to pewna potęga dwójki). Rozmiar słowa również jest zgodny minimalny rozmiar informacja adresowalna (głębia bitowa danych znajdujących się pod jednym adresem). Słowo maszynowe definiuje następujące cechy maszyny:

głębokość bitowa danych przetwarzanych przez procesor;

adresowalna szerokość danych (szerokość magistrali danych);

maksymalna wartość typu całkowitego bez znaku, obsługiwana bezpośrednio przez procesor: jeśli wynik operacja arytmetyczna przekracza tę wartość, następuje przepełnienie;

maksymalna głośność pamięć o dostępie swobodnym, adresowane bezpośrednio przez procesor.

Maksymalna wartość słowa o długości n bitów można łatwo obliczyć za pomocą wzoru 2 n -1

Tabela 1.3 – Rozmiar słowa maszynowego na różnych platformach

Nasz wiek zaawansowanych technologii wyróżnia się szerokie możliwości. Wraz z rozwojem komputerów elektronicznych przed ludźmi otworzyły się niesamowite horyzonty. Wszelkie interesujące wiadomości można teraz znaleźć w sieć globalna całkowicie za darmo, bez wychodzenia z domu. To przełom w dziedzinie technologii. Ale w jaki sposób tak dużo danych można przechowywać w pamięci komputera, przetwarzać i przesyłać na duże odległości? Jakie jednostki miary informacji istnieją w informatyce? I jak z nimi pracować? W dzisiejszych czasach nie tylko ludzie bezpośrednio zajmują się pisaniem programy komputerowe, ale zwykli uczniowie również powinni znać odpowiedzi na te pytania. W końcu to podstawa wszystkiego.

w informatyce

Przyzwyczailiśmy się myśleć, że informacja to cała wiedza, która jest nam przekazywana. Ale w informatyce i informatyce słowo to ma nieco inną definicję. Jest to podstawowy element całej nauki o elektronice. komputery. Dlaczego podstawowy lub fundamentalny? Ponieważ technologia komputerowa przetwarza dane, przechowuje je i przekazuje ludziom. Jednostka minimalna Informacje pomiarowe są obliczane w bitach. Informacje są przechowywane na komputerze do czasu, aż użytkownik zechce je wyświetlić.

Przyzwyczailiśmy się myśleć, że informacja jest jednostką języka. Tak, to prawda, ale informatyka używa innej definicji. To informacja o stanie, właściwościach i parametrach obiektów w otaczającym nas środowisku. Jest całkowicie jasne, że im więcej informacji dowiadujemy się o jakimś przedmiocie lub zjawisku, tym bardziej rozumiemy, że nasze zrozumienie ich jest skąpe. Ale teraz, dzięki tak ogromnej liczbie całkowicie darmowych i dostępnych materiałów z całego świata, znacznie łatwiej jest się uczyć, nawiązywać nowe znajomości, pracować, odpoczywać i po prostu odpoczywać, czytając książki lub oglądając filmy.

Alfabetyczny aspekt pomiaru objętości informacji

Drukowanie dokumentów do pracy, artykułów na stronach internetowych i utrzymywanie swoich osobisty blog w Internecie nie myślimy o tym, w jaki sposób wymieniane są dane pomiędzy użytkownikiem a samym komputerem. W jaki sposób maszyna jest w stanie zrozumieć polecenia i w jakiej formie przechowuje wszystkie pliki? W informatyce jednostką miary informacji jest bit, w którym można przechowywać zera i jedyneki. Istotą podejścia alfabetycznego jest pomiar znaki tekstowe składa się z ciągu znaków. Nie należy jednak przeplatać podejścia alfabetycznego z treścią tekstu. To są zupełnie różne rzeczy. Objętość takich danych jest proporcjonalna do ilości wprowadzonych znaków. Dzięki temu okazuje się, że waga informacyjna znaku z alfabetu binarnego jest równa jednemu bitowi. W informatyce, podobnie jak w przypadku innych miar, istnieją różne jednostki miary informacji. Bit to minimalna wartość pomiaru.

Aspekt merytoryczny obliczania ilości informacji

Pomiar informacji opiera się na teorii prawdopodobieństwa. W w tym przypadku Rozważana jest kwestia, ile danych zawiera wiadomość, którą otrzymuje dana osoba. W tym miejscu wchodzą w grę twierdzenia matematyki dyskretnej. Aby obliczyć materiały, stosuje się dwa różne wzory w zależności od prawdopodobieństwa zdarzenia. Jednocześnie jednostki miary informacji w informatyce pozostają takie same. Zadania obliczania liczby znaków i grafik przy zastosowaniu podejścia treściowego są znacznie trudniejsze niż przy zastosowaniu podejścia alfabetycznego.

Rodzaje procesów informacyjnych

Istnieją trzy główne typy procesów realizowanych w komputerze elektronicznym:

  1. Jak to idzie ten proces? Za pomocą narzędzi do wprowadzania danych, czy to klawiatury, mysz optyczna, drukarka lub inna osoba otrzymuje informacje. Następnie konwertuje je na kod binarny i nagrywa dalej dysk twardy w bitach, bajtach, megabajtach. Aby przetłumaczyć dowolną jednostkę miary informacji w informatyce, istnieje tabela, z której można obliczyć, ile bitów znajduje się w jednym megabajcie i przeprowadzić inne tłumaczenia. Komputer robi wszystko automatycznie.
  2. Przechowywanie plików i danych w pamięci urządzenia. Komputer może zapamiętać wszystko w formie binarnej. Kod binarny składa się z zer i jedynek.
  3. Kolejnym z głównych procesów zachodzących w komputerze elektronicznym jest przesyłanie danych. Odbywa się to również w formie binarnej. Ale informacja jest wyświetlana na ekranie monitora w symbolicznej lub innej formie znanej naszej percepcji.

Kodowanie informacji i miara jej pomiaru

Jednostką miary informacji jest bit, z którym dość łatwo jest pracować, ponieważ może zawierać wartość 0 lub 1. Jak komputer koduje zwykłe liczby dziesiętne V kod binarny? Spójrzmy na mały przykład, który wyjaśni zasadę kodowania informacji za pomocą technologii komputerowej.

Załóżmy, że mamy liczbę w zwykłym systemie liczbowym - 233. Aby przekonwertować go na postać binarną, musisz podzielić przez 2, aż stanie się mniejsza niż sam dzielnik (w naszym przypadku 2).

  1. Rozpoczynamy dzielenie: 233/2=116. Resztę zapisujemy osobno, będą to składniki kodu binarnego odpowiedzi. W naszym przypadku jest to 1.
  2. Druga akcja będzie następująca: 116/2=58. Pozostała część dzielenia – 0 – jest ponownie zapisywana osobno.
  3. 58/2=29 bez reszty. Nie zapomnij zapisać pozostałych 0, ponieważ jeśli stracisz tylko jeden element, otrzymasz zupełnie inną wartość. Kod ten zostanie następnie zapisany na dysku twardym komputera i będzie reprezentował bity – minimalne jednostki informacji w informatyce. Ósmoklasiści już radzą sobie z konwersją liczb z postaci dziesiętnej na binarną i odwrotnie.
  4. 29/2=14 z resztą 1. Zapisujemy to osobno do już otrzymanych cyfr binarnych.
  5. 14/2=7. Reszta dzielenia wynosi 0.
  6. Jeszcze trochę i kod binarny będzie gotowy. 7/2=3 z resztą 1, którą wpisujemy w przyszłej odpowiedzi w kodzie binarnym.
  7. 3/2=1 z resztą 1. Stąd zapisujemy dwie jednostki jako odpowiedź. Jeden - jako reszta, drugi - jako ostatnia pozostała liczba, która nie jest już podzielna przez 2.

Należy pamiętać, że odpowiedź jest wpisana Odwrotna kolejność. Pierwszy wynik Liczba binarna z pierwszej akcji będzie ostatnia cyfra, z drugiej - przedostatnia i tak dalej. Nasza ostateczna odpowiedź to 11101001.

Jest to zapisywane w pamięci komputera i przechowywane w tej formie do czasu, aż użytkownik będzie chciał obejrzeć to na ekranie monitora. Bit, bajt, megabajt, gigabajt – jednostki miary informacji w informatyce. To w tych ilościach dane binarne są przechowywane w komputerze.

Odwrotna konwersja liczby z systemu binarnego na dziesiętny

Aby przeprowadzić translację odwrotną z wartości binarnej na system dziesiętny rachunku różniczkowego, musisz użyć wzoru. Liczbę znaków w wartości binarnej liczymy zaczynając od 0. W naszym przypadku jest ich 8, ale jeśli zaczniemy liczyć od zera, to się skończą numer seryjny 7. Teraz musisz pomnożyć każdą cyfrę kodu przez 2 do potęgi 7, 6, 5,…, 0.

1*2 7 +1*2 6 +1*2 5 +0*2 4 +1*2 3 +0*2 2 +0*2 1 +1*2 0 =233. Oto nasz numer startowy, który został wzięty jeszcze przed tłumaczeniem na kod binarny.

Teraz znasz istotę urządzenie komputerowe oraz minimalna miara przechowywania informacji.

Minimalna jednostka informacji: opis

Jak wspomniano powyżej, za bit uważa się najmniejszą miarę informacji. To słowo pochodzenia angielskiego, przetłumaczone jako „cyfra binarna”. Jeśli spojrzymy na tę wartość od drugiej strony, możemy powiedzieć, że jest to komórka pamięci w komputerach elektronicznych, która jest przechowywana w postaci 0 lub 1. Bity można zamieniać na bajty, megabajty, a nawet większe ilości informacji. Komputer elektroniczny sam przeprowadza tę procedurę, zapisując kod binarny w komórkach pamięci dysku twardego.

Niektórzy użytkownicy komputerów mogą chcieć ręcznie i szybko przekonwertować miary głośności informacje cyfrowe od jednego do drugiego. Do takich celów stworzono kalkulatory online, które błyskawicznie wykonają operację, która ręcznie mogłaby zająć dużo czasu.

Jednostki miary informacji w informatyce: tabela wielkości

Komputery, dyski flash i inne urządzenia do przechowywania i przetwarzania informacji różnią się pojemnością pamięci, którą zwykle oblicza się w gigabajtach. Konieczne jest spojrzenie na główną tabelę wielkości, aby zobaczyć porównywalność jednej jednostki miary informacji w informatyce w kolejności rosnącej z drugą.

Korzystanie z maksymalnej jednostki informacji

Obecnie planuje się, że maksymalna ilość informacji, zwana jotabajtem, będzie przechowywana przez Agencję Bezpieczeństwa Narodowego wszelkich materiałów audio i wideo pochodzących z miejsc publicznych, w których zainstalowane są kamery wideo i mikrofony. NA ten moment jotabajty - największe jednostki pomiar informacji w informatyce. Czy to jest limit? Jest mało prawdopodobne, aby ktokolwiek był teraz w stanie udzielić dokładnej odpowiedzi.

Ilość informacji

Ilość informacji jako miara zmniejszania niepewności wiedzy.
(Podejście merytoryczne do ustalenia ilości informacji)

Proces poznania otaczającego świata prowadzi do gromadzenia informacji w postaci wiedzy (fakty, teorie naukowe itp.). Paragon Nowa informacja prowadzi do wzrostu wiedzy lub, jak się czasem mówi, do zmniejszenia niepewności wiedzy. Jeśli jakiś komunikat prowadzi do zmniejszenia niepewności naszej wiedzy, to można powiedzieć, że taki komunikat zawiera informację.

Na przykład po zdaniu testu lub jego zaliczeniu dręczy Cię niepewność, nie wiesz, jaką ocenę dostałeś. Na koniec nauczyciel ogłasza wyniki, a ty otrzymujesz jeden z dwóch wiadomości informacyjne: „zaliczony” lub „niezaliczony”, a po teście jeden z czterech komunikatów informacyjnych: „2”, „3”, „4” lub „5”.

Wiadomość informacyjna o ocenie z kolokwium powoduje zmniejszenie niepewności wiedzy o połowę, gdyż otrzymany zostanie jeden z dwóch możliwych komunikatów informacyjnych. Wiadomość informacyjna o ocenie za test powoduje czterokrotne zmniejszenie niepewności Twojej wiedzy, ponieważ odebrany zostanie jeden z czterech możliwych komunikatów informacyjnych.

Oczywiste jest, że im bardziej niepewna jest sytuacja wyjściowa (tj duża ilość możliwe są komunikaty informacyjne), im więcej nowych informacji otrzymamy po otrzymaniu komunikatu informacyjnego (tym częściej zmniejszy się niepewność wiedzy).

Ilość informacji można uznać za miarę zmniejszania niepewności wiedzy przy odbiorze komunikatów informacyjnych.

Omówione powyżej podejście do informacji jako miary zmniejszania niepewności wiedzy pozwala na ilościowy pomiar informacji. Istnieje wzór, który wiąże liczbę możliwych komunikatów informacyjnych N z ilością informacji, jakie niosę w odebranym komunikacie:

N=2i (1.1)

Fragment. Aby określić ilościowo dowolną wielkość, należy najpierw określić jednostkę miary. Tak więc, aby zmierzyć długość, jako jednostkę wybiera się metr, aby zmierzyć masę - kilogram itp. Podobnie, aby określić ilość informacji, należy wprowadzić jednostkę miary.

Za jednostka ilości informacji ilość informacji zawarta w przekazie informacyjnym zostaje zaakceptowana, zmniejszając o połowę niepewność wiedzy. Ta jednostka nazywa się fragment.

Jeśli wrócimy do otrzymania komunikatu informacyjnego o omówionych powyżej wynikach badań, to tutaj niepewność zmniejsza się o połowę, a zatem ilość informacji, którą niesie komunikat wynosi 1 bit.

Jednostki pochodne służące do pomiaru ilości informacji. Najmniejszą jednostką miary ilości informacji jest bit, kolejną największą jednostką jest bajt oraz:

1 bajt = 8 bitów = 2 3 bity.

W informatyce system tworzenia wielu jednostek miar różni się nieco od przyjętego w większości nauk. Tradycyjne metryczne układy jednostek, np. System międzynarodowy jednostek SI, współczynnik 10 n stosuje się jako mnożniki wielu jednostek, gdzie n = 3, 6, 9 itd., co odpowiada przedrostki dziesiętne„Kilo” (10 3), „Mega” (10 6), „Giga” (10 9) itp.

W komputerze informacja jest kodowana przy użyciu binarnego systemu znaków, dlatego w wielu jednostkach miary ilości informacji stosuje się współczynnik 2 n

Zatem jednostki miary ilości informacji będące wielokrotnością bajtu wprowadza się w następujący sposób:

1 kilobajt (KB) = 2 10 bajtów = 1024 bajty;

1 megabajt (MB) = 2 · 10 KB = 1024 KB;

1 gigabajt (GB) = 2 10 MB = 1024 MB.

Pytania kontrolne

    1. Podaj przykłady komunikatów informacyjnych, które prowadzą do zmniejszenia niepewności wiedzy.
    2. Podaj przykłady komunikatów informacyjnych zawierających 1 bit informacji.

Określanie ilości informacji

Określanie liczby komunikatów informacyjnych. Korzystając ze wzoru (1.1) można łatwo określić liczbę możliwych komunikatów informacyjnych, jeśli znana jest ilość informacji. Przykładowo, na egzaminie bierzesz kartę egzaminacyjną, a nauczyciel informuje Cię, że wizualny komunikat informacyjny o jej numerze zawiera 5 bitów informacji. Jeżeli chcemy określić liczbę biletów na egzaminy, wystarczy określić liczbę możliwych komunikatów informacyjnych o ich liczbie, korzystając ze wzoru (1.1):

Zatem liczba biletów na egzamin wynosi 32.

Określanie ilości informacji. I odwrotnie, jeśli znana jest możliwa liczba komunikatów informacyjnych N, to aby określić ilość informacji niesionych przez komunikat, należy rozwiązać równanie dla I.

Wyobraź sobie, że sterujesz ruchem robota i możesz ustawić kierunek jego ruchu za pomocą komunikatów informacyjnych: „północ”, „północny wschód”, „wschód”, „południowy wschód”, „południe”, „południowy zachód”, „zachód” i „ północny zachód” (ryc. 1.11). Ile informacji otrzyma robot po każdej wiadomości?

Możliwych jest 8 komunikatów informacyjnych, zatem wzór (1.1) przyjmuje postać równania dla I:

Rozłóżmy liczbę 8 po lewej stronie równania i przedstawmy ją w postaci potęgowej:

8 = 2 × 2 × 2 = 2 3 .

Nasze równanie:

Równość lewej i właściwe części równanie jest ważne, jeśli wykładniki liczby 2 są równe, zatem I = 3 bity, czyli ilość informacji, jaką każdy komunikat informacyjny niesie do robota, wynosi 3 bity.

Alfabetyczne podejście do określania ilości informacji

Na podejście alfabetyczne aby określić ilość informacji, odwracają uwagę od treści informacji i traktują przekaz informacyjny jako ciąg znaków określonego systemu znaków.

Pojemność informacyjna znaku. Wyobraźmy sobie, że konieczne jest przesłanie komunikatu informacyjnego kanałem przekazu informacji od nadawcy do odbiorcy. Niech wiadomość będzie zakodowana przy użyciu systemu znaków, którego alfabet składa się z N znaków (1, ..., N). W najprostszym przypadku, gdy długość kodu wiadomości wynosi jeden znak, nadawca może wysłać jeden z N możliwe wiadomości„1”, „2”, ..., „N”, które będą przenosić ilość informacji I (ryc. 1.5).

Ryż. 1,5. Przekazywanie informacji

Wzór (1.1) wiąże liczbę możliwych komunikatów informacyjnych N i ilość informacji, jakie niesie ze sobą odebrana wiadomość. Wówczas w rozpatrywanej sytuacji N jest liczbą znaków w alfabecie systemu znaków, a I jest ilością informacji, jaką niesie każdy znak:

Za pomocą tego wzoru można na przykład określić ilość informacji, jaką niesie znak w systemie znaków binarnych:

N = 2 => 2 = 2 I => 2 1 = 2 I => I=1 bit.

Zatem w systemie ze znakiem binarnym znak niesie 1 bit informacji. Co ciekawe, sama jednostka miary ilości informacji „bit” (bit) wzięła swoją nazwę OD angielskiego wyrażenia „Binary digiT” - „cyfra binarna”.

Pojemność informacyjna znaku binarnego systemu znaków wynosi 1 bit.

Im większa liczba znaków zawiera alfabet systemu znaków, tym większa jest ilość informacji niesiona przez jeden znak. Jako przykład określimy ilość informacji niesionych przez literę rosyjskiego alfabetu. Alfabet rosyjski zawiera 33 litery, ale w praktyce do przekazywania wiadomości często używa się tylko 32 liter (wykluczona jest litera „ё”).

Korzystając ze wzoru (1.1) określamy ilość informacji niesionych przez literę alfabetu rosyjskiego:

N = 32 => 32 = 2 I => 2 5 = 2 I => I=5 bitów.

Zatem litera alfabetu rosyjskiego niesie 5 bitów informacji (z alfabetycznym podejściem do pomiaru ilości informacji).

Ilość informacji, jaką niesie znak, zależy od prawdopodobieństwa jego otrzymania. Jeśli odbiorca wie z góry dokładnie, jaki znak nadejdzie, wówczas ilość otrzymanej informacji będzie równa 0. I odwrotnie, im mniejsze prawdopodobieństwo, że otrzyma znak, tym więcej pojemność informacyjna.

Po rosyjsku pismo częstotliwość użycia liter w tekście jest różna, dlatego średnio na 1000 znaków tekstu znaczącego przypada 200 liter „a” i sto razy mniej liter „f” (tylko 2). Zatem z punktu widzenia teorii informacji pojemność informacyjna znaków alfabetu rosyjskiego jest inna (litera „a” jest najmniejsza, a litera „f” jest największa).

Ilość informacji w wiadomości. Wiadomość składa się z sekwencji znaków, z których każdy jest nośnikiem określona ilość Informacja.

Jeżeli znaki niosą ze sobą tę samą ilość informacji, wówczas ilość informacji I c w przekazie można obliczyć mnożąc ilość niesionej informacji I z przez jeden znak przez długość kodu (liczbę znaków w komunikacie) K:

Ja do = Ja × K

Zatem każda cyfra binarna kod komputerowy przenosi informację w 1-bitowym formacie. Zatem dwie cyfry niosą informację w 2 bitach, trzy cyfry w 3 bitach itd. Ilość informacji w bitach jest równa liczbie cyfr binarnego kodu komputerowego (tabela 1.1).

Tabela 1.1. Ilość informacji przenoszona przez binarny kod komputerowy

Do pomiaru długości służą takie jednostki jak milimetr, centymetr, metr, kilometr. Wiadomo, że masę mierzy się w gramach, kilogramach, centnerach i tonach. Upływ czasu wyraża się w sekundach, minutach, godzinach, dniach, miesiącach, latach, stuleciach. Komputer pracuje z informacją i istnieją również odpowiednie jednostki miary służące do pomiaru jego objętości.

Wiemy już, że komputer postrzega wszystkie informacje poprzez zera i jedyneki. Bit to najmniejsza jednostka informacji odpowiadająca pojedynczej cyfrze binarnej („0” lub „1”).

Bajt składa się z ośmiu bitów. Używając jednego bajtu, możesz zakodować jeden znak z 256 możliwych (256 = 28). Zatem jeden bajt jest równy jednemu znakowi, czyli 8 bitom:

1 znak = 8 bitów = 1 bajt.

Uczenie się umiejętność obsługi komputera wymaga uwzględnienia innych, większych jednostek miary informacji.

Tabela bajtów: 1 bajt = 8 bitów

1 KB (1 kilobajt) = 210 bajtów = 2*2*2*2*2*2*2*2*2*2 bajty =

1024 bajty (około 1 tysiąc bajtów - 103 bajty)

1 MB (1 megabajt) = 220 bajtów = 1024 kilobajtów (około 1 milion bajtów - 106 bajtów)

1 GB (1 gigabajt) = 230 bajtów = 1024 megabajtów (około 1 miliard bajtów - 109 bajtów)

1 TB (1 terabajt) = 240 bajtów = 1024 gigabajtów (około 1012 bajtów). Terabajt jest czasami nazywany toną.

1 PB (1 petabajt) = 250 bajtów = 1024 terabajtów (około 1015 bajtów).

1 eksabajt = 260 bajtów = 1024 petabajtów (około 1018 bajtów).

1 zettabajt = 270 bajtów = 1024 eksabajtów (około 1021 bajtów).

1 jottabajt = 280 bajtów = 1024 zettabajtów (około 1024 bajtów).


W powyższej tabeli potęgi dwójki (2 10, 2 20, 2 30 itd.) to dokładne wartości kilobajt, megabajt, gigabajt.

Powstaje pytanie: czy istnieje kontynuacja tablicy bajtów? W matematyce istnieje pojęcie nieskończoności, które jest symbolizowane jako odwrócona ósemka: ∞.

Oczywiste jest, że w tabeli bajtów można nadal dodawać zera, a raczej potęgi do liczby 10 w ten sposób: 10 27, 10 30, 10 33 i tak dalej w nieskończoność. Ale dlaczego jest to konieczne? W zasadzie na razie wystarczą terabajty i petabajty. W przyszłości być może nawet jotabajt nie będzie wystarczający.

Na koniec kilka przykładów urządzeń, które mogą przechowywać terabajty i gigabajty informacji. Istnieje wygodny „terabajt” - twardy zewnętrznie dysk, który jest podłączony przez Port USB do komputera. Można na nim przechowywać terabajt informacji. Szczególnie wygodny w przypadku laptopów (w przypadku zmiany twardy dysk może być problematyczne) i dla Rezerwowy egzemplarz Informacja. Lepiej zrobić to wcześniej kopie zapasowe informacji, a nie wtedy, gdy wszystko zniknie.

Ćwiczenia z obsługi komputera:

1) Ile bajtów (bez cudzysłowów) zawiera fraza „Dziś jest 7 lipca 2011 r.”?

2) Ile bajtów (kilobajtów) zajmuje jedna strona tekstu, jeśli w jednej linii znajduje się 60 znaków, a na stronie 40 linii? Jaka jest objętość jednej książki składającej się ze 100 podobnych stron?

3) Terabajt to zewnętrzny dysk twardy, który łączy się z komputerem za pomocą złącza USB i ma pojemność 1 terabajt. Instrukcja jego użycia mówi, że na tym dysku zmieści się 250 tys. pliki muzyczne lub 285 tysięcy fotografii. Jaki jest rozmiar jednego pliku muzycznego i rozmiaru jednego zdjęcia według producentów tego urządzenia?

4) Ile podobnych plików muzycznych zmieści się na jednej płycie CD o pojemności 700 MB?

5) Ile podobnych zdjęć zmieści się na 4-gigabajtowym dysku flash?

Rozwiązania:

1) „Dzisiaj” - ze spacją (ale bez cudzysłowu) 8 bajtów „7 lipca” - z dwiema spacjami (bez cudzysłowu) 7 bajtów „2010” - ze spacją i kropką (bez cudzysłowu) 7 bajtów Razem: 8 + 7 + 7 = 22 bajty „waży” frazę „Dzisiaj jest 7 lipca 2010”

2) Jedna linia zawiera 60 znaków, co oznacza, że ​​objętość jednej linii wynosi 60 bajtów. Na stronie znajduje się 40 takich linii, każda zawierająca 60 bajtów, więc objętość jednej strony tekstu wynosi 60 x 40 = 2400 bajtów = 2,4 kilobajtów = 2,4 KB

Objętość jednej książki wynosi 2400 x 100 = 240 000 bajtów = 240 kilobajtów = 240 KB

3) Rozmiar jednego pliku muzycznego, który według producentów można zapisać na „terabajcie”: 1 000 000 000 000: 250 000 = (w dzielnej i dzielniku zmniejszamy trzy zera) 1 000 000 000: 250 = 4 000 000 bajtów = 4 megabajty = 4 MB

Rozmiar jednego zdjęcia, które według producentów można zapisać na „terabajcie”: 1 000 000 000 000: 285 000 = (w dzielnej i dzielniku zmniejszamy trzy zera) 1 000 000 000: 285 = 3 508 771, 93 bajtów = (zaokrąglamy w górę) 3,5 Megabajty = 3,5 MB

4) Płyta CD o pojemności 700 megabajtów może pomieścić 700 MB: 4 MB = 175 plików muzycznych, każdy nie większy niż 4 MB. Tutaj megabajty można natychmiast podzielić na megabajty, ale pracując z różnymi objętościami bajtów, lepiej najpierw przekonwertować wszystko na bajty, a następnie wykonać z nimi różne operacje arytmetyczne.

5) Pendrive o pojemności 4 GB może pomieścić 4 000 000 000: 3 508 771, 93 = (odejmuj trzy zera w dzielnej i dzielniku) = 4 000 000: 3 508 = 1 139,99 zdjęć = (okrągłe) 1140 zdjęć, z których każde ma rozmiar nie większy niż 3,5 MB .

Można też obliczyć w przybliżeniu. Następnie: Na dysku flash o pojemności 4 GB można zapisać 4 000 000 000: 3 500 000 = (zmniejsz dzielną i dzielnik o pięć zer) = 40 000: 35 = 1 142,86 zdjęć = (zaokrąglając w dół) 1 140 zdjęć, z których każde ma rozmiar nie większy niż 3,5 MB

Ciągle coś mierzymy – czas, długość, prędkość, masę. Dla każdej wielkości istnieje własna jednostka miary, a często kilka. Metry i kilometry, kilogramy i tony, sekundy i godziny - wszystko to jest nam znane. Jak mierzyć informację? Wynaleziono także w celach informacyjnych jednostka miary i nazwał ją fragment.

Bit to najmniejsza jednostka informacji.

Jeden bit zawiera bardzo mało informacji. Może przyjmować tylko jedną z dwóch wartości (1 lub 0, tak lub nie, prawda lub fałsz). Mierzenie informacji w bitach jest bardzo niewygodne – liczby okazują się ogromne. W końcu nie mierzy się masy samochodu w gramach.

Na przykład, jeśli przedstawimy pojemność dysku flash o pojemności 4 GB w bitach, otrzymamy 34 359 738 368 bitów. Wyobraź sobie, że przyszedłeś sklep komputerowy i poproś sprzedawcę o udostępnienie Ci pendrive'a o pojemności 34 359 738 368 bitów. Jest mało prawdopodobne, że cię zrozumie

Dlatego w informatyce i w życiu stosuje się jednostki informacji oparte na bitach. Ale wszystkie mają niezwykłą właściwość - są potęgą dwójki z krokiem 10.

Weźmy więc liczbę 2 i podnieśmy ją do potęgi zerowej. Otrzymujemy 1 (każda liczba do potęgi zerowej jest równa 1). To będzie bajt.

W jednym bajcie jest 8 bitów.

Teraz podnosimy 2 do potęgi 10 - otrzymujemy 1024. To jest kilobajt(KB).

W jednym kilobajcie znajdują się 1024 bajty.

Jeśli podniesiemy 2 do potęgi 20, otrzymamy megabajt(MB).

1 MB = 1024 KB.

Nazwa Symbol Stopień
bajt B 2 0
kilobajt kB 2 10
megabajt MB 2 20
gigabajt GB 2 30
terabajt gruźlica 2 40
petabajt PB 2 50
eksabajt EB 2 60
zettabajt ZB 2 70
jotabajt JB 2 80

Zrozumienie tego tematu pozwoli Ci odnieść sukces