Szybkie i terminowe dostarczanie społeczeństwu wiarygodnych informacji. Rola informacji w fizyce

Warunkiem koniecznym zapewnienia wysokiej jakości obsługi pasażerów jest podanie rzetelnej informacji o możliwości przejazdu pomiędzy dwoma punktami. Im krótszy czas podróży pasażera, tym bardziej jest to dla niego opłacalne i tym większa jest efektywność przewozu pasażerów.

W miarę jak sieć transportowa rozwija się i staje się coraz bardziej złożona, pasażerom coraz trudniej jest poruszać się po morzu informacji referencyjnych. Z pomocą przychodzą systemy informacyjne, dostarczające informacji o możliwości podróżowania i dostępności miejsc. Poziom usług informacyjnych i referencyjnych dla pasażerów jest jednak nadal daleki od doskonałości. Tym samym nie ma możliwości wyszukiwania trasy podczas podróży z przesiadką różnymi rodzajami transportu naziemnego. Nawet w przypadku niektórych rodzajów transportu taka usługa referencyjna nie jest świadczona. Bez informacji o możliwych opcjach podróży pasażerowie mają ograniczone możliwości wyboru trasy pod względem czasu i kosztów.

Jako przykład przyjrzyjmy się możliwościom globalnego systemu rezerwacji miejsc „Express”. Tak naprawdę nie daje możliwości wyszukiwania trasy z przesiadką. Jeśli więc pasażer chce pojechać pociągiem z Kaliningradu do Władywostoku, system informuje kasjera: „Nie ma bezpośredniej wiadomości. Przygotuj odpowiedź ręcznie”. Tę samą odpowiedź otrzymuje pasażer, który zwróci się do terminali informacyjnych na stacji kolejowej: „Nie ma bezpośredniego połączenia. Spróbuj przygotować trasę podróży, korzystając z atlasu kolejowego”.

Jeśli jest połączenie bezpośrednie, ale nie ma biletów na trasy bezpośrednie, Express odpowiada: „Brak biletów”, a pasażer nie może dotrzeć do celu.

Jeszcze trudniejszym zadaniem jest znalezienie trasy intermodalnej (wiele środków transportu). Są w naszym kraju regiony, które nie posiadają połączeń kolejowych. Pasażer podróżujący z takiego regionu do innego nieuchronnie staje przed zadaniem znalezienia możliwej trasy.

Oprócz globalnych systemów informacyjnych, w węzłach komunikacyjnych funkcjonują odrębne systemy referencyjne, które dostarczają informacji o poszczególnych rodzajach transportu w danym mieście lub regionie. Niektóre z tych systemów posiadają strony internetowe z regularnie aktualizowanymi informacjami o trasach. Pomimo ogromnej liczby witryn internetowych oferujących informacje podstawowe jeśli chodzi o rozkłady jazdy, wszystkie są albo punktami dostępu do systemu Express (i podobnymi), albo opierają się na prostych bazach danych, które nie są w stanie rozwiązać problemu znalezienia trasy pasażerskiej.

Aby rozwiązać rozpatrywany problem, opracowano system referencyjny: „Wyszukiwanie tras pasażerskich różnymi rodzajami transportu, z uwzględnieniem przesiadek i dostępności wolnych miejsc”. Wersja demonstracyjna systemu jest już dostępna jako strona referencyjna pod adresem. Jest to obecnie jedyny system odniesienia w Rosji, który daje odpowiedź na pytanie, jak dojechać z Kaliningradu do Władywostoku w konkretna data i w zależności od dostępności.

stacja pasażerska stacja kolejowa

Przykładowy diagram trasy z punktami przesiadkowymi

Interaktywna mapa trasy ze stacji Kazańskiej w Moskwie Powiększ

Obecnie system zawiera aktualne informacje o rozkładach jazdy wszystkich pociągów dalekobieżnych i autobusów międzymiastowych w kilku regionach Rosji. W celach demonstracyjnych wprowadzono także nieaktualne rozkłady jazdy pociągów elektrycznych w obwodzie moskiewskim. Usługa pozwala znaleźć trasę z przesiadką pomiędzy różnymi środkami transportu, trasę z kilkoma przesiadkami oraz uwzględnia dostępność miejsc.

Cechą wyróżniającą system jest powiązanie węzłów transportowych ze współrzędnymi geograficznymi. Zapewnia to działanie oryginalnego algorytmu wyszukiwania ścieżki i pozwala szybko i sprawnie znaleźć możliwe punkty przesiadkowe. System jest zintegrowany z usługa mapowania GoogleMaps, dzięki któremu wyświetlane są znalezione trasy pociągów i możliwości podróży interaktywna mapa.

Serwis dostępny dla użytkowników oparty jest na kompleksowym pakiecie oprogramowania składającym się z kilku modułów.

Należą do nich: specjalistyczna baza danych przechowująca informacje o węzłach komunikacyjnych i rozkładach jazdy poszczególnych rodzajów transportu; programy przygotowania danych do systemu pomocy; program do interakcji online z systemami rezerwacyjnymi w celu uzyskania aktualnych informacji o dostępności. Trzon usługi wyszukiwania stanowi program z implementacją algorytmów wyszukiwania. Strona internetowa służy jako interfejs umożliwiający dostęp do rdzenia systemu pomocy.

Głównym repozytorium informacji dla systemu pomocy jest wyspecjalizowana baza danych. Zawiera tabele do przechowywania danych i implementacji podstawowych algorytmów. W odróżnieniu od prostych modeli przechowywania informacji o rozkładach jazdy, struktura bazy danych umożliwia przechowywanie i porządkowanie informacji dla różnych rodzajów transportu, które różnią się sposobem organizacji rozkładów jazdy. Kolejną istotną różnicą w stosunku do baz rozkładów jazdy jest przechowywanie informacji geograficznych o lokalizacji węzłów komunikacyjnych. Doświadczenie pokazało, że do prawidłowego i szybkiego wyszukania złożonej trasy niezbędna jest dostępność danych geograficznych.

Na poziomie bazy danych zaimplementowano najważniejszy algorytm systemu pomocy - wyszukiwanie możliwych tras podróży. Działa poprzez analizę danych harmonogramu i współrzędnych geograficznych.

Programy do przygotowywania danych systemu pomocy to zestaw podstawowych programów do przetwarzania i importowania. Służą do wprowadzenia do systemu informacji wstępnych. W systemie integrującym heterogeniczne środki transportu dane pochodzą z wielu źródeł różne sposoby i w różne kształty. Przykładowo, dane można odbierać w czasie rzeczywistym za pomocą specjalnego protokołu poprzez dedykowany kanał informacyjny. Lub dane mogą być okresowo przesyłane w formie plików na specjalny serwer, a system musi je pobierać samodzielnie. Formaty plików mogą być również różne: pliki tekstowe i tabelaryczne lub XML.

Zadanie pakiet oprogramowania- analizować otrzymane dane pod kątem błędów i poprzez powiązanie harmonogramów z odpowiednimi obiektami geograficznymi zapisać je na serwerze.

Niestety, w jakichkolwiek danych są błędy. Typowym błędem w tym przypadku są nieprawidłowe nazwy węzłów komunikacyjnych. Przykładowo na dworcu kolejowym i dworcu autobusowym znajdującym się obok niego ta sama lokalizacja geograficzna może mieć różne nazwy. W takich przypadkach nie da się obejść bez operatora programu – osoby kontrolującej postęp ładowania danych. W przypadku niejasności w danych program kontaktuje się z osobą i prosi o doprecyzowanie danych. Następnie wybór zostaje zapamiętany, a następnie ta dwuznaczność zostanie automatycznie wyeliminowana.

W wyniku działania pakietu oprogramowania baza danych otrzymuje początkową zawartość. Ale to nie wystarczy, aby dostarczyć odpowiednich informacji. Służy do tego moduł trzeci – program do interakcji on-line z systemami rezerwacji i sprzedaży biletów. Moduł uzyskuje dostęp do systemów zewnętrznych w czasie rzeczywistym i określa wymagane informacje.

Ze względu na szybkie zmiany danych o dostępności, nie ma możliwości przechowywania informacji w systemie. Próba scentralizowania takich danych nie jest technicznie wykonalna, ponieważ wymagałaby takiej samej ilości miejsca na dane, jak wszystkie systemy zewnętrzne razem wzięte.

Z punktu widzenia systemów zewnętrznych program interakcji online jest klientem żądającym informacji o dostępności i aktualizacjach rozkładów jazdy. Konkretna realizacja interakcji zależy od rodzaju źródła. Dla systemu Express jest to emulator terminala pracujący w referencyjnym trybie dostępu. W przypadku innych systemów zewnętrznych może to być wyspecjalizowany klient internetowy.

Z punktu widzenia systemu pomocy program interakcji online jest odrębnym serwerem, na który wysyłane są żądania z modułu wyszukiwania (oraz do modułu od użytkowników). Żądania są umieszczane w kolejce na podstawie priorytetu i czasu przybycia oraz wysyłane do zewnętrznych systemów pomocy.

Moduł pozwala automatycznie zachować aktualność informacji na najważniejszych kierunkach np. Moskwa - Sankt Petersburg. W takim przypadku otrzymana informacja jest przechowywana w systemie przez pewien czas i przy ponawianiu żądania nie ładuje systemów zewnętrznych.

Trzon usługi wyszukiwania jest wielopoziomowy moduł oprogramowania, który z jednej strony wchodzi w interakcję z bazą danych i serwisem internetowym, a z drugiej z użytkownikiem (poprzez stronę internetową). Po otrzymaniu zapytania o możliwość przejazdu pomiędzy punktami A i B moduł dokonuje wstępnej analizy danych i parametrów zapytania. Jeśli niedawno dokonano podobnego uruchomienia, to na tym etapie możesz zwrócić odpowiedź klientowi. Jeżeli parametry żądania są prawidłowe, moduł odwołuje się do algorytmu wyszukiwania tras zaimplementowanego w bazie danych. Algorytm przeprowadza wstępne wyszukiwanie możliwych tras z uwzględnieniem rozkładów jazdy i zwraca do modułu kilka możliwych tras przejazdu.

Drugi etap to kompleksowa analiza znalezionych tras. Na tym etapie sprawdzane są dni kursowania, dla każdej znalezionej trasy wyliczane są statystyki i ustalany jest optymalny wariant podróży. Jeżeli rozliczenie dni kursowych wykaże, że pociąg w danym dniu nie kursuje, to moduł ponownie uzyskuje dostęp do algorytmu bazy danych i żąda opcje alternatywne podróż W ostatnim etapie moduł wysyła zapytania o dostępność do serwera interakcji online. Żądania umieszczane są w kolejce, a moduł oczekuje na otrzymanie informacji z systemów zewnętrznych. Następnie wyniki wyszukiwania są ostatecznie sprawdzane i przesyłane do klienta (strony internetowej).

Zewnętrzny widoczne dla użytkowników moduł jest internetową witryną referencyjną. Można na nim utworzyć zapytanie referencyjne dotyczące możliwości przejazdu pomiędzy punktami A i B. Można określić termin przejazdu oraz rodzaj dostępnych miejsc, które należy wziąć pod uwagę przy wyszukiwaniu. Jeśli więc użytkownika nie stać na podróżowanie luksusowymi samochodami, może to wyraźnie wskazać, a drogie opcje podróży zostaną wykluczone z wyników wyszukiwania.

Można podać zarówno nazwę węzła komunikacyjnego (stacji), jak i nazwę miasta. Na przykład miasto Jekaterynburg (stacja Swierdłowsk). Jeśli użytkownik określi miasto, wyszukiwanie zostanie przeprowadzone ze wszystkich dworców kolejowych i autobusowych miasta; jeśli wskazuje konkretną stację, to tylko z określonej stacji.

Dzięki integracji serwisu z usługą mapową GoogleMaps użytkownik otrzymuje nie tylko informacje o harmonogramie i dostępności, ale także wizualną reprezentację trasy wycieczki na interaktywnej mapie. Na mapie prezentowane są alternatywne możliwości podróżowania, po kliknięciu na które można uzyskać informację o możliwościach podróży wybraną trasą.

Informacja to informacja o czymś

Pojęcie i rodzaje informacji, przekazywanie i przetwarzanie, wyszukiwanie i przechowywanie informacji

Rozwiń zawartość

Zwiń zawartość

Informacja to definicja

Informacja jest wszelkie informacje otrzymane i przesłane, przechowywane przez różne źródła. Informacja to cały zbiór informacji o otaczającym nas świecie, o wszelkiego rodzaju procesach w nim zachodzących, który może być postrzegany przez organizmy żywe, maszyny elektroniczne i inne systemy informacyjne.

- Ten istotna informacja o czymś, gdy forma jej przedstawienia jest jednocześnie informacją, czyli pełni funkcję formatującą zgodnie ze swą naturą.

Informacja jest wszystko co da się uzupełnić naszą wiedzą i założeniami.

Informacja jest informacja o czymś, niezależnie od formy jej przedstawienia.

Informacja jest mentalny produkt każdego organizmu psychofizycznego, wytworzony przez niego za pomocą jakichkolwiek środków, zwany nośnikiem informacji.

Informacja jest informacje postrzegane przez ludzi i (lub) specjalistów. urządzenia jako odzwierciedlenie faktów świata materialnego lub duchowego w procesie komunikacji.

Informacja jest dane zorganizowane w taki sposób, aby miały sens dla osoby, która je przetwarza.

Informacja jest znaczenie, jakie dana osoba przywiązuje do danych w oparciu o znane konwencje stosowane do ich reprezentacji.

Informacja jest informacja, wyjaśnienie, prezentacja.

Informacja jest wszelkie dane lub informacje, które kogokolwiek interesują.

Informacja jest informacja o obiektach i zjawiskach środowiska, ich parametrach, właściwościach i stanie, które są postrzegane przez systemy informacyjne (organizmy żywe, maszyny sterujące itp.) w procesie życia i pracy.

Ten sam przekaz informacyjny (artykuł w gazecie, ogłoszenie, list, telegram, zaświadczenie, opowiadanie, rysunek, audycja radiowa itp.) może zawierać różną ilość informacji dla różni ludzie- w zależności od ich wcześniejszej wiedzy, poziomu zrozumienia tego przekazu i zainteresowania nim.

W przypadkach, gdy mówią o zautomatyzowanej pracy z informacją przy użyciu jakichkolwiek urządzeń technicznych, nie interesuje ich treść komunikatu, ale to, ile znaków ta wiadomość zawiera.

W odniesieniu do komputerowego przetwarzania danych przez informację rozumie się pewien ciąg oznaczeń symbolicznych (litery, cyfry, zakodowane obrazy graficzne i dźwięki itp.), niosący ładunek semantyczny i przedstawiony w formie zrozumiałej dla komputera. Każdy nowy znak w takim ciągu znaków wzrasta objętość informacji wiadomości.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różne obszary wiedzy, koncepcja ta opisana jest poprzez specyficzny zestaw cech. Na przykład pojęcie „informacja” jest podstawowe na kursie informatyki i nie da się go zdefiniować innymi, „prostszymi” pojęciami (podobnie jak na przykład w geometrii nie da się wyrazić treści podstawowe koncepcje„punkt”, „prosta”, „płaszczyzna” poprzez prostsze pojęcia).


Treść podstawowych, podstawowych pojęć w każdej nauce należy wyjaśnić przykładami lub zidentyfikować poprzez porównanie ich z treścią innych pojęć. W przypadku pojęcia „informacja” problem jego definicji jest jeszcze bardziej złożony, gdyż jest to pojęcie ogólnonaukowe. Pojęcie to jest stosowane w różnych naukach (informatyka, cybernetyka, biologia, fizyka itp.), a w każdej nauce pojęcie „informacji” wiąże się z różne systemy koncepcje.


Koncepcja informacji

W nowoczesna nauka Pod uwagę brane są dwa rodzaje informacji:

Informacja obiektywna (pierwotna) to właściwość obiektów materialnych i zjawisk (procesów) polegająca na generowaniu różnorodnych stanów, które poprzez interakcje (interakcje fundamentalne) są przekazywane innym obiektom i odciśnięte w ich strukturze.

Informacja subiektywna (semantyczna, semantyczna, wtórna) to semantyczna treść obiektywnej informacji o obiektach i procesach świata materialnego, utworzona przez ludzką świadomość za pomocą obrazów semantycznych (słów, obrazów i wrażeń) i zapisana na jakimś materialnym nośniku.


W potocznym rozumieniu informacja to informacja o otaczającym świecie i zachodzących w nim procesach, postrzegana przez człowieka lub specjalne urządzenie.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Według koncepcji K. Shannona informacja jest usuwana z niepewności, tj. informacja, która powinna w takim czy innym stopniu usunąć niepewność istniejącą u konsumenta przed jej otrzymaniem i poszerzyć jego zrozumienie przedmiotu o przydatne informacje.


Z punktu widzenia Gregory'ego Betona podstawową jednostką informacji jest „różnica nieobojętna” lub różnica efektywna dla jakiegoś większego systemu postrzegania. Te różnice, które nie są postrzegane, nazywa „potencjalnymi”, a te, które są postrzegane jako „skuteczne”. „Informacja składa się z różnic, które nie są obojętne” (c) „Każde postrzeganie informacji jest z konieczności otrzymaniem informacji o różnicy”. Z punktu widzenia informatyki informacja ma szereg podstawowych właściwości: nowość, trafność, wiarygodność, obiektywność, kompletność, wartość itp. Nauka logiczna zajmuje się przede wszystkim analizą informacji. Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie informacji rozważali starożytni filozofowie.

Przed rozpoczęciem rewolucji przemysłowej określenie istoty informacji pozostawało prerogatywą głównie filozofów. Następnie nowa nauka, cybernetyka, zaczęła zajmować się zagadnieniami teorii informacji.

Czasami, aby zrozumieć istotę pojęcia, warto przeanalizować znaczenie słowa, którym to pojęcie jest oznaczane. Wyjaśnienie wewnętrznej formy słowa i przestudiowanie historii jego użycia może rzucić nieoczekiwane światło na jego znaczenie, przyćmione zwykłym „technologicznym” użyciem tego słowa i współczesnymi konotacjami.

Słowo informacja weszło do języka rosyjskiego w epoce Piotrowej. Po raz pierwszy zostało ono odnotowane w „Przepisach duchowych” z 1721 r. w znaczeniu „idei, koncepcji czegoś”. (W językach europejskich ustalono to wcześniej - około XIV wieku.)

W oparciu o tę etymologię za informację można uznać każdą znaczącą zmianę kształtu lub, innymi słowy, wszelkie materialnie zapisane ślady powstałe w wyniku interakcji obiektów lub sił i możliwe do zrozumienia. Informacja jest zatem przekształconą formą energii. Nośnikiem informacji jest znak, a sposobem jej istnienia jest interpretacja: określenie znaczenia znaku lub ciągu znaków.

Znaczeniem może być zdarzenie odtworzone ze znaku, który spowodował jego wystąpienie (w przypadku znaków „naturalnych” i mimowolnych, takich jak ślady, dowody itp.) lub przesłanie (w przypadku znaków konwencjonalnych tkwiących w sferze języka). To drugi rodzaj znaków tworzący korpus kultury ludzkiej, który według jednej z definicji stanowi „zestaw informacji niedziedzicznie przekazywanych”.

Wiadomości mogą zawierać informacje o faktach lub ich interpretację (z języka łacińskiego interpretatio, interpretacja, tłumaczenie).

Żywa istota otrzymuje informacje za pośrednictwem zmysłów, a także poprzez refleksję lub intuicję. Wymiana informacji między podmiotami to komunikacja lub komunikacja (od łac. lecommunications, wiadomość, przekaz, wywodzące się z kolei od łac. communico, tworzyć wspólny, komunikować się, rozmawiać, łączyć).

Z praktycznego punktu widzenia informacja jest zawsze prezentowana w formie komunikatu. Komunikat informacyjny jest powiązany ze źródłem komunikatu, odbiorcą komunikatu i kanałem komunikacji.


Wracając do łacińskiej etymologii słowa informacja, spróbujmy odpowiedzieć na pytanie, jaką dokładnie formę ma tu nadana.

Jest rzeczą oczywistą, że po pierwsze do pewnego znaczenia, które początkowo jest bezkształtne i niewyrażone, istnieje jedynie potencjalnie i musi zostać „zbudowane”, aby zostało dostrzeżone i przekazane.

Po drugie, do ludzkiego umysłu, który jest wyszkolony do myślenia strukturalnego i jasnego. Po trzecie, społeczeństwu, które właśnie dzięki temu, że jego członkowie podzielają te znaczenia i wspólnie z nich korzystają, zyskuje jedność i funkcjonalność.

Informacja w rozumieniu inteligentnego znaczenia to wiedza, która może być przechowywana, przekazywana i stanowić podstawę do generowania innej wiedzy. Formy konserwacji wiedzy (pamięci historycznej) są różnorodne: od mitów, kronik i piramid po biblioteki, muzea i komputerowe bazy danych dane.

Informacja to informacja o otaczającym nas świecie, o procesach w nim zachodzących, które są postrzegane przez organizmy żywe, maszyny sterujące i inne systemy informacyjne.

Słowo „informacja” pochodzi z języka łacińskiego. W ciągu długiego życia jego znaczenie przeszło ewolucję, rozszerzając się lub skrajnie zawężając jego granice. Początkowo słowo „informacja” oznaczało: „reprezentację”, „koncepcję”, następnie „informację”, „przekaz komunikatów”.


W ostatnie lata naukowcy uznali, że zwyczajowe (powszechnie akceptowane) znaczenie słowa „informacja” jest zbyt elastyczne, niejasne i nadali mu następujące znaczenie: „miara pewności w przekazie”.

Teoria informacji zrodziła się z potrzeb praktyki. Jego pochodzenie wiąże się z pracą Claude'a Shannona „Matematyczna teoria komunikacji”, opublikowaną w 1946 roku. Podstawy teorii informacji opierają się na wynikach uzyskanych przez wielu naukowców. Do drugiej połowy XX wieku Ziemia wibrowały informacje przesyłane kablami telefonicznymi i telegraficznymi oraz kanałami radiowymi. Później pojawiły się komputery elektroniczne - procesory informacji. I w tym czasie głównym zadaniem teorii informacji było przede wszystkim zwiększenie wydajności systemów komunikacyjnych. Trudność w projektowaniu i obsłudze środków, systemów i kanałów komunikacji polega na tym, że projektant i inżynier nie wystarczy rozwiązać problem z punktu widzenia fizycznego i energetycznego. Z tych punktów widzenia system może być najbardziej zaawansowany i ekonomiczny. Jednak tworząc systemy transmisji, należy zwrócić uwagę na to, ile informacji przejdzie przez ten system transmisji. Przecież informację można mierzyć ilościowo, policzyć. I w takich obliczeniach postępują najzwyczajniej: abstrahują od znaczenia przekazu, tak jak porzucają konkretność w znanych nam wszystkim operacjach arytmetycznych (przechodząc od dodawania dwóch jabłek i trzech jabłek do dodawania liczb ogólnie: 2 + 3).


Naukowcy stwierdzili, że „całkowicie zignorowali ocenę informacji przez człowieka”. Na przykład kolejnemu ciągowi 100 liter przypisują informację określone znaczenie, nie zwracając uwagi na to, czy informacja ta ma sens i czy ma to z kolei sens w praktycznym zastosowaniu. Podejście ilościowe jest najbardziej rozwiniętą gałęzią teorii informacji. Zgodnie z tą definicją zbiór 100 liter – 100-literowe zdanie z gazety, sztuki Szekspira czy twierdzenia Einsteina – zawiera dokładnie tę samą ilość informacji.


Ta definicja ilości informacji jest niezwykle użyteczna i praktyczna. Odpowiada to dokładnie zadaniu inżyniera łączności, który musi przekazać wszystkie informacje zawarte w przesłanym telegramie, niezależnie od wartości tej informacji dla adresata. Kanał komunikacji jest bezduszny. Dla systemu transmisji ważne jest jedno: przekazać wymaganą ilość informacji w określonym czasie. Jak obliczyć ilość informacji w konkretnej wiadomości?

Ocena ilości informacji opiera się na prawach teorii prawdopodobieństwa, a dokładniej, jest ustalana poprzez prawdopodobieństwa zdarzeń. To jest zrozumiałe. Komunikat ma wartość i niesie informację tylko wtedy, gdy dowiadujemy się z niego o wyniku zdarzenia o charakterze losowym, gdy jest ono w pewnym stopniu nieoczekiwane. Przecież wiadomość o tym, co już wiadomo, nie zawiera żadnych informacji. Te. Jeśli na przykład ktoś do Ciebie zadzwoni i powie: „W dzień jest jasno, w nocy ciemno”, to taka wiadomość zaskoczy Cię jedynie absurdem stwierdzenia czegoś oczywistego i znanego wszystkim, a nie zawarte w nim wiadomości. Inną rzeczą jest na przykład wynik wyścigu. Kto przyjdzie pierwszy? Wynik tutaj jest trudny do przewidzenia.Im bardziej losowe skutki ma interesujące nas zdarzenie, tym cenniejszy jest przekaz o jego wyniku, tym więcej informacji. Komunikat o zdarzeniu, które ma tylko dwa równie możliwe wyniki, zawiera pojedynczą jednostkę informacji zwaną bitem. Wybór jednostki informacyjnej nie jest przypadkowy. Jest to związane z najpopularniejszym binarnym sposobem kodowania go podczas transmisji i przetwarzania. Spróbujmy sobie to wyobrazić, przynajmniej w najbardziej uproszczonej formie ogólna zasada ilościowa ocena informacji, która jest kamieniem węgielnym wszelkiej teorii informacji.


Wiemy już, że ilość informacji zależy od prawdopodobieństwa określonych wyników zdarzenia. Jeśli zdarzenie, jak mówią naukowcy, ma dwa równie prawdopodobne wyniki, oznacza to, że prawdopodobieństwo każdego wyniku wynosi 1/2. Jest to prawdopodobieństwo wyrzucenia orła lub reszki podczas rzucania monetą. Jeśli zdarzenie ma trzy równie prawdopodobne wyniki, prawdopodobieństwo każdego z nich wynosi 1/3. Należy pamiętać, że suma prawdopodobieństw wszystkich wyników jest zawsze równa jeden: w końcu jeden ze wszystkich możliwych wyników na pewno wystąpi. Zdarzenie, jak sam rozumiesz, może mieć nierówno prawdopodobne wyniki. Zatem w meczu piłkarskim pomiędzy silną i słabą drużyną prawdopodobieństwo wygranej mocnej drużyny jest wysokie – na przykład 4/5. Prawdopodobieństwo remisu jest znacznie niższe, na przykład 3/20. Prawdopodobieństwo porażki jest bardzo małe.


Okazuje się, że ilość informacji jest miarą zmniejszania niepewności danej sytuacji. Kanałami komunikacyjnymi przesyłane są różne ilości informacji, a ilość informacji przechodzących przez ten kanał nie może być większa niż jego pojemność. Zależy to od tego, ile informacji przepływa tutaj w jednostce czasu. Jeden z bohaterów powieści Juliusza Verne’a Tajemnicza wyspa, dziennikarz Gideon Spillett, przekazał telefonicznie rozdział Biblii, aby jego konkurenci nie mogli z niego skorzystać komunikacja telefoniczna. W tym przypadku kanał był w pełni załadowany, a ilość informacji była równa zeru, ponieważ znane mu informacje zostały przesłane do abonenta. Oznacza to, że kanał działał bezczynnie, przechodząc ściśle określona ilość impulsy bez obciążania ich niczym. Tymczasem im więcej informacji niesie każdy z określonej liczby impulsów, tym pełniej wykorzystywana jest pojemność kanału. Trzeba więc mądrze kodować informacje, znaleźć oszczędny, oszczędny język do przekazywania komunikatów.


Informacje są „przesiewane” w najdokładniejszy sposób. W telegrafie często występujące litery, kombinacje liter, a nawet całe frazy są reprezentowane przez krótszy zestaw zer i jedynek, a te, które występują rzadziej, są reprezentowane przez dłuższy zestaw. W przypadku, gdy długość słowa kodowego jest zmniejszana dla symboli często występujących, a zwiększana dla rzadko występujących, mówi się o skutecznym kodowaniu informacji. Jednak w praktyce często zdarza się, że kod, który powstał w wyniku najdokładniejszego „przesiewania”, kod jest wygodny i ekonomiczny, może zniekształcić przekaz na skutek zakłóceń, co niestety zawsze ma miejsce w kanałach komunikacji: dźwięk zniekształcenia w telefonie, zakłócenia atmosferyczne w radiu, zniekształcenie lub przyciemnienie obrazu w telewizji, błędy transmisji w telegrafie. Ta ingerencja, lub jak to nazywają eksperci, szum, atakuje informację. A to skutkuje najbardziej niesamowitymi i oczywiście nieprzyjemnymi niespodziankami.


Dlatego, aby zwiększyć niezawodność transmisji i przetwarzania informacji, konieczne jest wprowadzenie dodatkowych znaków - swego rodzaju zabezpieczenie przed zniekształceniami. One – te dodatkowe symbole – nie niosą ze sobą faktycznej treści przekazu, są zbędne. Z punktu widzenia teorii informacji wszystko, co czyni język kolorowym, elastycznym, bogatym w odcienie, wieloaspektowym, wielowartościowym, to redundancja. Jakże zbędny jest z tego punktu widzenia list Tatiany do Oniegina! Ileż w nim nadmiaru informacji w krótkim i zrozumiałym przekazie „Kocham Cię”! I jak dokładne informacyjnie są ręcznie rysowane znaki, zrozumiałe dla każdego, kto dziś wchodzi do metra, gdzie zamiast słów i zwrotów ogłoszeń widnieją lakoniczne symboliczne znaki wskazujące: „Wejście”, „Wyjście”.


W tym kontekście warto przypomnieć anegdotę opowiedzianą kiedyś przez słynnego amerykańskiego naukowca Benjamina Franklina o twórcy kapeluszy, który zaprosił swoich przyjaciół do omówienia projektu znaku, który miał narysować na znaku kapelusz i napisać: „John Thompson , kapelusznik, produkuje i sprzedaje kapelusze za gotówkę.”. Jeden ze znajomych zauważył, że słowa „za gotówkę” są niepotrzebne – takie przypomnienie byłoby obraźliwe dla kupującego. Inny również uznał, że słowo „sprzedaje” jest zbyteczne, skoro nie trzeba dodawać, że kapelusznik sprzedaje kapelusze i nie rozdaje ich za darmo. Trzeci uważał, że słowa „kapelusznik” i „robi kapelusze” są niepotrzebną tautologią i te ostatnie słowa zostały wyrzucone. Czwarty sugerował, że słowo „kapelusznik” również należy wyrzucić – pomalowany kapelusz wyraźnie mówi, kim jest John Thompson. Wreszcie piąty upierał się, że dla kupującego nie ma absolutnie żadnej różnicy, czy kapelusznik nazywa się John Thompson, czy jakoś inaczej, i zasugerował, aby zrezygnować z tego oznaczenia, tak że ostatecznie na znaku nie pozostało nic poza kapeluszem. Oczywiście, gdyby ludzie używali tylko tego rodzaju kodów, bez zbędnych przekazów, wówczas wszelkie „formularze informacyjne” – książki, raporty, artykuły – byłyby niezwykle krótkie. Ale straciliby na przejrzystości i pięknie.

Informacje można podzielić na typy według różnych kryteriów: wprawdzie: prawda i fałsz;

w drodze percepcji:

Wizualny - postrzegany przez narządy wzroku;

Słuchowe - odbierane przez narządy słuchu;

Dotykowy - postrzegany przez receptory dotykowe;

Węchowy - odbierany przez receptory węchowe;

Smakowe - odbierane przez kubki smakowe.


według formularza prezentacji:

Tekst – przekazywany w postaci symboli mających oznaczać leksemy języka;

Numeryczne - w postaci liczb i znaków wskazujących działania matematyczne;

Grafika – w formie obrazów, obiektów, wykresów;

Dźwięk - ustne lub nagrane przekazywanie leksemów językowych za pomocą środków słuchowych.


według celu:

Msza – zawiera trywialne informacje i operuje zestawem pojęć zrozumiałych dla większości społeczeństwa;

Specjalny - zawiera określony zestaw pojęć; w przypadku użycia przekazywane są informacje, które mogą nie być zrozumiałe dla większości społeczeństwa, ale są konieczne i zrozumiałe w wąskiej grupie społecznej, w której te informacje są wykorzystywane;

Sekretne – przekazywane wąskiemu kręgowi osób i zamkniętymi (chronionymi) kanałami;

Osobisty (prywatny) - zbiór informacji o osobie, określający status społeczny i typy interakcje społeczne w obrębie populacji.


według wartości:

Istotne – informacje, które są wartościowe w danym momencie;

Rzetelne – informacja uzyskana bez zniekształceń;

Zrozumiałe – informacja wyrażona językiem dla niego jasne dla kogo jest przeznaczony;

Kompletny – informacje wystarczające do podjęcia właściwej decyzji lub zrozumienia;

Przydatne – o przydatności informacji decyduje podmiot, który ją otrzymał, w zależności od zakresu możliwości jej wykorzystania.


Wartość informacji w różnych dziedzinach wiedzy

Obecnie w teorii informacji opracowywanych jest wiele systemów, metod, podejść i pomysłów. Naukowcy uważają jednak, że do współczesnych kierunków teorii informacji dołączą się nowe i pojawią się nowe idee. Jako dowód słuszności swoich założeń przytaczają „żywy”, rozwijający się charakter nauki, wskazując, że teoria informacji zaskakująco szybko i stanowczo zostaje wprowadzona w najróżniejsze obszary ludzkiej wiedzy. Teoria informacji przeniknęła do fizyki, chemii, biologii, medycyny, filozofii, językoznawstwa, pedagogiki, ekonomii, logiki, nauk technicznych i estetyki. Zdaniem samych ekspertów doktryna informacji, która powstała na potrzeby teorii komunikacji i cybernetyki, przekroczyła ich granice. A teraz być może mamy prawo mówić o informacji jako o koncepcji naukowej, która daje teoretyczne - metoda informacyjna, za pomocą którego można zgłębić wiele nauk o życiu i przyroda nieożywiona, o społeczeństwie, które pozwoli nie tylko spojrzeć na wszystkie problemy z nowej perspektywy, ale także zobaczyć to, czego jeszcze nie było widać. Dlatego też termin „informacja” stał się w naszych czasach powszechny, wchodząc w skład takich pojęć, jak system informacyjny, kultura informacyjna, a nawet etyka informacyjna.


Wiele dyscyplin naukowych wykorzystuje teorię informacji do uwypuklenia nowych kierunków w starych naukach. W ten sposób powstała na przykład geografia informacji, ekonomia informacji i prawo informacyjne. Jednak termin „informacja” nabrał niezwykle dużego znaczenia w związku z rozwojem najnowszej technologii komputerowej, automatyzacją pracy umysłowej, rozwojem nowych środków komunikacji i przetwarzania informacji, a zwłaszcza wraz z pojawieniem się informatyki. Jednym z najważniejszych zadań teorii informacji jest badanie natury i właściwości informacji, tworzenie metod jej przetwarzania, w szczególności przekształcanie szerokiej gamy współczesnych informacji na programy komputerowe, za pomocą których automatyzacja następuje praca umysłowa - swego rodzaju wzmocnienie inteligencji, a co za tym idzie rozwój zasobów intelektualnych społeczeństwa.


Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kierunku informatyka, jednak nie da się go zdefiniować innymi, bardziej „prostszymi” pojęciami. Pojęcie „informacja” jest stosowane w różnych naukach, a w każdej nauce pojęcie „informacji” informacja” wiąże się z różnymi systemami pojęć. Informacja w biologii: Biologia bada przyrodę żywą, a pojęcie „informacji” wiąże się z właściwym zachowaniem organizmów żywych. W organizmach żywych informacja jest przekazywana i przechowywana za pomocą obiektów o różnej naturze fizycznej (stan DNA), które są uważane za znaki alfabetów biologicznych. Informacja genetyczna jest dziedziczona i przechowywana we wszystkich komórkach organizmów żywych. Podejście filozoficzne: Informacja to interakcja, refleksja, poznanie. Podejście cybernetyczne: Informacja to charakterystyka sygnału sterującego przesyłanego linią komunikacyjną.

Rola informacji w filozofii

We wczesnych definicjach informacji jako kategorii, pojęcia, właściwości świata materialnego stale dominował tradycjonalizm subiektywizmu. Informacja istnieje poza naszą świadomością i może znaleźć odzwierciedlenie w naszej percepcji jedynie w wyniku interakcji: refleksji, odczytania, odbioru w postaci sygnału, bodźca. Informacja nie jest materialna, jak wszystkie właściwości materii. Informacja jest uporządkowana w następujący sposób: materia, przestrzeń, czas, systematyczność, funkcja itp., które są podstawowymi pojęciami sformalizowanego odzwierciedlenia obiektywnej rzeczywistości w jej rozmieszczeniu i zmienności, różnorodności i przejawach. Informacja jest właściwością materii i odzwierciedla jej właściwości (stan lub zdolność do interakcji) oraz ilość (miarę) poprzez interakcję.


Z materialnego punktu widzenia informacja jest porządkiem obiektów w świecie materialnym. Na przykład kolejność liter na kartce papieru według określonych zasad jest informacją pisemną. Kolejność pojawiania się wielobarwnych kropek na kartce papieru według określonych zasad jest taka informacje graficzne. Kolejność nut jest informacją muzyczną. Kolejność genów w DNA jest informacją dziedziczną. Kolejność bitów w komputerze to informacja komputerowa itp. i tak dalej. Aby przeprowadzić wymianę informacji, wymagana jest obecność warunków niezbędnych i wystarczających.

Niezbędne warunki:

Obecność co najmniej dwóch różnych obiektów świata materialnego lub niematerialnego;

Obecność wspólnej właściwości obiektów, która pozwala na ich identyfikację jako nośnika informacji;

Obecność określonej właściwości obiektów, która pozwala im odróżnić obiekty od siebie;

Obecność właściwości przestrzeni, która pozwala określić kolejność obiektów. Na przykład układ informacji pisanych na papierze jest specyficzną właściwością papieru, która umożliwia układanie liter od lewej do prawej i od góry do dołu.


Jest tylko jeden warunek wystarczający: obecność podmiotu zdolnego do rozpoznania informacji. To człowiek i społeczeństwo ludzkie, społeczeństwa zwierząt, robotów itp. Przekaz informacyjny konstruowany jest poprzez wybranie z bazy kopii obiektów i ułożenie tych obiektów w przestrzeni w określonej kolejności. Długość komunikatu informacyjnego jest definiowana jako liczba kopii obiektów bazowych i zawsze wyrażana jest jako liczba całkowita. Należy rozróżnić długość przekazu informacyjnego, mierzoną zawsze liczbą całkowitą, od ilości wiedzy zawartej w przekazie informacyjnym, mierzonej w nieznanej jednostce miary. Z matematycznego punktu widzenia informacja to ciąg liczb całkowitych zapisanych w wektorze. Liczby są numerami obiektów w bazie informacyjnej. Wektor nazywany jest niezmiennikiem informacyjnym, ponieważ nie zależy od fizycznej natury obiektów bazowych. Ten sam przekaz informacyjny może być wyrażony w literach, słowach, zdaniach, plikach, obrazach, notatkach, piosenkach, klipach wideo lub dowolnej kombinacji wszystkich powyższych.

Rola informacji w fizyce

Informacja to informacja o otaczającym ją świecie (obiekcie, procesie, zjawisku, zdarzeniu), która jest przedmiotem transformacji (w tym przechowywania, transmisji itp.) i służy kształtowaniu zachowań, podejmowaniu decyzji, zarządzaniu czy uczeniu się.


Charakterystycznymi cechami informacji są:

Jest to najważniejszy zasób współczesnej produkcji: zmniejsza zapotrzebowanie na ziemię, pracę, kapitał, zmniejsza zużycie surowców i energii. Jeśli więc np. masz możliwość archiwizacji plików (tj. posiadasz takie informacje), nie musisz wydawać pieniędzy na zakup nowych dyskietek;

Informacje ożywiają nowe produkcje. Na przykład wynalazek Wiązka laserowa był przyczyną powstania i rozwoju produkcji dysków laserowych (optycznych);

Informacja jest towarem i sprzedawca informacji nie traci jej po sprzedaży. Jeśli więc student w trakcie semestru przekaże koledze informację o planie zajęć, nie straci tych danych dla siebie;

Informacje dodają wartość innym zasobom, w szczególności pracy. Rzeczywiście, pracownik z wyższym wykształceniem jest ceniony bardziej niż ten z wykształceniem średnim.


Jak wynika z definicji, z informacją zawsze kojarzone są trzy pojęcia:

Źródłem informacji jest ten element otaczającego świata (obiekt, proces, zjawisko, zdarzenie), o którym informacja jest przedmiotem transformacji. Zatem źródłem informacji, jakie obecnie otrzymuje czytelnik tego podręcznika, jest informatyka jako dziedzina działalności człowieka;

Konsument informacji to ten element otaczającego świata, który wykorzystuje informacje (do kształtowania zachowań, podejmowania decyzji, zarządzania lub uczenia się). Konsumentem tych informacji jest sam czytelnik;

Sygnał to materialny nośnik, który rejestruje informację w celu przekazania jej ze źródła do konsumenta. W tym przypadku sygnał ma charakter elektroniczny. Jeżeli uczeń zabierze ten podręcznik z biblioteki, wówczas te same informacje będą zapisane na papierze. Po przeczytaniu i zapamiętaniu przez ucznia informacja nabierze innego nośnika – biologicznego, gdy zostanie „zapisana” w pamięci ucznia.


Sygnał jest najważniejszym elementem w tym obwodzie. Formy jej prezentacji oraz istotne dla odbiorcy informacji cechy ilościowe i jakościowe zawartych w niej informacji omówiono w dalszej części podręcznika. Główne cechy komputera jako głównego narzędzia przekształcającego źródło informacji w sygnał (link 1 na rysunku) i „dostarczającego” sygnał do konsumenta informacji (link 2 na rysunku) podano w części Komputer . Struktura procedur realizujących połączenia 1 i 2 tworzących proces informacyjny jest przedmiotem rozważań w części Proces informacyjny.

Obiekty świata materialnego znajdują się w stanie ciągłej zmiany, która charakteryzuje się wymianą energii pomiędzy obiektem a otoczeniem. Zmiana stanu jednego obiektu zawsze prowadzi do zmiany stanu innego obiektu środowiska. Zjawisko to, niezależnie od tego jak, jakie stany i jakie obiekty uległy zmianie, można uznać za transmisję sygnału z jednego obiektu na drugi. Zmiana stanu obiektu po przesłaniu do niego sygnału nazywana jest rejestracją sygnału.


Sygnał lub sekwencja sygnałów tworzy komunikat, który odbiorca może odebrać w takiej czy innej formie, a także w takiej czy innej objętości. Informacja w fizyce to termin, który jakościowo uogólnia pojęcia „sygnał” i „wiadomość”. Jeśli sygnały i komunikaty można określić ilościowo, wówczas możemy powiedzieć, że sygnały i komunikaty są jednostkami miary objętości informacji. Komunikat (sygnał) jest różnie interpretowany przez różne systemy. Na przykład kolejno długie i dwa krótkie sygnały dźwiękowe w terminologii alfabetu Morse'a jest to litera de (lub D), w terminologii BIOS-u z AWARD jest to awaria karty graficznej.

Rola informacji w matematyce

W matematyce teoria informacji (teoria komunikacji matematycznej) jest działem matematyki stosowanej, który definiuje pojęcie informacji, jej właściwości oraz ustanawia zależności ograniczające dla systemów transmisji danych. Główne gałęzie teorii informacji to kodowanie źródłowe (kodowanie kompresyjne) i kodowanie kanałowe (odporne na szumy). Matematyka to coś więcej niż dyscyplina naukowa. Tworzy jednolity język dla całej nauki.


Przedmiotem badań matematyki są obiekty abstrakcyjne: liczba, funkcja, wektor, zbiór i inne. Co więcej, większość z nich jest wprowadzana aksjomatycznie (aksjomat), tj. bez żadnego związku z innymi pojęciami i bez jakiejkolwiek definicji.

Informacja nie jest częścią nauki matematyki. Jednakże słowo „informacja” jest używane w kategoriach matematycznych – własne informacje oraz wzajemne informacje związane z abstrakcyjną (matematyczną) częścią teorii informacji. Jednak w teorii matematycznej pojęcie „informacji” kojarzy się wyłącznie z obiektami abstrakcyjnymi – zmiennymi losowymi, natomiast we współczesnej teorii informacji pojęcie to jest rozpatrywane znacznie szerzej – jako właściwość obiektów materialnych. Związek między tymi dwoma identycznymi terminami jest niezaprzeczalny. To jest aparat matematyczny losowe liczby używany przez autora teorii informacji Claude'a Shannona. On sam pod pojęciem „informacji” rozumie coś fundamentalnego (nieredukowalnego). Teoria Shannona intuicyjnie zakłada, że ​​informacja ma treść. Informacja zmniejsza ogólną niepewność i entropię informacji. Ilość informacji jest mierzalna. Przestrzega jednak badaczy przed mechanicznym przenoszeniem pojęć ze swojej teorii do innych dziedzin nauki.


„Poszukiwanie sposobów zastosowania teorii informacji w innych dziedzinach nauki nie sprowadza się do trywialnego przenoszenia terminów z jednej dziedziny nauki do drugiej. Poszukiwanie to odbywa się w długim procesie stawiania nowych hipotez i ich eksperymentalnego sprawdzania .” K. Shannona.

Rola informacji w cybernetyce

Założyciel cybernetyki, Norbert Wiener, mówił o takich informacjach:

Informacja nie jest materią ani energią, informacja jest informacją.” Jednak podstawowa definicja informacji, którą podał w kilku swoich książkach, jest następująca: informacja to określenie treści otrzymywanej przez nas ze świata zewnętrznego, w procesie dostosowując nas i nasze uczucia.

Informacja jest podstawowym pojęciem cybernetyki, podobnie jak informacja ekonomiczna jest podstawowym pojęciem cybernetyki ekonomicznej.


Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem jest oczywiście to, że cybernetyką jako zjawiskiem zajmują się różne nauki, a cybernetyka jest dopiero najmłodszą z nich. Informacja jest przedmiotem badań takich nauk, jak nauki o zarządzaniu, statystyka matematyczna, genetyka, teoria środków masowego przekazu (prasa, radio, telewizja), informatyka, która zajmuje się problematyką informacji naukowo-technicznej itp. Wreszcie w ostatnimi czasy filozofowie wykazują duże zainteresowanie problematyką energii: skłonni są uważać energię za jedną z głównych uniwersalnych właściwości materii, kojarzoną z koncepcją odbicia. Przy wszystkich interpretacjach pojęcia informacji zakłada ono istnienie dwóch obiektów: źródła informacji i konsumenta (odbiorcy) informacji.Przekazywanie informacji między sobą odbywa się za pomocą sygnałów, które, ogólnie rzecz biorąc, może nie mieć żadnego fizycznego związku z jego znaczeniem: niniejszy przekaz jest ustalany w drodze umowy. Przykładowo, bicie dzwonu veche oznaczało, że trzeba było zebrać się na placu, lecz tym, którzy nie wiedzieli o tym nakazie, nie przekazywał żadnych informacji.


W sytuacji z dzwonkiem veche osoba uczestnicząca w uzgadnianiu znaczenia sygnału wie, że w tej chwili mogą być dwie alternatywy: spotkanie veche się odbędzie lub nie. Lub, w języku teorii informacji, niepewne wydarzenie (veche) ma dwa skutki. Otrzymany sygnał prowadzi do zmniejszenia niepewności: osoba wie już, że dane wydarzenie (wieczór) ma tylko jeden wynik – nastąpi. Jeżeli jednak z góry było wiadomo, że spotkanie odbędzie się o takiej a takiej godzinie, dzwonek nie zapowiadał niczego nowego. Wynika z tego, że im mniej prawdopodobny (tj. bardziej nieoczekiwany) jest komunikat, tym więcej zawiera informacji i odwrotnie, im większe prawdopodobieństwo wyniku przed wystąpieniem zdarzenia, tym mniej informacji zawiera. Mniej więcej to samo rozumowanie przeprowadzono w latach 40. XX wieku. XX wiek do powstania statystycznej, czyli „klasycznej” teorii informacji, która definiuje pojęcie informacji poprzez miarę zmniejszania niepewności wiedzy o wystąpieniu zdarzenia (miarę tę nazwano entropią). Początkami tej nauki byli N. Wiener, K. Shannon i radzieccy naukowcy A. N. Kołmogorow, V. A. Kotelnikow i inni. Potrafili wyprowadzić matematyczne prawa pomiaru ilości informacji, a stąd takie pojęcia, jak pojemność kanału i., pojemność pamięci I. urządzeń itp., co stanowiło potężną zachętę do rozwoju cybernetyki jako nauki i technologii obliczeń elektronicznych jako praktyczne zastosowanie osiągnięcia cybernetyki.


Jeśli chodzi o określenie wartości i przydatności informacji dla odbiorcy, nadal pozostaje wiele nierozwiązanych i niejasnych kwestii. Jeśli wyjdziemy od potrzeb zarządzania gospodarczego, a co za tym idzie cybernetyki ekonomicznej, to informację można zdefiniować jako całość informacji, wiedzy i komunikatów, które pomagają rozwiązać konkretny problem zarządzania (czyli zmniejszyć niepewność jego wyników). Otwierają się wówczas pewne możliwości oceny informacji: im bardziej jest ona użyteczna i cenna, tym szybciej lub mniejszym kosztem prowadzi do rozwiązania problemu. Pojęcie informacji jest bliskie pojęciu danych. Jest jednak między nimi różnica: dane to sygnały, z których należy jeszcze wydobyć informacje.Przetwarzanie danych to proces doprowadzenia ich do odpowiedniej do tego postaci.


Proces ich przekazywania od źródła do konsumenta i postrzegania jako informacji można uznać za przechodzący przez trzy filtry:

Fizyczne lub statystyczne (czysto ilościowe ograniczenie przepustowości kanału, niezależnie od zawartości danych, tj. z punktu widzenia syntaktyki);

Semantyczny (wybór takich danych, które są zrozumiałe dla odbiorcy, czyli odpowiadają tezaurusowi jego wiedzy);

Pragmatyczny (wybór spośród zrozumiałych informacji tych, które są przydatne do rozwiązania danego problemu).

Widać to wyraźnie na schemacie zaczerpniętym z książki E. G. Yasina o informacje gospodarcze. W związku z tym wyróżnia się trzy aspekty badania problemów językowych - syntaktyczny, semantyczny i pragmatyczny.


Ze względu na treść informacje dzielą się na społeczno-polityczne, społeczno-ekonomiczne (w tym ekonomiczne), naukowo-techniczne itp. Ogólnie rzecz biorąc, istnieje wiele klasyfikacji informacji, opierają się one na różnych podstawach. Z reguły, ze względu na bliskość pojęć, klasyfikacje danych konstruowane są w ten sam sposób. Na przykład informacja jest podzielona na statyczną (stała) i dynamiczną (zmienną), a dane są podzielone na stałe i zmienne. Kolejnym podziałem jest informacja pierwotna, pochodna, wyjściowa (w ten sam sposób klasyfikuje się także dane). Trzeci dział to I. kontrolowanie i informowanie. Po czwarte - zbędne, przydatne i fałszywe. Po piąte – pełne (ciągłe) i selektywne. Ta koncepcja Wienera daje bezpośrednie wskazanie na obiektywność informacji, tj. jego istnienie w przyrodzie jest niezależne od ludzkiej świadomości (percepcji).

Współczesna cybernetyka definiuje informację obiektywną jako obiektywną właściwość obiektów i zjawisk materialnych, która generuje różnorodne stany, które poprzez fundamentalne oddziaływania materii są przekazywane z jednego obiektu (procesu) na drugi i odciśnięte w jego strukturze. System materialny w cybernetyce jest uważany za zbiór obiektów, które same mogą znajdować się w różnych stanach, ale o stanie każdego z nich decydują stany innych obiektów układu.

W naturze wiele stanów systemu reprezentuje informację; same stany reprezentują kod pierwotny, czyli kod źródłowy. Zatem każdy system materialny jest źródłem informacji. Cybernetyka definiuje informację subiektywną (semantyczną) jako znaczenie lub treść komunikatu.

Rola informacji w informatyce

Przedmiotem nauki są dane: sposoby ich tworzenia, przechowywania, przetwarzania i przesyłania. Treść (też: „wypełnienie” (w kontekście), „zawartość witryny”) to termin oznaczający wszelkiego rodzaju informacje (zarówno tekstowe, jak i multimedialne - obrazy, audio, wideo), które składają się na treść (wizualizowaną, dla odwiedzającego, treść ) strony internetowej. Służy do oddzielenia pojęcia informacji tworzącej wewnętrzną strukturę strony/strony (kod) od tego, co ostatecznie zostanie wyświetlone na ekranie.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kursie informatyki, jednak nie da się go zdefiniować za pomocą innych, bardziej „prostych” pojęć.


Można wyróżnić następujące podejścia do ustalania informacji:

Tradycyjne (zwykłe) - stosowane w informatyce: Informacja to informacja, wiedza, komunikaty o stanie rzeczy, które człowiek odbiera ze świata zewnętrznego za pomocą zmysłów (wzrok, słuch, smak, węch, dotyk).

Probabilistyczna - stosowana w teorii informacji: Informacja to informacja o obiektach i zjawiskach otoczenia, ich parametrach, właściwościach i stanie, które zmniejszają stopień niepewności i niepełnej wiedzy na ich temat.


Informacje są przechowywane, przesyłane i przetwarzane w formie symbolicznej (znaku). Te same informacje można przedstawić w różnych formach:

Pismo migowe, składające się z różnych znaków, wśród których wyróżnia się znaki symboliczne w postaci tekstu, cyfr, znaków specjalnych. postacie; graficzny; tabelaryczne itp.;

W formie gestów lub sygnałów;

Ustna forma werbalna (rozmowa).


Informacje prezentowane są przy użyciu języków jako systemów znaków, które zbudowane są w oparciu o określony alfabet i posiadają zasady wykonywania operacji na znakach. Język jest specyficznym systemem znaków służącym do przedstawiania informacji. Istnieć:

Języki naturalne to języki mówione w formie mówionej i pisanej. W niektórych przypadkach język mówiony można zastąpić językiem mimiki i gestów, językiem znaków specjalnych (na przykład znaków drogowych);

Języki formalne– języki specjalne dla różnych dziedzin ludzkiej działalności, które charakteryzują się ściśle ustalonym alfabetem, bardziej rygorystycznymi zasadami gramatyki i składni. Jest to język muzyki (nuty), język matematyki (cyfry, symbole matematyczne), systemy liczbowe, języki programowania itp. Podstawą każdego języka jest alfabet – zbiór symboli/znaków. Całkowita liczba symboli alfabetu nazywana jest zwykle potęgą alfabetu.


Media informacyjne to medium lub ciało fizyczne służące do przesyłania, przechowywania i odtwarzania informacji. (Są to sygnały elektryczne, świetlne, termiczne, dźwiękowe, radiowe, dyski magnetyczne i laserowe, publikacje drukowane, fotografie itp.)

Procesy informacyjne to procesy związane z otrzymywaniem, przechowywaniem, przetwarzaniem i przesyłaniem informacji (tj. czynności wykonywane na informacjach). Te. Są to procesy, podczas których zmienia się treść informacji lub forma jej prezentacji.

Aby zapewnić proces informacyjny, potrzebne jest źródło informacji, kanał komunikacji i konsument informacji. Źródło przekazuje (wysyła) informację, a odbiorca ją odbiera (postrzega). Przesyłana informacja przemieszcza się od źródła do odbiorcy za pomocą sygnału (kodu). Zmiana sygnału umożliwia uzyskanie informacji.

Będąc przedmiotem transformacji i użytkowania, informacja charakteryzuje się następującymi właściwościami:

Składnia to właściwość określająca sposób prezentacji informacji na nośniku (w sygnale). Tym samym informacje te prezentowane są na nośnikach elektronicznych przy użyciu określonej czcionki. Tutaj możesz także wziąć pod uwagę takie parametry prezentacji informacji, jak styl i kolor czcionki, jej rozmiar, odstępy między wierszami itp. O wyborze niezbędnych parametrów jako właściwości składniowych decyduje oczywiście zamierzony sposób transformacji. Na przykład dla osoby słabo widzącej ważny jest rozmiar i kolor czcionki. Jeśli planujesz wprowadzić ten tekst do komputera za pomocą skanera, ważny jest rozmiar papieru;


Semantyka to właściwość określająca znaczenie informacji jako zgodność sygnału ze światem rzeczywistym. Zatem semantyka sygnału „informatyka” kryje się w podanej wcześniej definicji. Semantykę można uznać za pewną, znaną konsumentowi informacji, zgodę na to, co oznacza każdy sygnał (tzw. reguła interpretacji). Na przykład semantykę sygnałów bada początkujący kierowca, studiując zasady ruchu drogowego, ucząc się znaków drogowych (w tym przypadku same znaki są sygnałami). Semantyki słów (sygnałów) uczy się uczeń języka obcego. Można powiedzieć, że celem nauczania informatyki jest badanie semantyki różnych sygnałów – istoty kluczowych pojęć tej dyscypliny;


Pragmatyka to właściwość określająca wpływ informacji na zachowania konsumentów. Zatem pragmatyką informacji, jakie otrzymuje czytelnik tego podręcznika, jest co najmniej pomyślne zdanie egzaminu z informatyki. Chciałbym wierzyć, że pragmatyka tej pracy nie będzie się na tym ograniczać, ale posłuży do dalszej edukacji i aktywności zawodowej czytelnika.

Należy zauważyć, że sygnały różniące się składnią mogą mieć tę samą semantykę. Na przykład sygnały „komputer” i „komputer” oznaczają urządzenie elektroniczne służące do przetwarzania informacji. W tym przypadku zwykle mówimy o synonimii sygnału. Z drugiej strony, jeden sygnał (czyli informacja o jednej właściwości syntaktycznej) może mieć dla konsumentów inną pragmatykę i inną semantykę. Więc, znak drogowy, zwany „cegłą” i mający bardzo specyficzną semantykę („zakaz wjazdu”), oznacza zakaz wjazdu dla kierowcy, ale nie ma wpływu na pieszego. Jednocześnie sygnał „klucz” może mieć różną semantykę: klucz wiolinowy, klucz sprężynowy, klucz do otwierania zamka, klucz stosowany w informatyce do kodowania sygnału w celu zabezpieczenia go przed nieupoważnionym dostępem (w w tym przypadku mowa o homonimii sygnału). Istnieją sygnały - antonimy, które mają przeciwną semantykę. Na przykład „zimno” i „gorąco”, „szybko” i „wolno” itp.


Przedmiotem badań nauk informatycznych są dane: metody ich tworzenia, przechowywania, przetwarzania i przesyłania. A sama informacja zapisana w danych, jej znaczenie, interesuje użytkowników systemów informatycznych, specjalistów z różnych nauk i dziedzin działalności: lekarz interesuje się informacją medyczną, geolog informacją geologiczną, przedsiębiorca interesuje się informacjami handlowymi itp. (W szczególności informatyk jest zainteresowany informacjami na temat pracy z danymi).

Semiotyka - nauka o informacji

Nie można sobie wyobrazić informacji bez jej otrzymania, przetworzenia, przekazania itp., czyli poza ramami wymiany informacji. Wszelkie akty wymiany informacji odbywają się za pomocą symboli lub znaków, za pomocą których jeden system wpływa na drugi. Dlatego główną nauką badającą informację jest semiotyka - nauka o znakach i systemach znaków w przyrodzie i społeczeństwie (teoria znaków). W każdym akcie wymiany informacji można wyróżnić trzech „uczestników”, trzy elementy: znak, przedmiot, który on oznacza, oraz odbiorca (użytkownik) znaku.


W zależności od relacji pomiędzy rozważanymi elementami semiotykę dzieli się na trzy działy: syntaktykę, semantykę i pragmatykę. Syntaktyka bada znaki i relacje między nimi. Jednocześnie abstrahuje od treści znaku i jego praktycznego znaczenia dla odbiorcy. Semantyka bada relację między znakami a przedmiotami, które one oznaczają, abstrahując od odbiorcy znaków i wartości tego ostatniego: dla niego. Oczywiste jest, że badanie wzorców semantycznej reprezentacji obiektów w znakach jest niemożliwe bez uwzględnienia i wykorzystania ogólnych wzorców konstrukcji dowolnych systemów znakowych badanych przez syntaktykę. Pragmatyka zajmuje się badaniem relacji między znakami a ich użytkownikami. W ramach pragmatyki badane są wszystkie czynniki odróżniające jeden akt wymiany informacji od drugiego, wszelkie kwestie praktycznych skutków wykorzystania informacji i jej wartości dla odbiorcy.


W tym przypadku nieuchronnie wpływa to na wiele aspektów relacji znaków ze sobą i z oznaczanymi przez nie przedmiotami. Zatem trzem działam semiotyki odpowiadają trzy poziomy abstrakcji (odwrócenia uwagi) od cech konkretnych aktów wymiany informacji. Badanie informacji w całej jej różnorodności odpowiada poziomowi pragmatycznemu. Odwracając uwagę odbiorcy informacji, wykluczając go z rozważań, przechodzimy do jej badania na poziomie semantycznym. Wraz z abstrakcją od treści znaków analiza informacji zostaje przeniesiona na poziom syntaktyki. To przenikanie się głównych działów semiotyki, związanych z różnymi poziomami abstrakcji, można przedstawić za pomocą diagramu „Trzy działy semiotyki i ich wzajemne powiązania”. Pomiar informacji odbywa się odpowiednio w trzech aspektach: syntaktycznym, semantycznym i pragmatycznym. Potrzeba takich inny wymiar Informacja, jak zostanie pokazane poniżej, jest podyktowana praktyką projektowania i organizacji pracy systemów informatycznych. Rozważmy typową sytuację produkcyjną.


Pod koniec zmiany planista budowy przygotowuje dane dotyczące harmonogramu produkcji. Dane te trafiają do centrum informacyjno-obliczeniowego (ICC) przedsiębiorstwa, gdzie są przetwarzane i w formie raportów o bieżącym stanie produkcji wydawane menadżerom. Na podstawie otrzymanych danych kierownik warsztatu podejmuje decyzję o zmianie planu produkcji na kolejny okres planistyczny lub o podjęciu innych działań organizacyjnych. Oczywiście dla kierownika sklepu ilość informacji zawartych w podsumowaniu zależy od wielkości efektu ekonomicznego, jaki uzyska z ich wykorzystania w procesie decyzyjnym, od tego, jak przydatne były otrzymane informacje. Dla planisty serwisu o ilości informacji zawartych w tej samej wiadomości decyduje trafność jej zgodności ze stanem faktycznym na obiekcie oraz stopień zaskoczenia raportowanymi faktami. Im bardziej są one nieoczekiwane, tym szybciej należy je zgłosić kierownictwu, tym więcej informacji zawiera ta wiadomość. Dla pracowników ICC ilość znaków i długość komunikatu niosącego informację będzie miała ogromne znaczenie, gdyż to właśnie od niej zależy czas ładowania sprzętu komputerowego i kanałów komunikacyjnych. Jednocześnie praktycznie nie interesuje ich ani użyteczność informacji, ani ilościowy miernik wartości semantycznej informacji.


Naturalnie organizując system zarządzania produkcją i budując modele wyboru decyzji, będziemy wykorzystywać użyteczność informacji jako miarę informatywności komunikatów. Budując system księgowo-raportowy zapewniający zarządzanie danymi o postępie procesu produkcyjnego, jako miarę ilości informacji należy przyjąć nowość otrzymanych informacji. Organizacja procedur mechanicznego przetwarzania informacji wymaga pomiaru objętości komunikatów w postaci liczby przetworzonych znaków. Te trzy zasadniczo różne podejścia do pomiaru informacji nie są sprzeczne ani wzajemnie się wykluczają. Wręcz przeciwnie, mierząc informacje w różnych skalach, pozwalają na pełniejszą i kompleksową ocenę zawartości informacyjnej każdego przekazu oraz efektywniej organizują system zarządzania produkcją. Według trafnego określenia prof. NIE. Kobryńskiego, jeśli chodzi o racjonalną organizację przepływu informacji, ilość, nowość i użyteczność informacji są ze sobą powiązane tak samo, jak ilość, jakość i koszt wytwarzanych produktów.

Informacje w świecie materialnym

Informacja jest jednym z Pojęcia ogólne związany z materią. Informacja istnieje w każdym obiekcie materialnym w postaci różnorodnych jego stanów i jest przenoszona z obiektu na obiekt w procesie ich interakcji. Istnienie informacji jako obiektywnej właściwości materii wynika logicznie ze znanych podstawowych właściwości materii – budowy, ciągłej zmiany (ruchu) i wzajemnego oddziaływania obiektów materialnych.


Struktura materii objawia się wewnętrznym rozczłonkowaniem integralności, naturalnym porządkiem łączenia elementów w całość. Innymi słowy, każdy obiekt materialny, począwszy od subatomowej cząstki Metawszechświata (Wielkiego Wybuchu) jako całości, jest systemem wzajemnie połączonych podsystemów. W wyniku ciągłego ruchu, rozumianego szeroko jako ruch w przestrzeni i rozwój w czasie, obiekty materialne zmieniają swój stan. Stany obiektów zmieniają się także podczas interakcji z innymi obiektami. Zbiór stanów systemu materialnego i wszystkich jego podsystemów reprezentuje informację o systemie.


Ściśle mówiąc, ze względu na niepewność, nieskończoność i właściwości struktury, ilość obiektywnej informacji w każdym obiekcie materialnym jest nieskończona. Informacje te nazywane są kompletnymi. Można jednak wyróżnić poziomy strukturalne o skończonych zbiorach stanów. Informacje istniejące na poziomie strukturalnym o skończonej liczbie stanów nazywane są prywatnymi. W przypadku informacji prywatnych koncepcja ilości informacji ma sens.

Z powyższej prezentacji logiczny i prosty jest wybór jednostki miary ilości informacji. Wyobraźmy sobie układ, który może znajdować się tylko w dwóch stanach jednakowo prawdopodobnych. Jednemu z nich przypiszemy kod „1”, a drugiemu „0”. Jest to minimalna ilość informacji, jaką może pomieścić system. Jest to jednostka miary informacji i nazywa się bitem. Istnieją inne, trudniejsze do zdefiniowania metody i jednostki pomiaru ilości informacji.


W zależności od materialnej formy nośnika, informacje dzielą się na dwa główne typy – analogowe i dyskretne. Informacje analogowe zmieniają się w sposób ciągły w czasie i pobierają wartości z kontinuum wartości. Informacje dyskretne zmieniają się w niektórych momentach i przyjmują wartości z określonego zestawu wartości. Podstawowym źródłem informacji jest każdy materialny obiekt lub proces. Wszystkie jego możliwe stany składają się na kod źródłowy informacji. Chwilowa wartość stanów jest reprezentowana jako symbol („litera”) tego kodu. Aby informacja mogła zostać przesłana z jednego obiektu do drugiego jako odbiorcy, konieczne jest istnienie jakiegoś pośredniego ośrodka materialnego, który oddziałuje ze źródłem. Takie nośniki w przyrodzie z reguły szybko rozprzestrzeniają się procesy struktury falowej - promieniowanie kosmiczne, gamma i rentgenowskie, fale elektromagnetyczne i dźwiękowe, potencjały (i być może jeszcze nie odkryte fale) pola grawitacyjnego. Kiedy promieniowanie elektromagnetyczne oddziałuje z obiektem w wyniku absorpcji lub odbicia, zmienia się jego widmo, tj. zmieniają się intensywności niektórych długości fal. Harmoniczne drgań dźwięku zmieniają się także podczas interakcji z obiektami. Informacja przekazywana jest również poprzez interakcję mechaniczną, jednak interakcja mechaniczna z reguły prowadzi do dużych zmian w strukturze obiektów (aż do ich zniszczenia), a informacja jest znacznie zniekształcona. Zniekształcenie informacji podczas jej transmisji nazywa się dezinformacją.


Przeniesienie informacji źródłowej na strukturę nośnika nazywa się kodowaniem. W tym przypadku kod źródłowy jest konwertowany na kod nośnika. Nośnik, do którego przesłano kod źródłowy w postaci kodu nośnego, nazywany jest sygnałem. Odbiornik sygnału ma swój własny zestaw możliwych stanów, który nazywany jest kodem odbiornika. Sygnał wchodząc w interakcję z obiektem odbiorczym zmienia swój stan. Proces konwersji kodu sygnału na kod odbiornika nazywany jest dekodowaniem.Przekazywanie informacji ze źródła do odbiornika można uznać za interakcję informacyjną. Interakcja informacyjna zasadniczo różni się od innych interakcji. We wszystkich innych interakcjach obiektów materialnych następuje wymiana materii i (lub) energii. W tym przypadku jeden z obiektów traci materię lub energię, a drugi ją zyskuje. Ta właściwość interakcji nazywa się symetrią. Podczas interakcji informacyjnej odbiorca otrzymuje informację, ale źródło jej nie traci. Interakcja informacji jest asymetryczna. Obiektywna informacja sama w sobie nie jest materialna, jest właściwością materii, taką jak struktura, ruch i istnieje na nośnikach materialnych w postaci własnych kodów.

Informacje w dzikiej przyrodzie

Dzika przyroda jest złożona i różnorodna. Źródłem i odbiorcą informacji w nim są żywe organizmy i ich komórki. Organizm ma szereg właściwości odróżniających go od nieożywionych obiektów materialnych.


Podstawowy:

Ciągła wymiana materii, energii i informacji z otoczeniem;

Drażliwość, zdolność organizmu do postrzegania i przetwarzania informacji o zmianach w otoczeniu i środowisku wewnętrznym organizmu;

Pobudliwość, zdolność reagowania na bodźce;

Samoorganizacja objawiająca się zmianami w organizmie w celu przystosowania się do warunków środowiskowych.


Organizm rozumiany jako system ma strukturę hierarchiczną. Struktura ta w stosunku do samego organizmu dzieli się na poziomy wewnętrzne: molekularny, komórkowy, narządowy i wreszcie sam organizm. Jednak organizm oddziałuje również ponad organizmami żywymi, których poziomami są populacja, ekosystem i cała żywa przyroda jako całość (biosfera). Pomiędzy wszystkimi tymi poziomami krążą nie tylko przepływy materii i energii, ale także informacji.Współpraca informacyjna w przyrodzie ożywionej przebiega w taki sam sposób, jak w przyrodzie nieożywionej. Jednocześnie żywa przyroda w procesie ewolucji stworzyła szeroką gamę źródeł, nośników i odbiorców informacji.


Reakcja na wpływy świata zewnętrznego objawia się we wszystkich organizmach, ponieważ jest spowodowana drażliwością. U organizmów wyższych przystosowanie się do środowiska zewnętrznego jest działaniem złożonym, skutecznym jedynie przy dostatecznie pełnej i aktualnej informacji o środowisku. Odbiorcami informacji ze środowiska zewnętrznego są ich narządy zmysłów, do których zalicza się wzrok, słuch, węch, smak, dotyk oraz narząd przedsionkowy. W wewnętrznej strukturze organizmów znajdują się liczne receptory wewnętrzne związane z układem nerwowym. Układ nerwowy składa się z neuronów, których procesy (aksony i dendryty) są analogiczne do kanałów przekazywania informacji. Głównymi narządami przechowującymi i przetwarzającymi informacje u kręgowców są rdzeń kręgowy i mózg. Zgodnie z charakterystyką zmysłów, informacje odbierane przez organizm można podzielić na wizualne, słuchowe, smakowe, węchowe i dotykowe.


Gdy sygnał dociera do siatkówki ludzkiego oka, w szczególny sposób pobudza komórki tworzące tę część oka. Impulsy nerwowe z komórek przekazywane są poprzez aksony do mózgu. Mózg zapamiętuje to uczucie w postaci pewnej kombinacji stanów neuronów składowych. (Przykład jest kontynuowany w części „Informacja w społeczeństwie ludzkim”). Gromadząc informacje, mózg tworzy na swojej strukturze połączoną strukturę model informacyjny otaczający świat. W przyrodzie żywej ważną cechą organizmu odbierającego informację jest jej dostępność. Ilość informacji, jaką ludzki układ nerwowy jest w stanie przesłać do mózgu podczas czytania tekstu, wynosi około 1 bit na 1/16 s.

Badanie organizmów komplikuje ich złożoność. Abstrakcja struktury jako zbioru matematycznego, akceptowalna dla obiektów nieożywionych, jest mało akceptowalna dla organizmu żywego, gdyż aby stworzyć mniej lub bardziej adekwatny abstrakcyjny model organizmu, należy wziąć pod uwagę wszystkie hierarchiczne poziomach jego struktury. Dlatego trudno jest wprowadzić miarę ilości informacji. Bardzo trudno jest określić powiązania pomiędzy elementami konstrukcji. Jeśli wiadomo, który narząd jest źródłem informacji, to jaki jest sygnał, a jaki odbiornik?


Przed pojawieniem się komputerów biologia, która zajmuje się badaniem organizmów żywych, była wykorzystywana wyłącznie jakościowo, tj. modele opisowe. W modelu jakościowym prawie niemożliwe jest uwzględnienie powiązań informacyjnych pomiędzy elementami konstrukcji. Elektroniczna technologia obliczeniowa umożliwiła zastosowanie nowych metod w badaniach biologicznych, w szczególności metody modelowania maszynowego, która polega na matematycznym opisie znanych zjawisk i procesów zachodzących w organizmie, dodaniu do nich hipotez na temat niektórych nieznanych procesów i obliczeniu możliwych zachowań wzorce organizmu. Uzyskane opcje porównuje się z rzeczywistym zachowaniem organizmu, co pozwala określić prawdziwość lub fałszywość postawionych hipotez. Takie modele mogą również uwzględniać interakcję informacyjną. Procesy informacyjne zapewniające istnienie samego życia są niezwykle złożone. I choć intuicyjnie wiadomo, że właściwość ta jest bezpośrednio związana z tworzeniem, przechowywaniem i przekazywaniem pełnej informacji o budowie organizmu, to abstrakcyjny opis tego zjawiska przez pewien czas wydawał się niemożliwy. Jednak procesy informacyjne zapewniające istnienie tej właściwości zostały częściowo ujawnione poprzez rozszyfrowanie kodu genetycznego i odczytanie genomów różne organizmy.

Informacja w społeczeństwie ludzkim

Rozwój materii w procesie ruchu ma na celu skomplikowanie struktury obiektów materialnych. Jeden z najbardziej złożone struktury- ludzki mózg. Jak dotąd jest to jedyna znana nam struktura, która ma właściwość, którą sam człowiek nazywa świadomością. Mówiąc o informacji, my, istoty myślące, a priori mamy na myśli, że informacja oprócz swojej obecności w postaci sygnałów, które otrzymujemy, ma również pewne znaczenie. Tworząc w umyśle model otaczającego świata jako zbiór wzajemnie powiązanych modeli jego obiektów i procesów, człowiek posługuje się pojęciami semantycznymi, a nie informacją. Znaczenie jest istotą każdego zjawiska, która nie pokrywa się sama ze sobą i łączy je z szerszym kontekstem rzeczywistości. Samo słowo bezpośrednio wskazuje, że treść semantyczną informacji mogą formować jedynie myślący odbiorcy informacji. W społeczeństwie ludzkim decydujące znaczenie ma nie sama informacja, ale jej treść semantyczna.


Przykład (ciąg dalszy). Doświadczywszy takiego wrażenia, osoba przypisuje przedmiotowi pojęcie „pomidor”, a jego stanowi pojęcie „kolor czerwony”. Ponadto jego świadomość naprawia połączenie: „pomidor” - „czerwony”. Takie jest znaczenie odbieranego sygnału. (Przykład kontynuowany poniżej w tej sekcji). Zdolność mózgu do tworzenia znaczących koncepcji i połączeń między nimi jest podstawą świadomości. Świadomość można uznać za samodoskonalący się model semantyczny otaczającego świata. Znaczenie nie jest informacją. Informacja istnieje wyłącznie na materialnym nośniku. Ludzka świadomość jest uważana za niematerialną. Znaczenie istnieje w ludzkim umyśle w postaci słów, obrazów i wrażeń. Osoba może wymawiać słowa nie tylko na głos, ale także „do siebie”. Potrafi także tworzyć (lub zapamiętywać) obrazy i doznania „we własnym umyśle”. Może jednak uzyskać informacje odpowiadające temu znaczeniu, mówiąc lub pisząc słowa.

Przykład (ciąg dalszy). Jeśli słowa „pomidor” i „czerwony” są znaczeniem tych pojęć, to gdzie jest informacja? Informacja zawarta jest w mózgu w postaci pewnych stanów jego neuronów. Jest on również zawarty w drukowanym tekście składającym się z tych słów, a przy kodowaniu liter za pomocą trzybitowego kodu binarnego jego ilość wynosi 120 bitów. Jeśli wypowiesz te słowa na głos, informacji będzie znacznie więcej, ale znaczenie pozostanie takie samo. Nai duża ilość niesie informację obraz wzrokowy. Znajduje to odzwierciedlenie nawet w folklorze – „lepiej raz zobaczyć, niż usłyszeć sto razy”. Odtworzona w ten sposób informacja nazywana jest informacją semantyczną, gdyż koduje znaczenie jakiejś informacji pierwotnej (semantyka). Usłyszawszy (lub widząc) zdanie wypowiedziane (lub napisane) w języku, którego dana osoba nie zna, otrzymuje informacje, ale nie może określić ich znaczenia. Dlatego też, aby przekazać treść semantyczną informacji, konieczne są pewne ustalenia pomiędzy źródłem a odbiorcą co do treści semantycznej sygnałów, tj. słowa Takie porozumienia można osiągnąć poprzez komunikację. Komunikacja jest jednym z najważniejsze warunki istnienie społeczeństwa ludzkiego.

We współczesnym świecie informacja jest jednym z najważniejszych zasoby krytyczne a jednocześnie jedną z sił napędowych rozwoju społeczeństwa ludzkiego. Procesy informacyjne zachodzące w świecie materialnym, przyrodzie żywej i społeczeństwie ludzkim są badane (lub przynajmniej brane pod uwagę) przez wszystkie dyscypliny naukowe, od filozofii po marketing. Rosnąca złożoność zadań badania naukowe spowodowało konieczność zaangażowania w ich rozwiązywanie dużych zespołów naukowców z różnych specjalności. Dlatego prawie wszystkie omówione poniżej teorie mają charakter interdyscyplinarny. Historycznie rzecz biorąc, badaniem samej informacji zajmowały się dwie złożone gałęzie nauki – cybernetyka i informatyka.


Współczesna cybernetyka to multidyscyplinarna dziedzina nauki zajmująca się badaniem bardzo złożonych systemów, takich jak:

Społeczeństwo ludzkie (cybernetyka społeczna);

Ekonomia (cybernetyka ekonomiczna);

Organizm żywy (cybernetyka biologiczna);

Ludzki mózg a jego funkcją jest świadomość (sztuczna inteligencja).


Informatyka, ukształtowana jako nauka w połowie ubiegłego wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznych. Obie te branże wykorzystują kilka podstawowych teorii naukowych. Należą do nich teoria informacji i jej działy – teoria kodowania, teoria algorytmów i teoria automatów. Badania nad semantyczną zawartością informacji opierają się na zestawie teorii naukowych pod ogólną nazwą semiotyka.Teoria informacji jest złożoną teorią, głównie matematyczną, obejmującą opis i ocenę metod wyszukiwania, przesyłania, przechowywania i klasyfikowania informacji. Rozważa media informacyjne jako elementy zbioru abstrakcyjnego (matematycznego), a interakcje pomiędzy mediami jako sposób uporządkowania elementów tego zbioru. Takie podejście pozwala na formalny opis kodu informacyjnego, czyli zdefiniowanie kodu abstrakcyjnego i zbadanie go metody matematyczne. Do badań tych wykorzystuje metody teorii prawdopodobieństwa, statystyki matematycznej, algebry liniowej, teorii gier i innych teorii matematycznych.


Podstawy tej teorii położył amerykański naukowiec E. Hartley w 1928 roku, który określił miarę ilości informacji dla niektórych problemów komunikacyjnych. Później teorię znacznie rozwinął amerykański naukowiec K. Shannon, rosyjscy naukowcy A.N. Kołmogorow, W.M. Głuszkow i inni.Współczesna teoria informacji obejmuje działy takie jak teoria kodowania, teoria algorytmów, teoria automatów cyfrowych (patrz niżej) i inne.Istnieją także alternatywne teorie informacji, np. „Jakościowa teoria informacji”, zaproponowana przez polskiego naukowiec M. Mazur Pojęcie algorytmu zna każdy człowiek, nawet o tym nie wiedząc. Oto przykład nieformalnego algorytmu: „Pomidory pokroić w koła lub plasterki. Włóż do nich posiekaną cebulę, zalej olej roślinny, następnie posypać drobno posiekaną papryką i wymieszać. Przed jedzeniem posolić, przełożyć do salaterki i udekorować natką pietruszki.” (Sałatka pomidorowa).


Pierwsze zasady rozwiązywania problemów arytmetycznych w historii ludzkości zostały opracowane przez jednego ze słynnych naukowców starożytności, Al-Khorezmi, w IX wieku naszej ery. Na jego cześć sformalizowane zasady osiągania dowolnego celu nazywane są algorytmami.Przedmiotem teorii algorytmów jest znalezienie metod konstruowania i oceny skutecznych (w tym uniwersalnych) algorytmów obliczeniowych i sterujących przetwarzaniem informacji. Do uzasadnienia takich metod teoria algorytmów wykorzystuje aparat matematyczny teorii informacji.Współczesna koncepcja naukowa algorytmów jako metod przetwarzania informacji została wprowadzona w pracach E. Posta i A. Turinga w latach 20. XX wieku (Turing Maszyna). Rosyjscy naukowcy A. Markov (Algorytm normalny Markowa) i A. Kołmogorow wnieśli ogromny wkład w rozwój teorii algorytmów.Teoria automatów to gałąź cybernetyki teoretycznej, która bada modele matematyczne faktycznie istniejących lub zasadniczo możliwych urządzeń przetwarzających dyskretne informacje w dyskretnych momentach czasu.


Pojęcie automatu zrodziło się w teorii algorytmów. Jeśli są jakieś algorytmy uniwersalne rozwiązań problemów obliczeniowych, wówczas muszą istnieć urządzenia (choć abstrakcyjne) do implementacji takich algorytmów. W rzeczywistości abstrakcyjna maszyna Turinga, rozpatrywana w teorii algorytmów, jest jednocześnie nieformalnie zdefiniowanym automatem. Teoretyczne uzasadnienie budowy takich urządzeń jest przedmiotem teorii automatów.Teoria automatów wykorzystuje aparat teorii matematycznych - algebrę, logikę matematyczną, analizę kombinatoryczną, teorię grafów, teorię prawdopodobieństwa itp. Teoria automatów wraz z teorią algorytmów , jest główną podstawą teoretyczną tworzenia komputerów elektronicznych i zautomatyzowanych systemów sterowania.Semiotyka to zespół teorii naukowych badających właściwości systemów znakowych. Największe wyniki osiągnięto w dziale semiotyka – semantyka. Przedmiotem badań semantyki jest treść semantyczna informacji.


Za system znaków uważa się system obiektów konkretnych lub abstrakcyjnych (znaków, słów), z których każdy ma w określony sposób określone znaczenie. W teorii udowodniono, że mogą istnieć dwa takie porównania. Pierwszy rodzaj korespondencji bezpośrednio określa przedmiot materialny, który oznacza to słowo i nazywany jest denotacją (lub w niektórych pracach nominacją). Drugi rodzaj korespondencji określa znaczenie znaku (słowa) i nazywa się pojęciem. Jednocześnie badane są takie właściwości porównań, jak „znaczenie”, „prawda”, „definiowalność”, „podążanie”, „interpretacja” itp. Do badań wykorzystuje się aparat logiki matematycznej i językoznawstwa matematycznego. semantyki, zarysowanej w XIX w. przez G. V. Leibniza i F de Saussure’a, sformułowanej i rozwiniętej przez C. Pierce’a (1839-1914), C. Morrisa (ur. 1901), R. Carnapa (1891-1970) itd. Głównym osiągnięciem teorii jest stworzenie aparatu analizy semantycznej, który pozwala na przedstawienie znaczenia tekstu w języku naturalnym w formie zapisu w jakimś sformalizowanym języku semantycznym (semantycznym).Analiza semantyczna jest podstawą do tworzenia tłumaczenia maszynowego urządzenia (programy) z jednego język naturalny inny.

Informacje są przechowywane poprzez przeniesienie ich na jakiś nośnik fizyczny. Informacje semantyczne zapisane na materialnym nośniku danych nazywane są dokumentem. Ludzkość nauczyła się przechowywać informacje bardzo dawno temu. Najstarsze formy przechowywania informacji wykorzystywały układ przedmiotów - muszle i kamienie na piasku, węzły na linie. Znaczącym rozwinięciem tych metod było pismo – graficzne przedstawienie symboli na kamieniu, glinie, papirusie i papierze. Duże znaczenie w rozwoju tego kierunku miał wynalazek druku. W swojej historii ludzkość zgromadziła ogromną ilość informacji w bibliotekach, archiwach, czasopismach i innych dokumentach pisanych.


Obecnie szczególnego znaczenia nabiera przechowywanie informacji w postaci ciągów znaków binarnych. Aby wdrożyć te metody, stosuje się różne urządzenia pamięci masowej. Stanowią centralne ogniwo systemów przechowywania informacji. Oprócz nich systemy te wykorzystują środki wyszukiwania informacji (wyszukiwarka), środki pozyskiwania informacji (systemy informacyjne i referencyjne) oraz środki wyświetlania informacji (urządzenie wyjściowe). Tworzone zgodnie z przeznaczeniem informacji, takie systemy informacyjne tworzą bazy danych, banki danych i bazę wiedzy.

Transfer informacji semantycznej to proces jej przestrzennego przekazania od źródła do odbiorcy (adresata). Człowiek nauczył się przekazywać i odbierać informacje jeszcze wcześniej, niż je przechowywać. Mowa jest sposobem przekazu, który stosowali nasi odlegli przodkowie w bezpośrednim kontakcie (rozmowie) – i my z niego korzystamy do dziś. Do przesyłania informacji na duże odległości konieczne jest zastosowanie znacznie bardziej złożonych procesów informacyjnych.Aby taki proces mógł zostać zrealizowany, informacja musi zostać w jakiś sposób sformatowana (przedstawiona). Do przedstawienia informacji wykorzystuje się różne systemy znaków – zestawy ustalonych symboli semantycznych: przedmioty, obrazy, pisane lub drukowane słowa języka naturalnego. Informacje semantyczne o dowolnym przedmiocie, zjawisku lub procesie prezentowane za ich pomocą nazywane są komunikatem.


Oczywiście, aby przesłać wiadomość na odległość, informacja musi zostać przeniesiona na jakiś mobilny nośnik. Przewoźnicy mogą poruszać się w przestrzeni za pomocą Pojazd jak to ma miejsce w przypadku listów wysyłanych pocztą. Metoda ta zapewnia całkowitą niezawodność przekazu informacji, gdyż adresat otrzymuje oryginalną wiadomość, ale jej przesłanie wymaga znacznej ilości czasu. Od połowy XIX w. upowszechniły się sposoby przekazywania informacji wykorzystujące naturalnie rozchodzący się nośnik informacji – wibracje elektromagnetyczne (drgania elektryczne, fale radiowe, światło). Wdrożenie tych metod wymaga:

Wstępne przeniesienie informacji zawartej w przekazie na nośnik – kodowanie;

Zapewnienie transmisji tak otrzymanego sygnału do odbiorcy specjalnym kanałem komunikacyjnym;

Odwrotna konwersja kodu sygnałowego na kod komunikatu – dekodowanie.

Zastosowanie mediów elektromagnetycznych sprawia, że ​​dotarcie komunikatu do adresata jest niemal natychmiastowe, wymaga jednak dodatkowych działań zapewniających jakość (rzetelność i dokładność) przesyłanej informacji, gdyż rzeczywiste kanały komunikacji podlegają naturalnym i sztucznym zakłóceniom. Urządzenia realizujące proces przesyłania danych z systemów komunikacyjnych. W zależności od sposobu prezentacji informacji systemy komunikacji można podzielić na systemy znakowe (telegraf, telefaks), dźwiękowe (telefon), wideo i kombinowane (telewizja). Najbardziej rozwiniętym systemem komunikacji w naszych czasach jest Internet.

Przetwarzanie danych

Ponieważ informacja nie jest materialna, jej przetwarzanie wiąże się z różnymi transformacjami. Procesy przetwarzania obejmują każdy transfer informacji z nośnika na inny nośnik. Informacje przeznaczone do przetwarzania nazywane są danymi. Głównym rodzajem przetwarzania pierwotnych informacji odbieranych przez różne urządzenia jest przekształcanie ich do postaci zapewniającej ich odbiór przez zmysły człowieka. Tym samym fotografie przestrzeni uzyskane w promieniach rentgenowskich przekształcane są w zwykłe kolorowe fotografie za pomocą specjalnych konwerterów widma i materiałów fotograficznych. Noktowizory przetwarzają obraz uzyskany w promieniach podczerwonych (termicznych) na obraz w zakresie widzialnym. W przypadku niektórych zadań komunikacyjnych i sterujących konieczna jest konwersja informacji analogowej. W tym celu stosuje się przetworniki sygnału analogowo-cyfrowego i cyfrowo-analogowego.


Najważniejszym rodzajem przetwarzania informacji semantycznej jest określenie znaczenia (treści) zawartej w danym komunikacie. W przeciwieństwie do pierwotnej informacji semantycznej nie ma ona cech statystycznych, to znaczy miary ilościowej - albo ma znaczenie, albo go nie ma. A ile to jest, jeśli w ogóle, nie da się ustalić. Znaczenie zawarte w przekazie jest opisane sztucznym językiem, który odzwierciedla powiązania semantyczne pomiędzy słowami tekstu źródłowego. Słownik takiego języka, zwany tezaurusem, znajduje się w odbiorniku wiadomości. Znaczenie słów i wyrażeń w przekazie określa się poprzez przypisanie ich do określonych grup słów lub wyrażeń, których znaczenie zostało już ustalone. Tezaurus pozwala zatem ustalić znaczenie przekazu, a jednocześnie jest uzupełniany o nowe pojęcia semantyczne. Opisany rodzaj przetwarzania informacji jest stosowany w systemach wyszukiwania informacji i systemach tłumaczenia maszynowego.


Jednym z powszechnych rodzajów przetwarzania informacji jest rozwiązywanie problemów obliczeniowych i problemów automatycznego sterowania za pomocą komputerów. Przetwarzanie informacji zawsze odbywa się w jakimś celu. Aby to osiągnąć, musi być znana kolejność działań na informacjach prowadzących do danego celu. Ta procedura nazywa się algorytmem. Oprócz samego algorytmu potrzebne jest również urządzenie, które ten algorytm implementuje. W teoriach naukowych takie urządzenie nazywa się automatem, warto zauważyć, jak to zrobić najważniejszą cechą informacja to fakt, że w wyniku asymetrii interakcji informacyjnych podczas przetwarzania informacji powstają nowe informacje, ale pierwotna informacja nie ulega utracie.

Informacje analogowe i cyfrowe

Dźwięk to drgania fal w dowolnym ośrodku, na przykład w powietrzu. Kiedy ktoś mówi, wibracje więzadeł gardła przekształcają się w wibracje falowe powietrza. Jeśli rozważymy dźwięk nie jako falę, ale jako wibracje w jednym punkcie, wówczas wibracje te można przedstawić jako zmieniające się w czasie ciśnienie powietrza. Za pomocą mikrofonu można wykryć zmiany ciśnienia i przekształcić je w napięcie elektryczne. Ciśnienie powietrza jest przekształcane na wahania napięcia elektrycznego.


Taka transformacja może zachodzić według różnych praw, najczęściej transformacja następuje według prawa liniowego. Na przykład tak:

U(t)=K(P(t)-P_0),

gdzie U(t) to napięcie elektryczne, P(t) to ciśnienie powietrza, P_0 to średnie ciśnienie powietrza, a K to współczynnik konwersji.

Zarówno napięcie elektryczne, jak i ciśnienie powietrza są funkcjami ciągłymi w czasie. Funkcje U(t) i P(t) są informacją o drganiach więzadeł gardła. Funkcje te mają charakter ciągły i taką informację nazywamy analogową.Muzyka jest szczególny przypadek dźwięku i można go również przedstawić jako pewną funkcję czasu. Będzie to analogowa reprezentacja muzyki. Ale muzykę zapisuje się także w formie notatek. Każda nuta ma czas trwania stanowiący wielokrotność z góry określonego czasu trwania i wysokość dźwięku (do, re, mi, fa, salt itp.). Jeśli dane te zostaną przeliczone na liczby, otrzymamy cyfrową reprezentację muzyki.


Mowa ludzka jest również szczególnym przypadkiem dźwięku. Można go również przedstawić w formie analogowej. Ale tak jak muzykę można podzielić na nuty, tak mowę można rozłożyć na litery. Jeśli każdej literze zostanie przypisany własny zestaw liczb, otrzymamy cyfrową reprezentację mowy.Różnica między informacją analogową i cyfrową polega na tym, że informacja analogowa jest ciągła, podczas gdy informacja cyfrowa jest dyskretna.Transformacja informacji z jednego typu na inny , w zależności od rodzaju transformacji, nazywa się inaczej: po prostu „konwersją”, np. konwersją cyfrowo-analogową, lub konwersja analogowo-cyfrowa; złożone transformacje nazywane są „kodowaniem”, na przykład kodowaniem delta, kodowaniem entropijnym; konwersja między charakterystykami, takimi jak amplituda, częstotliwość lub faza, nazywana jest „modulacją”, na przykład modulacja amplitudowo-częstotliwościowa, Modulacja szerokości impulsów.

Zazwyczaj konwersje analogowe są dość proste i łatwe w obsłudze. różne urządzenia wymyślony przez człowieka. Magnetofon przekształca namagnesowanie kliszy na dźwięk, dyktafon przetwarza dźwięk na namagnesowanie kliszy, kamera wideo przekształca światło w namagnesowanie kliszy, oscyloskop przetwarza napięcie lub prąd elektryczny na obraz itp. Konwersja informacji analogowej na cyfrową jest znacznie trudniejsza. Maszyna nie może dokonać pewnych przekształceń lub udaje jej się to z wielkim trudem. Na przykład konwersja mowy na tekst lub konwersja nagrania koncertu na nuty, a nawet reprezentację z natury cyfrową: tekst na papierze jest bardzo trudny do przekształcenia przez maszynę w ten sam tekst w pamięci komputera.

Po co więc stosować cyfrową reprezentację informacji, skoro jest ona tak złożona? Główną przewagą informacji cyfrowych nad informacjami analogowymi jest odporność na zakłócenia. Oznacza to, że w procesie kopiowania informacji informacje cyfrowe są kopiowane w niezmienionej postaci, można je kopiować niemal nieskończoną liczbę razy, podczas gdy informacje analogowe stają się zaszumione podczas procesu kopiowania, a ich jakość ulega pogorszeniu. Zazwyczaj informację analogową można skopiować nie więcej niż trzy razy.Jeśli posiadasz magnetofon dwukasetowy, możesz przeprowadzić następujący eksperyment: spróbuj kilkakrotnie przepisać ten sam utwór z kasety na kasetę, już po kilku takich ponownych nagraniach zauważysz, jak bardzo jakość nagrania uległa pogorszeniu. Informacje na kasecie zapisywane są w formie analogowej. Możesz przepisywać muzykę w formacie mp3 tyle razy, ile chcesz, a jakość muzyki nie ulega pogorszeniu. Informacje zawarte w pliku mp3 są przechowywane w forma cyfrowa.

Ilość informacji

Osoba lub inny odbiorca informacji, otrzymawszy informację, rozwiewa pewną niepewność. Weźmy na przykład to samo drzewo. Kiedy zobaczyliśmy drzewo, rozwialiśmy wiele wątpliwości. Dowiadywaliśmy się o wysokości drzewa, jego gatunku, gęstości listowia, kolorze liści, a jeśli było to drzewo owocowe, to widzieliśmy na nim owoce, ich dojrzałość itp. Zanim spojrzeliśmy na drzewo, nie wiedzieliśmy tego wszystkiego, po spojrzeniu na drzewo rozwieliśmy niepewność – otrzymaliśmy informację.


Jeśli wyjdziemy na łąkę i przyjrzymy się jej, otrzymamy inny rodzaj informacji, jak duża jest łąka, jak wysoka jest trawa i jakiego koloru jest trawa. Jeśli biolog pojedzie na tę samą łąkę, to będzie mógł między innymi dowiedzieć się: jakie odmiany trawy na łące rosną, jaki to rodzaj łąki, zobaczy, jakie kwiaty zakwitły, jakie zaraz zakwitnie, czy łąka nadaje się do wypasu krów itp. Oznacza to, że otrzyma więcej informacji niż my, ponieważ miał więcej pytań, zanim spojrzał na łąkę, biolog rozwieje więcej wątpliwości.

Im więcej niepewności rozwiewało się w procesie pozyskiwania informacji, tym więcej informacji otrzymywaliśmy. Jest to jednak subiektywna miara ilości informacji, a my chcielibyśmy mieć miarę obiektywną. Istnieje wzór na obliczenie ilości informacji. Mamy pewną niepewność i mamy N przypadków rozwiązania niepewności, a każdy przypadek ma pewne prawdopodobieństwo rozwiązania, wówczas ilość otrzymanych informacji można obliczyć za pomocą następującego wzoru, który zasugerował nam Shannon:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), gdzie

I – ilość informacji;

N – liczba wyników;

p_1, p_2, ..., p_N to prawdopodobieństwa wyniku.

Ilość informacji mierzona jest w bitach – skrót od angielskiego słowa BInary digiT, co oznacza cyfrę binarną.

Dla zdarzeń równie prawdopodobnych wzór można uprościć:

I = \log_(2)N, gdzie

I – ilość informacji;

N – liczba wyników.

Weźmy na przykład monetę i rzućmy ją na stół. Wyląduje orłem lub reszką. Mamy 2 równie prawdopodobne zdarzenia. Po rzucie monetą otrzymaliśmy \log_(2)2=1 bit informacji.

Spróbujmy dowiedzieć się, ile informacji otrzymamy po rzucie kostką. Sześcian ma sześć boków – sześć równie prawdopodobnych zdarzeń. Otrzymujemy: \log_(2)6 \około 2,6. Po rzuceniu kostki na stół otrzymaliśmy około 2,6 bitu informacji.


Szansa, że ​​wychodząc z domu zobaczymy marsjańskiego dinozaura, wynosi jeden do dziesięciu miliardów. Ile informacji na temat marsjańskiego dinozaura dowiemy się po wyjściu z domu?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \około 3,4 \cdot 10^(-9) bitów.

Załóżmy, że rzuciliśmy 8 monetami. Mamy 2^8 opcji upuszczania monet. Oznacza to, że po rzucie monetą otrzymamy \log_2(2^8)=8 bitów informacji.

Kiedy zadajemy pytanie i z równym prawdopodobieństwem otrzymamy odpowiedź „tak” lub „nie”, to po udzieleniu odpowiedzi na pytanie otrzymujemy jedną informację.


Zadziwiające, że jeśli zastosujemy wzór Shannona do informacji analogowych, otrzymamy nieskończoną ilość informacji. Na przykład napięcie w punkcie obwodu elektrycznego może przyjąć równie prawdopodobną wartość od zera do jednego wolta. Liczba wyników, które mamy, jest równa nieskończoności i podstawiając tę ​​wartość do wzoru na zdarzenia równie prawdopodobne, otrzymujemy nieskończoność – nieskończoną ilość informacji.

Teraz pokażę ci, jak zakodować „Wojnę i pokój”, używając tylko jednego znaku na dowolnym metalowym pręcie. Zakodujmy wszystkie litery i znaki występujące w „Wojnie i pokoju” za pomocą liczb dwucyfrowych – to powinno nam wystarczyć. Przykładowo literze „A” nadamy kod „00”, literze „B” – kod „01” i tak dalej, zakodujemy znaki interpunkcyjne, listy i liczby. Przekodujmy „Wojnę i pokój” za pomocą tego kodu i otrzymamy długą liczbę, na przykład 70123856383901874..., dodajmy przed tą liczbą przecinek i zero (0,70123856383901874...). Wynikiem jest liczba od zera do jeden. Na metalowym pręcie zaznaczmy tak, aby stosunek lewej strony pręta do długości tego pręta był dokładnie równy naszej liczbie. Jeśli więc nagle zapragniemy przeczytać „Wojnę i pokój”, po prostu odmierzamy lewą stronę pręta do kreski i długość całego pręta, dzielimy liczbę przez drugą, otrzymujemy liczbę i kodujemy ją z powrotem na litery ( „00” do „A”, „01” do „B” itp.).

W rzeczywistości nie będziemy w stanie tego zrobić, ponieważ nie będziemy w stanie określić długości z nieskończoną dokładnością. Pewne problemy inżynieryjne uniemożliwiają nam zwiększenie dokładności pomiarów, a fizyka kwantowa pokazuje nam, że po pewnej granicy prawa kwantowe będą już nam przeszkadzać. Intuicyjnie rozumiemy, że im niższa dokładność pomiaru, tym mniej informacji otrzymujemy, a im większa dokładność pomiaru, tym więcej informacji otrzymujemy. Wzór Shannona nie nadaje się do pomiaru ilości informacji analogowej, ale istnieją do tego inne metody, które są omówione w teorii informacji. W technologii komputerowej bit odpowiada stanowi fizycznemu nośnika informacji: namagnesowany – nie namagnesowany, jest dziura – nie ma dziury, naładowany – nie naładowany, odbija światło – nie odbija światła, wysoki potencjał elektryczny – niski potencjał elektryczny potencjał. W tym przypadku jeden stan jest zwykle oznaczany liczbą 0, a drugi liczbą 1. Za pomocą ciągu bitów można zakodować dowolną informację: tekst, obraz, dźwięk itp.


Oprócz bitu często używana jest wartość zwana bajtem, która zwykle wynosi 8 bitów. A jeśli bit pozwala wybrać jedną równie prawdopodobną opcję z dwóch możliwych, to bajt to 1 z 256 (2^8). Aby zmierzyć ilość informacji, często używa się również większych jednostek:

1 KB (jeden kilobajt) 210 bajtów = 1024 bajty

1 MB (jeden megabajt) 210 KB = 1024 KB

1 GB (jeden gigabajt) 210 MB = 1024 MB

W rzeczywistości przedrostki SI kilo-, mega-, giga- powinny być używane odpowiednio dla współczynników 10^3, 10^6 i 10^9, ale historycznie rzecz biorąc, istniała praktyka używania czynników o potędze dwójki.


Bit Shannona i bit używany w technologii komputerowej są takie same, jeśli prawdopodobieństwa pojawienia się zera lub jedynki w bicie komputerowym są równe. Jeśli prawdopodobieństwa nie są równe, wówczas ilość informacji według Shannona staje się mniejsza, co widzieliśmy na przykładzie marsjańskiego dinozaura. Komputerowa ilość informacji stanowi górną ocenę ilości informacji. Pamięć ulotna po zasileniu jest zwykle inicjowana jakąś wartością, na przykład samymi jedynkami lub wszystkimi zerami. Oczywiste jest, że po włączeniu zasilania pamięci nie ma tam żadnych informacji, ponieważ wartości w komórkach pamięci są ściśle określone, nie ma niepewności. Pamięć może przechowywać pewną ilość informacji, ale po włączeniu zasilania nie ma w niej żadnej informacji.

Dezinformacja to celowo nieprawdziwa informacja przekazywana wrogowi lub partnerowi biznesowemu w celu efektywniejszego prowadzenia działań bojowych, współpracy, sprawdzenia wycieku informacji i kierunku jej wycieku, identyfikacji potencjalnych klientów czarnego rynku.Dezinformacja (także dezinformowana) to proces manipulacji samą informację, np.: wprowadzenie kogoś w błąd poprzez podanie informacji niekompletnych lub pełnych, ale już niepotrzebnych, zniekształcenie kontekstu, zniekształcenie części informacji.


Cel takiego oddziaływania jest zawsze ten sam – przeciwnik musi działać tak, jak tego potrzebuje manipulator. Działanie celu, przeciwko któremu skierowana jest dezinformacja, może polegać na podjęciu decyzji potrzebnej manipulatorowi lub na odmowie podjęcia decyzji niekorzystnej dla manipulatora. Ale w każdym razie ostatecznym celem jest akcja, którą podejmie przeciwnik.

Dezinformacja jest zatem wytworem działalności człowieka, próbą wywołania fałszywego wrażenia i w związku z tym nakłonienia do pożądanych działań i/lub zaniechania działania.

Rodzaje dezinformacji:

Wprowadzanie w błąd konkretnej osoby lub grupy osób (w tym całego narodu);

Manipulacja (działania jednej osoby lub grupy osób);

Kreowanie opinii publicznej na temat problemu lub przedmiotu.

Wprowadzanie w błąd to nic innego jak zwykłe wprowadzenie w błąd, czyli podanie fałszywych informacji. Manipulacja to metoda oddziaływania mająca na celu bezpośrednio zmianę kierunku działania ludzi. Wyróżnia się następujące poziomy manipulacji:

Wzmocnienie wartości (idei, postaw), które istnieją w umysłach ludzi i są korzystne dla manipulatora;

Częściowa zmiana poglądów na temat określonego zdarzenia lub okoliczności;

Radykalna zmiana postaw życiowych.

Kształtowanie opinii publicznej to kształtowanie w społeczeństwie określonej postawy wobec wybranego problemu.


Źródła i linki

ru.wikipedia.org – wolna encyklopedia Wikipedia

youtube.com – hosting filmów na YouTube

obrazy.yandex.ua - Zdjęcia Yandex

google.com.ua – obrazy Google

ru.wikibooks.org – Wikibooks

inf1.info – Planeta Informatyki

old.russ.ru – Magazyn rosyjski

shkolo.ru – Katalog informacyjny

5byte.ru – witryna informatyczna

ssti.ru – Technologie informacyjne

klgtu.ru - Informatyka

informatika.sch880.ru - strona internetowa nauczyciela informatyki O.V. Podwincewa

bibliofond.ru - biblioteka elektroniczna Bibliofond

life-prog.ru - programowanie

Przyjęty przez Dumę Państwową 8 lipca 2006 r
Zatwierdzony przez Radę Federacji 14 lipca 2006 r

Artykuł 1. Zakres tego Prawo federalne

1. Niniejsza ustawa federalna reguluje stosunki powstające, gdy:

1) korzystanie z prawa do wyszukiwania, otrzymywania, przekazywania, tworzenia i rozpowszechniania informacji;

2) zastosowanie technologii informatycznych;

3) zapewnienie bezpieczeństwa informacji.

2. Przepisy niniejszej ustawy federalnej nie mają zastosowania do stosunków powstałych podczas ochrony prawnej wyników działalności intelektualnej i równoważnych środków indywidualizacji.

Artykuł 2. Podstawowe pojęcia stosowane w niniejszej ustawie federalnej

W tej ustawie federalnej zastosowano następujące podstawowe pojęcia:

1) informacja – informację (wiadomości, dane) bez względu na formę ich przedstawienia;

2) technologie informacyjne – procesy, sposoby wyszukiwania, gromadzenia, przechowywania, przetwarzania, udostępniania, rozpowszechniania informacji oraz sposoby realizacji tych procesów i metod;

3) system informacyjny – zbiór informacji zawartych w bazach danych oraz technologie informacyjne i środki techniczne zapewniające jego przetwarzanie;

4) sieć informatyczna i telekomunikacyjna – system technologiczny przeznaczony do przesyłania informacji za pomocą łączy komunikacyjnych, do którego dostęp odbywa się przy wykorzystaniu technologii komputerowej;

5) właściciel informacji – osobę, która samodzielnie stworzyła informację lub uzyskała na podstawie ustawy lub umowy prawo do zezwolenia lub ograniczenia dostępu do informacji określonego według jakichkolwiek kryteriów;

6) dostęp do informacji – umiejętność pozyskiwania informacji i korzystania z nich;

7) poufność informacji – obowiązkowy wymóg, aby osoba, która uzyskała dostęp do określonych informacji, nie przekazywała ich osobom trzecim bez zgody ich właściciela;

8) udzielanie informacji – działania mające na celu uzyskanie informacji przez określony krąg osób lub przekazanie informacji określonemu kręgowi osób;

9) rozpowszechnianie informacji – działania mające na celu uzyskanie informacji przez nieokreślony krąg osób lub przekazanie informacji do nieokreślonego kręgu osób;

10) wiadomość elektroniczna – informację przekazywaną lub otrzymywaną przez użytkownika sieci informacyjno-telekomunikacyjnej;

11) informacja udokumentowana – informację utrwaloną na nośniku materialnym poprzez udokumentowanie ze szczegółami umożliwiającymi ustalenie tej informacji lub określonymi przepisami prawa Federacja Rosyjska przypadki jego materialnego nośnika;

12) operator systemu informacyjnego – obywatel lub osoba prawna zajmująca się obsługą systemu informatycznego, w tym przetwarzaniem informacji zawartych w jego bazach danych.

Artykuł 3. Zasady prawnej regulacji stosunków w dziedzinie informacji, technologii informacyjnej i ochrony informacji

Regulacje prawne relacje powstające w obszarze informacji, technologii informatycznych i ochrony informacji opierają się na następujących zasadach:

1) wolność wyszukiwania, otrzymywania, przekazywania, tworzenia i rozpowszechniania informacji w jakikolwiek legalny sposób;

2) ustanawianie ograniczeń w dostępie do informacji wyłącznie na mocy ustaw federalnych;

3) jawność informacji o działalności organów państwowych i organów samorządu terytorialnego oraz swobodny dostęp do tych informacji, z wyjątkiem przypadków przewidzianych w ustawach federalnych;

4) równość praw języków narodów Federacji Rosyjskiej w tworzeniu systemów informatycznych i ich funkcjonowaniu;

5) zapewnienie bezpieczeństwa Federacji Rosyjskiej podczas tworzenia systemów informatycznych, ich funkcjonowania i ochrony informacji w nich zawartych;

6) rzetelność informacji i terminowość ich przekazywania;

7) nienaruszalność życia prywatnego, niedopuszczalność gromadzenia, przechowywania, wykorzystywania i rozpowszechniania informacji o życiu prywatnym człowieka bez jego zgody;

8) niedopuszczalność ustanowienia w drodze regulacyjnych aktów prawnych jakichkolwiek przewag wynikających ze stosowania niektórych technologii informatycznych w stosunku do innych, chyba że ustawa federalna ustanawia obowiązkowe stosowanie niektórych technologii informatycznych do tworzenia i obsługi państwowych systemów informatycznych.

Artykuł 4. Ustawodawstwo Federacji Rosyjskiej dotyczące informacji, technologii informacyjnych i ochrony informacji

1. Ustawodawstwo Federacji Rosyjskiej dotyczące informacji, technologii informacyjnej i ochrony informacji opiera się na Konstytucji Federacji Rosyjskiej, umowach międzynarodowych Federacji Rosyjskiej i składa się z niniejszej ustawy federalnej oraz innych ustaw federalnych regulujących stosunki w zakresie wykorzystania informacji.

2. Prawna regulacja stosunków związanych z organizacją i działalnością mediów odbywa się zgodnie z ustawodawstwem Federacji Rosyjskiej dotyczącym mediów.

3. Tryb przechowywania i korzystania z informacji udokumentowanych znajdujących się w funduszach archiwalnych określa ustawa o sprawach archiwalnych Federacji Rosyjskiej.

Artykuł 5. Informacja jako przedmiot stosunków prawnych

1. Informacja może być przedmiotem stosunków publicznych, cywilnych i innych stosunków prawnych. Informacje mogą być swobodnie wykorzystywane przez każdą osobę i przekazywane przez jedną osobę drugiej osobie, chyba że prawo federalne ustanawia ograniczenia w dostępie do informacji lub inne wymagania dotyczące procedury ich dostarczania lub rozpowszechniania.

2. Informacje, w zależności od kategorii dostępu do nich, dzielą się na informacje publicznie dostępne oraz informacje, do których dostęp jest ograniczony na mocy przepisów federalnych (informacje zastrzeżone).

3. Informacje, w zależności od trybu ich udostępniania lub rozpowszechniania, dzielą się na:

1) informacje swobodnie rozpowszechniane;

2) informacje przekazane za zgodą osób uczestniczących w danym związku;

3) informacje, które zgodnie z prawem federalnym podlegają udostępnianiu lub rozpowszechnianiu;

4) informacje, których rozpowszechnianie jest ograniczone lub zabronione w Federacji Rosyjskiej.

4. Ustawodawstwo Federacji Rosyjskiej może określić rodzaje informacji w zależności od ich treści lub właściciela.

Artykuł 6. Posiadacz informacji

1. Właścicielem informacji może być obywatel (osoba fizyczna), osoba prawna, Federacja Rosyjska, podmiot Federacji Rosyjskiej, podmiot miejski.

2. W imieniu Federacji Rosyjskiej, podmiotu Federacji Rosyjskiej, podmiotu miejskiego, uprawnienia właściciela informacji wykonują odpowiednio organy państwowe i organy samorządu terytorialnego w granicach ich uprawnień określonych w odpowiednich regulacyjnych aktach prawnych.

3. Właściciel informacji, jeśli prawo federalne nie stanowi inaczej, ma prawo:

1) umożliwić lub ograniczyć dostęp do informacji, określić tryb i warunki tego dostępu;

2) wykorzystywać informacje, w tym je rozpowszechniać, według własnego uznania;

3) przekazywania informacji innym osobom na podstawie umowy lub z innej podstawy przewidzianej przepisami prawa;

4) chronić swoje prawa w sposób określony ustawą na wypadek nielegalnego otrzymania informacji lub jej nielegalnego wykorzystania przez inne osoby;

5) dokonywania innych działań z informacją lub zezwalania na takie działania.

4. Właściciel informacji, korzystając ze swoich praw, jest obowiązany:

1) szanować prawa i uzasadnione interesy innych osób;

2) podejmować działania mające na celu ochronę informacji;

3) ograniczyć dostęp do informacji, jeżeli taki obowiązek przewiduje prawo federalne.

Artykuł 7. Informacja publiczna

1. Do informacji publicznej zalicza się informacje powszechnie znane oraz inne informacje, do których dostęp nie jest ograniczony.

2. Informacje publiczne mogą być wykorzystywane przez dowolną osobę według własnego uznania, z zastrzeżeniem ograniczeń ustanowionych przez prawo federalne w zakresie rozpowszechniania takich informacji.

3. Właściciel informacji, które na mocy swojej decyzji stały się publicznie dostępne, ma prawo żądać od osób rozpowszechniających te informacje wskazania siebie jako źródła tych informacji.

Artykuł 8. Prawo dostępu do informacji

1. Obywatele (osoby fizyczne) i organizacje ( osoby prawne) (zwane dalej organizacjami) mają prawo do wyszukiwania i otrzymywania wszelkich informacji w dowolnej formie i z dowolnego źródła, z zastrzeżeniem zgodności z wymogami określonymi w niniejszej ustawie federalnej i innych przepisach federalnych.

2. Obywatel (osoba fizyczna) ma prawo otrzymywać od organów państwowych, organów samorządu lokalnego i ich urzędników, w sposób określony przez ustawodawstwo Federacji Rosyjskiej, informacji mających bezpośredni wpływ na jego prawa i wolności.

3. Organizacja ma prawo otrzymywać od organów państwowych i organów samorządu lokalnego informacje bezpośrednio związane z prawami i obowiązkami tej organizacji, a także informacje niezbędne w związku z kontaktami z tymi organami w trakcie wykonywania przez tę organizację swojej działalności statutowej .

4. Dostęp do:

1) regulacyjne akty prawne wpływające na prawa, wolności i obowiązki człowieka i obywatela, a także ustalające status prawny organizacji oraz uprawnienia organów państwowych i samorządu terytorialnego;

2) informację o stanie środowiska;

3) informacje o działalności organów państwowych i samorządów terytorialnych oraz o wykorzystaniu środki budżetowe(z wyjątkiem informacji stanowiących tajemnicę państwową lub służbową);

4) informacje zgromadzone w otwartych zbiorach bibliotek, muzeów i archiwów oraz w państwowych, gminnych i innych systemach informacyjnych, tworzonych lub mających na celu udostępnianie takich informacji obywatelom (osobom fizycznym) i organizacjom;

5) inne informacje, których niedopuszczalność ograniczania dostępu określa ustawa federalna.

5. Organy państwowe i organy samorządu lokalnego są obowiązane udostępniać informacje o swojej działalności w języku rosyjskim i języku państwowym odpowiedniej republiki na terenie Federacji Rosyjskiej, zgodnie z ustawami federalnymi, ustawami podmiotów wchodzących w skład Federacji Rosyjskiej oraz przepisami prawa akty prawne organów samorządu terytorialnego. Osoba pragnąca uzyskać dostęp do takich informacji nie ma obowiązku uzasadniania potrzeby ich uzyskania.

6. Na decyzje i działania (bierność) organów państwowych i samorządu terytorialnego, stowarzyszeń publicznych, urzędników naruszające prawo dostępu do informacji przysługuje zażalenie do organu wyższego szczebla lub wyższego urzędnika albo do sądu.

7. Jeżeli szkoda powstała na skutek bezprawnej odmowy dostępu do informacji, nieterminowego udzielenia informacji, udzielenia informacji świadomie nierzetelnej lub niezgodnej z treścią żądania, straty te podlegają naprawieniu zgodnie z przepisami prawa cywilnego .

8. Informacje udzielane są bezpłatnie:

1) o działalności organów państwowych i organów samorządu terytorialnego zamieszczanych przez te organy w sieciach informacyjno-telekomunikacyjnych;

2) wpływające na prawa i obowiązki zainteresowanej osoby określone w ustawodawstwie Federacji Rosyjskiej;

3) inne informacje określone przepisami prawa.

9. Ustalenie opłaty za udzielanie przez organ państwowy lub organ samorządu terytorialnego informacji o jego działalności możliwe jest jedynie w przypadkach i na warunkach określonych w ustawach federalnych.

Artykuł 9. Ograniczanie dostępu do informacji

1. Ograniczenia w dostępie do informacji ustanawiają ustawy federalne w celu ochrony podstaw ustroju konstytucyjnego, moralności, zdrowia, praw i uzasadnionych interesów innych osób, w celu zapewnienia obronności kraju i bezpieczeństwa państwa.

2. Obowiązkowe jest zachowanie poufności informacji, do których dostęp jest ograniczony przez prawo federalne.

3. Ochrona informacji stanowiących tajemnicę państwową odbywa się zgodnie z ustawodawstwem Federacji Rosyjskiej dotyczącym tajemnicy państwowej.

4. Ustawy federalne określają warunki utajniania informacji jako stanowiącej tajemnicę przedsiębiorstwa, tajemnicę służbową lub inną tajemnicę, obowiązek zachowania poufności tych informacji oraz odpowiedzialność za ich ujawnienie.

5. Informacje otrzymywane przez obywateli (osoby fizyczne) w związku z wykonywaniem obowiązków zawodowych lub organizacje w ramach wykonywania swoich obowiązków pewne rodzaje działalności (tajemnica zawodowa), podlega ochronie w przypadkach, gdy osoby te są zobowiązane na mocy prawa federalnego do zachowania poufności tych informacji.

6. Informacje stanowiące tajemnicę zawodową mogą być udostępniane osobom trzecim zgodnie z prawem federalnym i (lub) decyzją sądu.

7. Termin dopełnienia obowiązków zachowania w tajemnicy informacji stanowiących tajemnicę zawodową może zostać ograniczony jedynie za zgodą obywatela (osoby fizycznej), która udostępniła o sobie takie informacje.

8. Zabronione jest wymaganie od obywatela (osoby fizycznej) udzielania informacji o jego życiu prywatnym, w tym informacji stanowiących tajemnicę osobistą lub rodzinną, oraz otrzymywanie takich informacji wbrew woli obywatela (osoby fizycznej), chyba że ustawa federalna stanowi inaczej .

9. Procedurę dostępu do danych osobowych obywateli (osób fizycznych) określa federalna ustawa o danych osobowych.

Artykuł 10. Rozpowszechnianie informacji lub dostarczanie informacji

1. W Federacji Rosyjskiej rozpowszechnianie informacji odbywa się w sposób swobodny, z zastrzeżeniem wymogów określonych w ustawodawstwie Federacji Rosyjskiej.

2. Informacje rozpowszechniane bez użycia środków przekazu muszą zawierać wiarygodne informacje o ich właścicielu lub o innej osobie rozpowszechniającej, w formie i objętości umożliwiającej identyfikację tej osoby.

3. W przypadku stosowania środków rozpowszechniania informacji umożliwiających identyfikację odbiorców informacji, w tym przesyłek pocztowych i wiadomości elektronicznych, osoba rozpowszechniająca informację jest obowiązana zapewnić odbiorcy informacji możliwość odmowy przekazania informacji.

4. Przekazywanie informacji odbywa się w sposób ustalony w drodze porozumienia osób uczestniczących w wymianie informacji.

5. Przypadki i warunki obowiązkowego rozpowszechniania informacji lub dostarczania informacji, w tym dostarczania legalnych kopii dokumentów, określają ustawy federalne.

6. Zabrania się rozpowszechniania informacji mających na celu propagowanie wojny, nawołujących do nienawiści i wrogości narodowościowej, rasowej lub religijnej, a także innych informacji, za których rozpowszechnianie grozi odpowiedzialność karna lub administracyjna.

Artykuł 11. Dokumentowanie informacji

1. Ustawodawstwo Federacji Rosyjskiej lub porozumienie stron może ustanawiać wymagania dotyczące dokumentowania informacji.

2. W federalnych organach wykonawczych dokumentowanie informacji odbywa się w sposób określony przez Rząd Federacji Rosyjskiej. Zasady pracy biurowej i obiegu dokumentów ustalone przez inne organy państwowe i organy samorządu terytorialnego w zakresie ich kompetencji muszą być zgodne z wymogami ustalonymi przez Rząd Federacji Rosyjskiej w zakresie pracy biurowej i obiegu dokumentów dla federalnych organów wykonawczych.

3. Rozpoznaje się wiadomość elektroniczną podpisaną elektronicznym podpisem cyfrowym lub innym odpowiednikiem podpisu własnoręcznego dokument elektroniczny, równoważny dokumentowi podpisanemu odręcznym podpisem, w przypadkach gdy przepisy federalne lub inne regulacyjne akty prawne nie ustanawiają ani nie implikują wymogu sporządzenia takiego dokumentu w formie papierowej.

4. W celu zawarcia umów cywilnych lub sformalizowania innych stosunków prawnych, w których uczestniczą osoby wymieniające wiadomości elektroniczne, wymiana wiadomości elektronicznych, z których każda jest opatrzona elektronicznym podpisem cyfrowym lub innym odpowiednikiem własnoręcznego podpisu nadawcy takiej wiadomości, wiadomość w sposób określony przez prawo federalne, inne regulacyjne akty prawne lub porozumienie stron jest uważane za wymianę dokumentów.

5. Własność i inne prawa majątkowe do nośników materialnych zawierających udokumentowane informacje reguluje prawo cywilne.

Artykuł 12. Regulacje państwowe w zakresie stosowania technologii informatycznych

1. Przepisy państwowe w zakresie stosowania technologii informatycznych przewidują:

1) regulacja stosunków związanych z wyszukiwaniem, otrzymywaniem, przesyłaniem, wytwarzaniem i rozpowszechnianiem informacji za pomocą technologii informatycznych (informatyzacja), w oparciu o zasady określone w niniejszej ustawie federalnej;

2) rozwój systemów informacyjnych o różnym przeznaczeniu, zapewniających dostęp do informacji obywatelom (osobom indywidualnym), organizacjom, organom państwowym i samorządom lokalnym oraz zapewniający współdziałanie tych systemów;

3) tworzenie warunków efektywnego korzystania z sieci informacyjno-telekomunikacyjnych w Federacji Rosyjskiej, w tym Internetu i innych podobnych sieci teleinformatycznych.

2. Organy państwowe, organy samorządu terytorialnego zgodnie ze swoimi uprawnieniami:

1) uczestniczyć w opracowywaniu i wdrażaniu celowych programów wykorzystania technologii informatycznych;

2) tworzyć systemy informacyjne i zapewniać dostęp do informacji w nich zawartych w języku rosyjskim i języku państwowym odpowiedniej republiki na terenie Federacji Rosyjskiej.

Artykuł 13. Systemy Informacyjne

1. Do systemów informatycznych zalicza się:

1) państwowe systemy informacyjne – federalne systemy informacyjne i regionalne systemy informacyjne utworzone na podstawie odpowiednio ustaw federalnych, ustaw podmiotów Federacji Rosyjskiej, na podstawie aktów prawnych organów państwowych;

2) gminne systemy informacji utworzone na podstawie decyzji organu samorządu terytorialnego;

3) inne systemy informatyczne.

2. Jeżeli przepisy prawa federalnego nie stanowią inaczej, operatorem systemu informatycznego jest właściciel środków technicznych służących do przetwarzania informacji zawartych w bazach danych, który zgodnie z prawem z tych baz danych korzysta, lub osoba, z którą właściciel ten zawarł umowę w sprawie funkcjonowanie systemu informatycznego.

3. Prawa właściciela informacji zawartych w bazach danych systemów informatycznych podlegają ochronie niezależnie od praw autorskich i innych praw do tych baz danych.

4. Wymagania dotyczące państwowych systemów informacyjnych określone w niniejszej ustawie federalnej mają zastosowanie do miejskich systemów informacyjnych, chyba że ustawodawstwo Federacji Rosyjskiej dotyczące samorządu lokalnego stanowi inaczej.

5. Cechy funkcjonowania państwowych systemów informacyjnych i gminnych systemów informacyjnych można ustalić zgodnie z przepisami technicznymi, regulacyjnymi aktami prawnymi organów państwowych, regulacyjnymi aktami prawnymi samorządów podejmujących decyzje o utworzeniu takich systemów informatycznych.

6. Procedurę tworzenia i obsługi systemów informatycznych niebędących systemami informacji państwowej lub miejskimi systemami informacyjnymi ustalają operatorzy takich systemów informatycznych zgodnie z wymogami określonymi w niniejszej ustawie federalnej lub innych ustawach federalnych.

Artykuł 14. Państwowe systemy informacyjne

1. Państwowe systemy informacyjne tworzy się w celu realizacji uprawnień organów państwowych i zapewnienia wymiany informacji między tymi organami, a także w innych celach określonych w ustawach federalnych.

2. Państwowe systemy informacyjne tworzone są z uwzględnieniem wymagań określonych w ustawie federalnej nr 94-FZ z dnia 21 lipca 2005 r. „W sprawie składania zamówień na dostawę towarów, wykonywanie pracy, świadczenie usług na potrzeby państwowe i komunalne”.

3. Państwowe systemy informacyjne są tworzone i obsługiwane w oparciu o informacje statystyczne i inne udokumentowane, przekazywane przez obywateli (osoby fizyczne), organizacje, agencje rządowe i samorządy terytorialne.

4. Wykazy rodzajów informacji zawartych w obowiązkowy, są określone w ustawach federalnych, warunki ich świadczenia określa Rząd Federacji Rosyjskiej lub odpowiednie organy rządowe, chyba że ustawa federalna stanowi inaczej.

5. Jeżeli w decyzji o utworzeniu państwowego systemu informacyjnego nie określono inaczej, funkcje jego operatora pełni klient, który zawarł państwową umowę na utworzenie takiego systemu informacyjnego. W takim przypadku uruchomienie państwowego systemu informacyjnego odbywa się w sposób ustalony przez określonego klienta.

6. Rząd Federacji Rosyjskiej ma prawo ustalić obowiązkowe wymagania dotyczące procedury uruchamiania niektórych państwowych systemów informatycznych.

7. Niedozwolone jest funkcjonowanie państwowego systemu informacyjnego bez prawidłowej rejestracji praw do korzystania z jego elementów stanowiących przedmiot własności intelektualnej.

8. Środki techniczne przeznaczone do przetwarzania informacji zawartych w państwowych systemach informatycznych, w tym oprogramowanie środki techniczne a środki bezpieczeństwa informacji muszą spełniać wymagania ustawodawstwa Federacji Rosyjskiej dotyczące przepisów technicznych.

9. Informacje zawarte w państwowych systemach informacyjnych oraz inne informacje i dokumenty, którymi dysponują organy państwowe, stanowią państwowy zasób informacyjny.

Artykuł 15. Korzystanie z sieci informacyjnych i telekomunikacyjnych

1. Na terytorium Federacji Rosyjskiej korzystanie z sieci informacyjnych i telekomunikacyjnych odbywa się zgodnie z wymogami ustawodawstwa Federacji Rosyjskiej w zakresie komunikacji, niniejszej ustawy federalnej i innych regulacyjnych aktów prawnych Federacji Rosyjskiej .

2. Regulacja korzystania z sieci informacyjnych i telekomunikacyjnych, do których dostęp nie jest ograniczony do określonego kręgu osób, odbywa się w Federacji Rosyjskiej z uwzględnieniem ogólnie przyjętej międzynarodowej praktyki organizacji samoregulacyjnych w tym obszarze. Procedurę korzystania z innych sieci informacyjnych i telekomunikacyjnych ustalają właściciele takich sieci, biorąc pod uwagę wymagania określone w niniejszej ustawie federalnej.

3. Wykorzystywanie sieci informatycznych i telekomunikacyjnych w działalności gospodarczej lub innej na terytorium Federacji Rosyjskiej nie może stanowić podstawy do ustalania dodatkowych wymagań lub ograniczeń w zakresie regulacji tej działalności prowadzonej bez wykorzystania tych sieci, a także za nieprzestrzeganie wymogów określonych w przepisach federalnych.

4. Ustawy federalne mogą przewidywać obowiązkową identyfikację osób i organizacji korzystających z sieci informacyjno-telekomunikacyjnej podczas prowadzenia działalności gospodarczej. W tym przypadku odbiorca e-mail z siedzibą na terytorium Federacji Rosyjskiej ma prawo przeprowadzić kontrolę w celu identyfikacji nadawcy wiadomości elektronicznej, a w przypadkach przewidzianych przez prawo federalne lub umowę stron jest zobowiązany do przeprowadzenia takiej kontroli.

5. Przekazywanie informacji za pośrednictwem sieci informacyjnych i telekomunikacyjnych odbywa się bez ograniczeń, z zastrzeżeniem przestrzegania wymogów określonych w przepisach federalnych dotyczących rozpowszechniania informacji i ochrony własności intelektualnej. Przekazywanie informacji może być ograniczone wyłącznie w sposób i na warunkach określonych w przepisach prawa federalnego.

6. Cechy przyłączenia państwowych systemów informacyjnych do sieci informacyjno-telekomunikacyjnych mogą określić regulacyjny akt prawny Prezydenta Federacji Rosyjskiej lub regulacyjny akt prawny Rządu Federacji Rosyjskiej.

Artykuł 16. Ochrona danych

1. Ochrona informacji polega na przyjęciu środków prawnych, organizacyjnych i technicznych mających na celu:

1) zapewnienie ochrony informacji przed nieuprawnionym dostępem, zniszczeniem, modyfikacją, blokowaniem, kopiowaniem, udostępnianiem, rozpowszechnianiem, a także przed innymi złe prowadzenie się w odniesieniu do takich informacji;

2) zachowania poufności informacji zastrzeżonych,

3) realizacja prawa dostępu do informacji.

2. Państwowa regulacja stosunków w dziedzinie ochrony informacji odbywa się poprzez ustanowienie wymagań dotyczących ochrony informacji, a także odpowiedzialności za naruszenie ustawodawstwa Federacji Rosyjskiej w zakresie informacji, technologii informacyjnych i ochrony informacji.

3. Wymogi ochrony informacji publicznie dostępnych mogą być ustalane wyłącznie dla osiągnięcia celów określonych w ust. 1 i 3 części 1 niniejszego artykułu.

4. Właściciel informacji, operator systemu informacyjnego w przypadkach przewidzianych przez ustawodawstwo Federacji Rosyjskiej, jest zobowiązany zapewnić:

1) zapobieganie nieuprawnionemu dostępowi do informacji i (lub) przekazywanie ich osobom, które nie mają prawa dostępu do informacji;

2) terminowe wykrywanie faktów nieuprawnionego dostępu do informacji;

3) zapobieganie możliwości poniesienia negatywnych konsekwencji naruszenia procedury dostępu do informacji;

4) zapobieganie wpływowi na techniczne środki przetwarzania informacji, w wyniku którego następuje zakłócenie ich funkcjonowania;

5) możliwość natychmiastowego przywrócenia informacji zmodyfikowanych lub zniszczonych na skutek nieuprawnionego dostępu do nich;

6) stały monitoring zapewnienia poziomu bezpieczeństwa informacji.

5. Wymagania dotyczące ochrony informacji zawartych w państwowych systemach informatycznych ustalają federalny organ wykonawczy w zakresie bezpieczeństwa oraz federalny organ wykonawczy upoważniony w zakresie zwalczania wywiadu technicznego i technicznej ochrony informacji, w granicach swoich uprawnień . Podczas tworzenia i eksploatacji systemów informacyjnych stanu metody i metody stosowane w celu ochrony informacji muszą spełniać określone wymagania.

6. Ustawy federalne mogą ustanawiać ograniczenia w stosowaniu niektórych narzędzi bezpieczeństwa informacji i realizacji niektórych rodzajów działań w zakresie bezpieczeństwa informacji.

Artykuł 17. Odpowiedzialność za przestępstwa z zakresu informacji, technologii informatycznych i ochrony informacji

1. Naruszenie wymogów niniejszej ustawy federalnej pociąga za sobą odpowiedzialność dyscyplinarną, cywilną, administracyjną lub karną zgodnie z ustawodawstwem Federacji Rosyjskiej.

2. Osoby, których prawa i uzasadnione interesy zostały naruszone w związku z ujawnieniem informacji zastrzeżonych lub innym niezgodnym z prawem wykorzystaniem takich informacji, mają prawo dochodzić w przewidziany sposób sądowej ochrony swoich praw, w tym dochodzić roszczeń odszkodowawczych, naprawienia szkody moralnej , ochrona honoru, godności i reputacji biznesowej. Roszczenie o naprawienie szkody nie może zostać zaspokojone, jeżeli zostało złożone przez osobę, która nie podjęła działań w celu zachowania poufności informacji lub naruszyła wymogi ochrony informacji określone w ustawodawstwie Federacji Rosyjskiej, jeżeli przyjęcie tych środki i przestrzeganie takich wymagań należało do obowiązków tej osoby.

3. Jeżeli rozpowszechnianie określonych informacji jest ograniczone lub zabronione przez prawo federalne, osoba świadcząca usługi nie ponosi odpowiedzialności cywilnej za rozpowszechnianie takich informacji:

1) albo przez przeniesienie informacji przekazanej przez inną osobę, jeżeli jest ona przekazana bez zmian i sprostowań;

2) lub przechowywania informacji i udostępniania ich, jeżeli osoba ta nie mogła wiedzieć o niezgodności z prawem rozpowszechniania informacji.

Artykuł 18. O uznaniu za nieważne niektórych aktów ustawodawczych (przepisów aktów ustawodawczych) Federacji Rosyjskiej

Z dniem wejścia w życie niniejszej ustawy federalnej za nieważne uznaje się:

1) Ustawa federalna z dnia 20 lutego 1995 r. nr 24-FZ „O informacji, informatyzacji i ochronie informacji” (ustawodawstwo zebrane Federacji Rosyjskiej, 1995, nr 8, art. 609);

2) Ustawa federalna z dnia 4 lipca 1996 r. N 85-FZ „O udziale w międzynarodowej wymianie informacji” (ustawodawstwo zebrane Federacji Rosyjskiej, 1996, N 28, art. 3347);

3) Artykuł 16 ustawy federalnej z dnia 10 stycznia 2003 r. N 15-FZ „W sprawie wprowadzenia zmian i uzupełnień do niektórych aktów prawnych Federacji Rosyjskiej w związku z przyjęciem ustawy federalnej „W sprawie licencjonowania niektórych rodzajów działalności” ( Ustawodawstwo zebrane Federacji Rosyjskiej, 2003, N 2, art. 167);

4) Artykuł 21 ustawy federalnej z dnia 30 czerwca 2003 r. N 86-FZ „W sprawie wprowadzenia zmian i uzupełnień do niektórych aktów ustawodawczych Federacji Rosyjskiej, uznania za nieważne niektórych aktów ustawodawczych Federacji Rosyjskiej, zapewniających pracownikom wewnętrznych pewne gwarancje organów skarbowych, organów kontroli obrotu środkami odurzającymi i substancjami psychotropowymi oraz zniesionych federalnych organów policji skarbowej w związku z wdrażaniem działań mających na celu poprawę kontrolowany przez rząd„(Ustawodawstwo zebrane Federacji Rosyjskiej, 2003, nr 27, art. 2700);

5) Artykuł 39 ustawy federalnej z dnia 29 czerwca 2004 r. N 58-FZ „W sprawie zmiany niektórych aktów ustawodawczych Federacji Rosyjskiej i uznania za nieważne niektórych aktów ustawodawczych Federacji Rosyjskiej w związku z wdrożeniem środków mających na celu poprawę administracji publicznej” (Zbiór Ustawodawstwa Federacji Rosyjskiej, 2004, nr 27, art. 2711).

Prezydent
Federacja Rosyjska
W. Putina

(VOVworld) – Premier Wietnamu Nguyen Tan Dung zauważył, że konieczne jest wykorzystanie pozytywnych aspektów informacji w Internecie, aby społeczeństwo miało dostęp do wiarygodne informacje. Na zorganizowanej niedawno konferencji w sprawie realizacji prac Biura Rządu Wietnamu na rok 2015 szef rządu zażądał, aby właściwe organy różne poziomy terminowego dostarczania społeczeństwu rzetelnych informacji, uznając to za ważne zadanie, które powinno zostać pomyślnie zrealizowane w roku 2015.

Premier Wietnamu Nguyen Tan Dung

Rząd powołany jest do pełnienia funkcji administracji administracyjnej i publicznej, do kierowania działalnością w różnych sferach życia społeczno-gospodarczego. O wszystkich zarządzeniach i decyzjach Rządu i Premiera należy codziennie informować ludność. Terminowe przekazywanie społeczeństwu tych informacji ma na celu stworzenie w społeczeństwie konsensusu w sprawie realizacji wytycznych i polityki Partii i Państwa poprzez rzeczywiste i konkretne działania.


Prawo społeczeństwa do dostępu do informacji

Od dłuższego czasu za pośrednictwem mediów podawane są informacje dotyczące regulacji rządowych. Jednak obecnie sfera informacji obejmuje nie tylko różne rodzaje prasy, takie jak gazety drukowane i elektroniczne, radio i telewizję, ale także portale społecznościowe. Z ponad 30 milionami użytkowników sieć społecznościowa staje się niezbędnym kanałem informacyjnym dla mieszkańców kraju. Dzięki wysokiemu stopniowi „otwartości” sieci społecznościowych wszystkie informacje tutaj rozprzestrzeniają się bardzo szybko i mają szeroki zasięg. Dlatego zła i dobra informacja ma bezpośredni wpływ na odbiorcę informacji. Zwłaszcza w sieciach społecznościowych wszystkie informacje otrzymują informację zwrotną i natychmiast spotykają się z reakcją użytkowników. Dlatego premier Nguyen Tan Dung wymaga, aby wszystkie agencje rządowe dołożyły wszelkich starań, aby zapewnić społeczeństwu dokładne informacje.


Dokładne informacje muszą być podawane do wiadomości publicznej w odpowiednim czasie

Praca informacyjna społeczeństwa w dobie technologii informatycznych jest niezbędna do zaspokojenia zapotrzebowania społeczeństwa na informację. Skutecznie wykorzystując sieci społecznościowe do szybkiego dostarczania społeczeństwu informacji na temat decyzji i przepisów rządowych, społeczeństwo może otrzymywać wiarygodne informacje. Dlatego też w swoim przemówieniu na niedawnej konferencji poświęconej realizacji prac Biura Rządu na rok 2015 Premier Nguyen Tan Dung zauważył: „Pytanie brzmi, co należy zrobić, aby zapewnić społeczeństwu oficjalne i wiarygodne informacje w sieciach społecznościowych. Najważniejsze jest to, aby informacje były dokładne i aktualne, co pomoże społeczeństwu zaufać im.”

Szef rządu wysoko ocenił pozytywne aspekty portali społecznościowych w obszarze informacyjnym i postulował ich rozwój, a także ograniczenie ich negatywnych skutków. W dobie technologii informatycznych akceptowalne jest zapewnienie otwartości i przejrzystości skuteczna metoda informowanie ludności.


Modernizacja e-administracji

Odnosząc się do wpływu informacji na portalach społecznościowych na pracę związaną z promocją i popularyzacją polityki i ustawodawstwa państwa dla każdego mieszkańca kraju, premier Nguyen Tan Dung podkreślił potrzebę zintensyfikowania wykorzystania technologii informatycznych w procesie skutecznego zarządzania administracji i administracji publicznej. Zdaniem szefa rządu, aby zyskać zaufanie społeczne do pracy rządu, należy unowocześnić e-administrację, w szczególności zapewnić dostęp za pośrednictwem Internetu do wszelkich informacji o administracji rządowej, tak aby społeczeństwo otrzymało tę wiedzę informacji w odpowiednim czasie, co uważa się za skuteczny i ekonomiczny sposób zapobiegania rozpowszechnianiu fałszywych informacji, tworzeniu wiary i konsensusu w społeczeństwie. Ponadto, zdaniem Premiera, każdy członek Rządu i organy rządowe muszą ponosić odpowiedzialność za informowanie pracy, dostarczanie społeczeństwu aktualnych informacji o decyzjach rządu.Im szybciej zostaną oni wykazani w przekazywaniu informacji społeczeństwu, tym lepsze będzie dla społeczeństwa zapewnione zostanie prawo dostępu do rzetelnej i oficjalnej informacji.

Rzetelność jest tym, co pokazuje jakość informacji, odzwierciedla jej kompletność i dokładność. Posiada takie cechy jak czytelność mowy pisanej i ustnej, brak w jakikolwiek sposób fałszywych lub zniekształconych informacji oraz niewielką możliwość błędnego użycia jednostek informacji, w tym liter, symboli, bitów i cyfr. Wiarygodność informacji i jej źródła ocenia się za pomocą skal (np. „w większości wiarygodna”, „w pełni wiarygodna”, „stosunkowo wiarygodna” i dalej – do „w ogóle niewiarygodna” lub „status nieokreślony”).

Co to znaczy?

Rzetelność charakteryzuje niezniekształconą informację. Wpływ na nią ma nie tylko autentyczność informacji, ale także adekwatność środków, za pomocą których zostały one uzyskane.

Niewiarygodność może oznaczać celowe przygotowanie danych jako fałszywych. Zdarzają się przypadki, gdy niewiarygodne informacje skutkują informacją wiarygodną. Dzieje się tak wtedy, gdy w momencie ich otrzymania stopień nierzetelności informacji jest już adresatowi znany. Generalnie można zaobserwować następującą prawidłowość: im większa ilość danych początkowych, tym większa staje się wiarygodność informacji.

Adekwatność informacji

Rzetelność jest zatem bezpośrednio powiązana z adekwatnością informacji, jej kompletnością i obiektywnością. Ta nieruchomość ma bardzo poważne znaczenie, szczególnie w przypadku wykorzystania danych do podejmowania jakichkolwiek decyzji. Informacje niewiarygodne prowadzą do decyzji, które będą miały negatywne konsekwencje w zakresie rozwoju społecznego, sytuacji politycznej lub sytuacji gospodarczej.

Przyjrzyjmy się więc bliżej pojęciu wiarygodności informacji.

Definicja pojęć informacja rzetelna i nierzetelna

Informacja jest zatem nierzetelna, jeśli nie odpowiada rzeczywistemu stanowi rzeczy, zawiera dane o zjawiskach, procesach lub zdarzeniach, które w zasadzie nigdy nie istniały lub nie istniały, ale informacja o nich różni się od tego, co faktycznie się dzieje, jest zniekształcona lub jest charakteryzuje się niekompletnością.

Informacją rzetelną można nazwać informację, która nie budzi żadnych wątpliwości, jest prawdziwa, autentyczna. Zawiera informacje, które w razie potrzeby można potwierdzić właściwymi z prawnego punktu widzenia procedurami, przy wykorzystaniu różnych dokumentów, opinii biegłych, zaproszenia świadków itp. Ponadto dane można uznać za wiarygodne, jeżeli koniecznie odwołaj się do głównego źródła. Jednak w tym przypadku pojawia się problem określenia wiarygodności samego źródła informacji.

Rodzaje źródeł informacji

Źródłami informacji mogą być:

Osoby, które ze względu na swoje uprawnienia lub stanowisko mają dostęp do informacji będących przedmiotem zainteresowania różnego rodzaju mediów;

Różne dokumenty;

Środowisko rzeczywiste (np. miejskie, materialne, czyli sfera zamieszkania człowieka, naturalne);

Wirtualne środowisko;

Publikacje drukowane posiadające nadruki, czyli podręczniki, książki, encyklopedie lub artykuły z czasopism;

Strony internetowe, portale, strony, na których mogą opierać się także media.

Bez wątpienia jednym z najbardziej wiarygodnych i najbezpieczniejszych źródeł są dokumenty, jednak są one uznawane za takie tylko wtedy, gdy istnieje możliwość ich legalnej weryfikacji. Charakteryzują się kompletnością informacji.

Kompetentny i niekompetentny

Oprócz podziału na wiarygodne i niewiarygodne, źródła mogą być również kompetentne i niekompetentne.

Najliczniej reprezentowanymi źródłami informacji są przedstawiciele oficjalnych struktur rządowych. Przede wszystkim agencje rządowe muszą dostarczać obywatelom jak najbardziej obiektywnych i dokładnych informacji. Jednak nawet doniesienia prasy rządowej mogą zostać sfałszowane i nie ma gwarancji, że nierzetelne informacje nie wyciekną ze źródła rządowego. Dlatego otrzymanie informacji nie oznacza bezwarunkowego zaufania jej.

Link źródłowy

Tym samym o wiarygodności informacji można decydować poprzez odwołanie się do źródła w niej występującego. Jeśli ten ostatni ma autorytet w jakiejś dziedzinie lub specjalizuje się w określonej dziedzinie, to jest kompetentny.

Jednak obecność linku nie zawsze powinna być obowiązkowa, zdarza się bowiem, że różnego rodzaju zapisy potwierdzają się bezpośrednio w procesie prezentowania informacji. Dzieje się tak wtedy, gdy autorem informacji jest specjalista, czyli osoba posiadająca wystarczające kompetencje w dziedzinie, której dotyczy. W tym przypadku najczęściej nie ma wątpliwości, że informacja będzie wiarygodna.

W przeważającej mierze anonimowe źródła przyczyniają się do zmniejszenia wiarygodności materiału, zwłaszcza gdy artykuł zawiera negatywne wiadomości, o których czytelnik nie był wcześniej świadomy. Ludzi interesuje przede wszystkim oryginalne źródło takich informacji.

Za najlepsze informacje uważa się te, które odnoszą się do źródeł posiadających określony autorytet, na przykład tych mających status urzędowy, różnych agencji statystycznych, instytutów badawczych itp.

Łatwiej wtedy sprawdzić prawdziwość informacji.


Metody weryfikacji

Ponieważ rzetelna jest tylko informacja zgodna z rzeczywistością, bardzo ważna jest umiejętność sprawdzenia otrzymanych danych i określenia stopnia ich wiarygodności. Jeśli opanujesz tę umiejętność, możesz uniknąć wszelkiego rodzaju pułapek dezinformacyjnych. Aby to zrobić, musisz najpierw określić, jaki ładunek semantyczny ma otrzymana informacja: silnia czy wartościowanie.

Monitorowanie dokładności informacji jest niezwykle ważne. Fakty są tym, z czym człowiek spotyka się po raz pierwszy, gdy otrzymuje jakąkolwiek nową dla niego informację. Nazywają informacje, które zostały już zweryfikowane pod kątem dokładności. Jeżeli informacja nie została zweryfikowana lub nie jest to możliwe, to nie zawiera faktów. Należą do nich liczby, wydarzenia, nazwiska, daty. Faktem jest też, że coś można zmierzyć, potwierdzić, dotknąć, wypisać. Najczęściej możliwość ich przedstawienia mają instytuty socjologiczne, badawcze, agencje specjalizujące się w statystyce itp. Główną cechą wyróżniającą fakt i ocenę wiarygodności informacji jest obiektywizm tej pierwszej. Ocena jest zawsze odzwierciedleniem czyjegoś subiektywnego poglądu lub postawy emocjonalnej, a także wymaga określonych działań.

Wyodrębnianie źródeł informacji i ich porównywanie

Dodatkowo przy pozyskiwaniu informacji ważne jest rozróżnienie pomiędzy jej źródłami. Ponieważ przeważająca większość faktów nie podlega niezależnej weryfikacji, wiarygodność uzyskanych danych rozpatrywana jest z punktu widzenia zaufania do źródeł, które je dostarczyły. Jak sprawdzić źródło informacji? Głównym czynnikiem decydującym o prawdzie jest praktyka, czyli to, co pełni rolę pomocniczą we wdrażaniu Szczególnym zadaniem. Dominującym kryterium każdej informacji jest także jej skuteczność, o czym świadczy liczba osób, które tę informację zastosowały. Im jest ona wyższa, tym większe będzie ich zaufanie do otrzymanych danych, a ich wiarygodność będzie większa. Jest to podstawowa zasada wiarygodności informacji.

Porównanie źródeł

Ponadto przydatne będzie porównywanie ze sobą źródeł, ponieważ cechy takie jak autorytet i popularność nie zapewniają jeszcze pełnych gwarancji wiarygodności. Dlatego kolejną ważną cechą informacji jest jej spójność. Każdy fakt otrzymany ze źródła musi zostać potwierdzony wynikami niezależnych badań, czyli musi zostać powtórzony. Jeżeli powtórna analiza doprowadzi do identycznych wniosków, wówczas uznaje się, że informacje są rzeczywiście spójne. Sugeruje to, że informacje o charakterze izolowanym, losowym nie zasługują na duże zaufanie.

Poziom zaufania

Obserwuje się następującą proporcję: im większa liczba podobnych informacji pochodzących z różnych źródeł, tym wyższy stopień wiarygodności informacji. Każde źródło jest odpowiedzialne za podane fakty, nie tylko z moralnego i moralnego punktu widzenia, ale także z materialnego punktu widzenia. Jeśli jakakolwiek organizacja udostępni dane wątpliwego pochodzenia, może łatwo stracić swoją reputację, a czasem nawet środki zapewniające jej istnienie. Poza tym można nie tylko stracić odbiorców informacji, ale nawet zostać ukaranym karą grzywny lub pozbawienia wolności. Dlatego renomowane źródła posiadające określony autorytet w żadnym wypadku nie będą narażać własnej reputacji, publikując nierzetelne informacje.

Co zrobić, jeśli źródłem informacji staje się konkretna osoba?

Zdarzają się sytuacje, gdy źródłem informacji nie jest organizacja, ale konkretna osoba. W takich przypadkach konieczne jest zdobycie jak największej ilości informacji o tym autorze, aby określić, w jakim stopniu należy ufać otrzymanym od niego informacjom. Wiarygodność danych możesz zweryfikować zapoznając się z innymi dziełami autora, jego źródłami (jeśli istnieją) lub dowiadując się, czy przysługuje mu wolność słowa, czyli czy może przekazywać takie informacje.

O kryterium tym decyduje posiadanie stopnia naukowego lub odpowiedniego doświadczenia w danej dziedzinie, a także zajmowane stanowisko. W przeciwnym razie informacje mogą okazać się bezużyteczne, a nawet szkodliwe. Jeżeli prawdziwości informacji nie da się w żaden sposób zweryfikować, można ją od razu uznać za pozbawioną znaczenia. Poszukując informacji należy przede wszystkim jasno sformułować problem wymagający rozwiązania, co ograniczy możliwość dezinformacji.

Jeśli informacje są anonimowe, w żadnym wypadku nie możesz zagwarantować ich wiarygodności. Każda informacja musi mieć własnego autora i być poparta jego dotychczasową reputacją. Najcenniejsze dane to w zasadzie te, których źródłem jest osoba doświadczona, a nie przypadkowa.