Usługi referencyjne i informacyjne. Rola informacji w informatyce

(VOVworld) - Premier Wietnamu Nguyen Tan Dung zauważył, że konieczne jest wykorzystanie pozytywnych stron informacji w Internecie, aby społeczeństwo miało dostęp do rzetelnych informacji. Na niedawnej konferencji poświęconej realizacji prac Biura Rządu Wietnamu na rok 2015 szef rządu zażądał, aby właściwe władze różnych szczebli terminowo przekazywały społeczeństwu rzetelne informacje, uznając to za ważne zadanie, któremu należy sprostać pomyślnie zakończone w 2015 r.

Premier Wietnamu Nguyen Tan Dung

Rząd powołany jest do pełnienia funkcji administracji administracyjnej i publicznej, do kierowania działalnością w różnych sferach życia społeczno-gospodarczego. O wszystkich zarządzeniach i decyzjach Rządu i Premiera należy codziennie informować ludność. Terminowe przekazywanie społeczeństwu tych informacji ma na celu stworzenie w społeczeństwie konsensusu w sprawie realizacji wytycznych i polityki Partii i Państwa poprzez rzeczywiste i konkretne działania.


Prawo społeczeństwa do dostępu do informacji

Od dłuższego czasu za pośrednictwem mediów podawane są informacje dotyczące regulacji rządowych. Jednak obecnie sfera informacji obejmuje nie tylko różne rodzaje prasy, takie jak gazety drukowane i elektroniczne, radio i telewizję, ale także portale społecznościowe. Z ponad 30 milionami użytkowników sieć społecznościowa staje się niezbędnym kanałem informacyjnym dla mieszkańców kraju. Dzięki wysokiemu stopniowi „otwartości” sieci społecznościowych wszystkie informacje tutaj rozprzestrzeniają się bardzo szybko i mają szeroki zasięg. Dlatego źle i dobra informacja ma bezpośredni wpływ na odbiorcę informacji. Zwłaszcza w sieciach społecznościowych wszystkie informacje otrzymują informację zwrotną i natychmiast spotykają się z reakcją użytkowników. Dlatego premier Nguyen Tan Dung wymaga, aby wszystkie agencje rządowe dołożyły wszelkich starań, aby zapewnić społeczeństwu dokładne informacje.


Dokładne informacje muszą być podawane do wiadomości publicznej w odpowiednim czasie

Praca informacyjna społeczeństwa w dobie technologii informatycznych jest niezbędna do zaspokojenia zapotrzebowania społeczeństwa na informację. Skutecznie wykorzystując sieci społecznościowe do szybkiego dostarczania społeczeństwu informacji na temat decyzji i przepisów rządowych, społeczeństwo może otrzymywać wiarygodne informacje. Dlatego też w swoim przemówieniu na niedawnej konferencji poświęconej realizacji prac Biura Rządu na rok 2015 Premier Nguyen Tan Dung zauważył: „Pytanie brzmi, co należy zrobić, aby zapewnić społeczeństwu oficjalne i wiarygodne informacje w sieciach społecznościowych. Najważniejsze jest to, aby informacje były dokładne i aktualne, co pomoże społeczeństwu zaufać im.”

Szef rządu wysoko ocenił pozytywne aspekty portali społecznościowych w zakresie informacji i zażądał ich rozwijania, a także ograniczania negatywne skutki. W dobie technologii informatycznych zapewnienie otwartości i przejrzystości jest akceptowalnym i skutecznym sposobem informowania społeczeństwa.


Modernizacja e-administracji

Odnosząc się do wpływu informacji na portalach społecznościowych na pracę związaną z promocją i popularyzacją polityki i ustawodawstwa państwa dla każdego mieszkańca kraju, premier Nguyen Tan Dung podkreślił potrzebę zintensyfikowania wykorzystania technologii informatycznych w procesie skutecznego zarządzania administracji i administracji publicznej. Zdaniem szefa rządu, aby zyskać zaufanie społeczne do pracy rządu, należy unowocześnić e-administrację, w szczególności zapewnić dostęp za pośrednictwem Internetu do wszelkich informacji o administracji rządowej, tak aby społeczeństwo otrzymało tę wiedzę informacji w odpowiednim czasie, co uważa się za skuteczny i ekonomiczny sposób zapobiegania rozpowszechnianiu fałszywych informacji, tworzeniu wiary i konsensusu w społeczeństwie. Ponadto, zdaniem Premiera, każdy członek Rządu i organy rządowe muszą ponosić odpowiedzialność za informowanie pracy, dostarczanie społeczeństwu aktualnych informacji o decyzjach rządu.Im szybciej zostaną oni wykazani w przekazywaniu informacji społeczeństwu, tym lepsze będzie dla społeczeństwa zapewnione zostanie prawo dostępu do rzetelnej i oficjalnej informacji.

Rzetelność jest tym, co pokazuje jakość informacji, odzwierciedla jej kompletność i dokładność. Posiada takie cechy jak czytelność mowy pisanej i ustnej, brak w jakikolwiek sposób fałszywych lub zniekształconych informacji oraz niewielką możliwość błędnego użycia jednostek informacji, w tym liter, symboli, bitów i cyfr. Wiarygodność informacji i jej źródła ocenia się za pomocą skal (np. „w większości wiarygodna”, „w pełni wiarygodna”, „stosunkowo wiarygodna” i dalej – do „w ogóle niewiarygodna” lub „status nieokreślony”).

Co to znaczy?

Rzetelność charakteryzuje niezniekształconą informację. Wpływ na nią ma nie tylko autentyczność informacji, ale także adekwatność środków, za pomocą których zostały one uzyskane.

Niewiarygodność może oznaczać celowe przygotowanie danych jako fałszywych. Zdarzają się przypadki, gdy niewiarygodne informacje skutkują informacją wiarygodną. Dzieje się tak wtedy, gdy w momencie ich otrzymania stopień nierzetelności informacji jest już adresatowi znany. Generalnie można zaobserwować następującą prawidłowość: im większa ilość danych początkowych, tym większa staje się wiarygodność informacji.

Adekwatność informacji

Rzetelność jest zatem bezpośrednio powiązana z adekwatnością informacji, jej kompletnością i obiektywnością. Właściwość ta ma bardzo poważne znaczenie, szczególnie w przypadku wykorzystania danych do podejmowania jakichkolwiek decyzji. Informacje niewiarygodne prowadzą do decyzji, które będą miały negatywne konsekwencje w zakresie rozwoju społecznego, sytuacji politycznej lub sytuacji gospodarczej.

Przyjrzyjmy się więc bliżej pojęciu wiarygodności informacji.

Definicja pojęć informacja rzetelna i nierzetelna

Informacja jest zatem nierzetelna, jeśli nie odpowiada rzeczywistemu stanowi rzeczy, zawiera dane o zjawiskach, procesach lub zdarzeniach, które w zasadzie nigdy nie istniały lub nie istniały, ale informacja o nich różni się od tego, co faktycznie się dzieje, jest zniekształcona lub jest charakteryzuje się niekompletnością.

Informacją rzetelną można nazwać informację, która nie budzi żadnych wątpliwości, jest prawdziwa, autentyczna. Zawiera informacje, które w razie potrzeby można potwierdzić właściwymi z prawnego punktu widzenia procedurami, przy wykorzystaniu różnych dokumentów, opinii biegłych, zaproszenia świadków itp. Ponadto dane można uznać za wiarygodne, jeżeli koniecznie odwołaj się do głównego źródła. Jednak w tym przypadku pojawia się problem określenia wiarygodności samego źródła informacji.

Rodzaje źródeł informacji

Źródłami informacji mogą być:

Osoby, które ze względu na swoje uprawnienia lub stanowisko mają dostęp do informacji będących przedmiotem zainteresowania różnego rodzaju mediów;

Różne dokumenty;

Środowisko rzeczywiste (np. miejskie, materialne, czyli sfera zamieszkania człowieka, naturalne);

Wirtualne środowisko;

Publikacje drukowane posiadające nadruki, czyli podręczniki, książki, encyklopedie lub artykuły z czasopism;

Strony internetowe, portale, strony, na których mogą opierać się także media.

Bez wątpienia jednym z najbardziej wiarygodnych i najbezpieczniejszych źródeł są dokumenty, jednak są one uznawane za takie tylko wtedy, gdy istnieje możliwość ich legalnej weryfikacji. Charakteryzują się kompletnością informacji.

Kompetentny i niekompetentny

Oprócz podziału na wiarygodne i niewiarygodne, źródła mogą być również kompetentne i niekompetentne.

Najliczniej reprezentowanymi źródłami informacji są przedstawiciele oficjalnych struktur rządowych. Przede wszystkim agencje rządowe muszą dostarczać obywatelom jak najbardziej obiektywnych i dokładnych informacji. Jednak nawet doniesienia prasy rządowej mogą zostać sfałszowane i nie ma gwarancji, że nierzetelne informacje nie wyciekną ze źródła rządowego. Dlatego otrzymanie informacji nie oznacza bezwarunkowego zaufania jej.

Link źródłowy

Tym samym o wiarygodności informacji można decydować poprzez odwołanie się do źródła w niej występującego. Jeśli ten ostatni ma autorytet w jakiejś dziedzinie lub specjalizuje się w określonej dziedzinie, to jest kompetentny.

Jednak obecność linku nie zawsze powinna być obowiązkowa, zdarza się bowiem, że różnego rodzaju zapisy potwierdzają się bezpośrednio w procesie prezentowania informacji. Dzieje się tak wtedy, gdy autorem informacji jest specjalista, czyli osoba posiadająca wystarczające kompetencje w dziedzinie, której dotyczy. W w tym przypadku najczęściej nie ma wątpliwości, że informacja będzie wiarygodna.

W przeważającej mierze anonimowe źródła przyczyniają się do zmniejszenia wiarygodności materiału, zwłaszcza gdy artykuł zawiera negatywne wiadomości, o których czytelnik nie był wcześniej świadomy. Ludzi interesuje przede wszystkim oryginalne źródło takich informacji.

Za najlepsze informacje uważa się te, które odnoszą się do źródeł posiadających określony autorytet, na przykład tych mających status urzędowy, różnych agencji statystycznych, instytutów badawczych itp.

Łatwiej wtedy sprawdzić prawdziwość informacji.


Metody weryfikacji

Ponieważ rzetelna jest tylko informacja zgodna z rzeczywistością, bardzo ważna jest umiejętność sprawdzenia otrzymanych danych i określenia stopnia ich wiarygodności. Jeśli opanujesz tę umiejętność, możesz uniknąć wszelkiego rodzaju pułapek dezinformacyjnych. Aby to zrobić, musisz najpierw określić, jaki ładunek semantyczny ma otrzymana informacja: silnia czy wartościowanie.

Monitorowanie dokładności informacji jest niezwykle ważne. Fakty są tym, z czym człowiek spotyka się po raz pierwszy, gdy otrzymuje jakąkolwiek nową dla niego informację. Nazywają informacje, które zostały już zweryfikowane pod kątem dokładności. Jeżeli informacja nie została zweryfikowana lub nie jest to możliwe, to nie zawiera faktów. Należą do nich liczby, wydarzenia, nazwiska, daty. Faktem jest też, że coś można zmierzyć, potwierdzić, dotknąć, wypisać. Najczęściej możliwość ich przedstawienia mają instytuty socjologiczne, badawcze, agencje specjalizujące się w statystyce itp. Główną cechą wyróżniającą fakt i ocenę wiarygodności informacji jest obiektywizm tej pierwszej. Ocena jest zawsze odzwierciedleniem czyjegoś subiektywnego poglądu lub postawy emocjonalnej, a także wymaga określonych działań.

Wyodrębnianie źródeł informacji i ich porównywanie

Dodatkowo przy pozyskiwaniu informacji ważne jest rozróżnienie pomiędzy jej źródłami. Ponieważ przeważająca większość faktów nie podlega niezależnej weryfikacji, wiarygodność uzyskanych danych rozpatrywana jest z punktu widzenia zaufania do źródeł, które je dostarczyły. Jak sprawdzić źródło informacji? Głównym czynnikiem decydującym o prawdzie jest praktyka, czyli to, co pełni rolę pomocniczą w wykonaniu określonego zadania. Dominującym kryterium każdej informacji jest także jej skuteczność, o czym świadczy liczba osób, które tę informację zastosowały. Im jest ona wyższa, tym większe będzie ich zaufanie do otrzymanych danych, a ich wiarygodność będzie większa. Jest to podstawowa zasada wiarygodności informacji.

Porównanie źródeł

Ponadto przydatne będzie porównywanie ze sobą źródeł, ponieważ cechy takie jak autorytet i popularność nie zapewniają jeszcze pełnych gwarancji wiarygodności. Dlatego kolejną ważną cechą informacji jest jej spójność. Każdy fakt otrzymany ze źródła musi zostać potwierdzony wynikami niezależnych badań, czyli musi zostać powtórzony. Jeżeli powtórna analiza doprowadzi do identycznych wniosków, wówczas uznaje się, że informacje są rzeczywiście spójne. Sugeruje to, że informacje o charakterze izolowanym, losowym nie zasługują na duże zaufanie.

Poziom zaufania

Obserwuje się następującą proporcję: im większa liczba podobnych informacji pochodzących z różnych źródeł, tym wyższy stopień wiarygodności informacji. Każde źródło jest odpowiedzialne za podane fakty, nie tylko z moralnego i moralnego punktu widzenia, ale także z materialnego punktu widzenia. Jeśli jakakolwiek organizacja udostępni dane wątpliwego pochodzenia, może łatwo stracić swoją reputację, a czasem nawet środki zapewniające jej istnienie. Poza tym można nie tylko stracić odbiorców informacji, ale nawet zostać ukaranym karą grzywny lub pozbawienia wolności. Dlatego renomowane źródła posiadające określony autorytet w żadnym wypadku nie będą narażać własnej reputacji, publikując nierzetelne informacje.

Co zrobić, jeśli źródłem informacji staje się konkretna osoba?

Zdarzają się sytuacje, gdy źródłem informacji nie jest organizacja, ale konkretna osoba. W takich przypadkach konieczne jest zdobycie jak największej ilości informacji o tym autorze, aby określić, w jakim stopniu należy ufać otrzymanym od niego informacjom. Wiarygodność danych możesz zweryfikować zapoznając się z innymi dziełami autora, jego źródłami (jeśli istnieją) lub dowiadując się, czy przysługuje mu wolność słowa, czyli czy może przekazywać takie informacje.

O kryterium tym decyduje posiadanie stopnia naukowego lub odpowiedniego doświadczenia w danej dziedzinie, a także zajmowane stanowisko. W przeciwnym razie informacje mogą okazać się bezużyteczne, a nawet szkodliwe. Jeżeli prawdziwości informacji nie da się w żaden sposób zweryfikować, można ją od razu uznać za pozbawioną znaczenia. Poszukując informacji należy przede wszystkim jasno sformułować problem wymagający rozwiązania, co ograniczy możliwość dezinformacji.

Jeśli informacje są anonimowe, w żadnym wypadku nie możesz zagwarantować ich wiarygodności. Każda informacja musi mieć własnego autora i być poparta jego dotychczasową reputacją. Najcenniejsze dane to w zasadzie te, których źródłem jest osoba doświadczona, a nie przypadkowa.

Warunkiem koniecznym zapewnienia wysokiej jakości obsługi pasażerów jest podanie rzetelnej informacji o możliwości przejazdu pomiędzy dwoma punktami. Im krótszy czas podróży pasażera, tym bardziej jest to dla niego opłacalne i tym większa jest efektywność przewozu pasażerów.

W miarę jak sieć transportowa rozwija się i staje się coraz bardziej złożona, pasażerom coraz trudniej jest poruszać się po morzu informacji referencyjnych. Z pomocą przychodzą systemy informacyjne, dostarczające informacji o możliwości podróżowania i dostępności miejsc. Poziom usług informacyjnych i referencyjnych dla pasażerów jest jednak nadal daleki od doskonałości. Tym samym nie ma możliwości wyszukiwania trasy podczas podróży z przesiadką na różnych typach transportu naziemnego. Nawet w przypadku niektórych rodzajów transportu taka usługa referencyjna nie jest świadczona. Bez informacji o możliwych opcjach podróży pasażerowie mają ograniczone możliwości wyboru trasy pod względem czasu i kosztów.

Jako przykład przyjrzyjmy się możliwościom globalnego systemu rezerwacji miejsc „Express”. Tak naprawdę nie daje możliwości wyszukiwania trasy z przesiadką. Jeśli więc pasażer chce pojechać pociągiem z Kaliningradu do Władywostoku, system informuje kasjera: „Nie ma bezpośredniej wiadomości. Przygotuj odpowiedź ręcznie”. Tę samą odpowiedź otrzymuje pasażer, który zwróci się do terminali informacyjnych na stacji kolejowej: „Nie ma bezpośredniego połączenia. Spróbuj przygotować trasę podróży, korzystając z atlasu kolejowego”.

Jeśli jest połączenie bezpośrednie, ale nie ma biletów na trasy bezpośrednie, Express odpowiada: „Brak biletów”, a pasażer nie może dotrzeć do celu.

Jeszcze trudniejszym zadaniem jest znalezienie trasy intermodalnej (wiele środków transportu). Są w naszym kraju regiony, które nie posiadają połączeń kolejowych. Pasażer podróżujący z takiego regionu do innego nieuchronnie staje przed zadaniem znalezienia możliwej trasy.

Oprócz globalnych systemów informacyjnych, w węzłach komunikacyjnych funkcjonują odrębne systemy referencyjne, które dostarczają informacji o poszczególnych rodzajach transportu w danym mieście lub regionie. Niektóre z tych systemów posiadają strony internetowe z regularnie aktualizowanymi informacjami o trasach. Pomimo ogromnej liczby witryn internetowych oferujących informacje podstawowe jeśli chodzi o rozkłady jazdy, wszystkie są albo punktami dostępu do systemu Express (i podobnymi), albo opierają się na prostych bazach danych, które nie są w stanie rozwiązać problemu znalezienia trasy pasażerskiej.

Aby rozwiązać rozważany problem, opracowano system pomocy „Wyszukiwanie trasy pasażerskiej w różne rodzaje transportu, z uwzględnieniem transferów i dostępności wolnych miejsc.” Wersja demonstracyjna systemu jest już dostępna w formie referencyjnej strony internetowej pod adresem. Jest to obecnie jedyny system referencyjny w Rosji, który odpowiada na pytanie, jak dojechać z Z Kaliningradu do Władywostoku w określonym terminie i w zależności od dostępności.

stacja pasażerska stacja kolejowa

Przykładowy diagram trasy z punktami przesiadkowymi

Interaktywna mapa trasy ze stacji Kazańskiej w Moskwie Powiększ

Obecnie system zawiera aktualne informacje o rozkładach jazdy wszystkich pociągów dalekobieżnych i autobusów międzymiastowych w kilku regionach Rosji. W celach demonstracyjnych wprowadzono także nieaktualne rozkłady jazdy pociągów elektrycznych w obwodzie moskiewskim. Usługa pozwala znaleźć trasę z przesiadką pomiędzy różnymi środkami transportu, trasę z kilkoma przesiadkami oraz uwzględnia dostępność miejsc.

Cechą wyróżniającą system jest powiązanie węzłów transportowych ze współrzędnymi geograficznymi. Zapewnia to działanie oryginalnego algorytmu wyszukiwania ścieżki i pozwala na szybkie i sprawne odnalezienie możliwe punkty przeszczepy. System jest zintegrowany z usługą mapową GoogleMaps, dzięki czemu znalezione trasy pociągów i możliwości podróży wyświetlane są na interaktywnej mapie.

Serwis dostępny dla użytkowników oparty jest na kompleksowym pakiecie oprogramowania składającym się z kilku modułów.

Należą do nich: specjalistyczna baza danych przechowująca informacje o węzłach komunikacyjnych i rozkładach jazdy różne rodzaje transport; programy do przygotowywania danych dla systemu pomocy; program do interakcji online z systemami rezerwacyjnymi w celu uzyskania aktualnych informacji o dostępności. Trzon usługi wyszukiwania stanowi program z implementacją algorytmów wyszukiwania. Strona internetowa służy jako interfejs umożliwiający dostęp do rdzenia systemu pomocy.

Głównym repozytorium informacji dla systemu pomocy jest wyspecjalizowana baza danych. Zawiera tabele do przechowywania danych i implementacji podstawowych algorytmów. w odróżnieniu proste modele przechowując informacje o rozkładach jazdy, struktura bazy danych umożliwia przechowywanie i porządkowanie informacji dla różnych rodzajów transportu, różniących się sposobem organizacji rozkładów jazdy. Kolejną istotną różnicą w stosunku do baz rozkładów jazdy jest przechowywanie informacji geograficznych o lokalizacji węzłów komunikacyjnych. Doświadczenie pokazało, że dostępność danych geograficznych jest niezbędna do prawidłowego i Szybkie wyszukiwanie trudna trasa.

Na poziomie bazy danych zaimplementowano najważniejszy algorytm systemu pomocy - wyszukiwanie możliwych tras podróży. Działa poprzez analizę danych harmonogramu i współrzędnych geograficznych.

Programy do przygotowywania danych systemu pomocy to zestaw podstawowych programów do przetwarzania i importowania. Służą zapoznaniu informacje wstępne do systemu. W multimodalnym systemie integracji dane pochodzą z wielu źródeł na różne sposoby i w różnych formach. Przykładowo dane mogą docierać w czasie rzeczywistym za pomocą specjalnego protokołu poprzez dedykowany kanał kanał informacyjny. Lub dane mogą być okresowo publikowane w formie plików na specjalny serwer, a system musi je pobrać niezależnie. Formaty plików mogą być również różne: pliki tekstowe i tabelaryczne lub XML.

Zadaniem pakietu oprogramowania jest analiza otrzymanych danych pod kątem błędów i poprzez powiązanie harmonogramów z odpowiednimi obiektami geograficznymi zapisanie ich na serwerze.

Niestety, w jakichkolwiek danych są błędy. Typowym błędem w tym przypadku są nieprawidłowe nazwy węzłów komunikacyjnych. Przykładowo na dworcu kolejowym i dworcu autobusowym znajdującym się obok niego ta sama lokalizacja geograficzna może mieć różne nazwy. W takich przypadkach nie da się obejść bez operatora programu – osoby kontrolującej postęp ładowania danych. W przypadku niejasności w danych program kontaktuje się z osobą i prosi o doprecyzowanie danych. Następnie wybór zostaje zapamiętany, a następnie ta dwuznaczność zostanie automatycznie wyeliminowana.

W wyniku działania pakietu oprogramowania baza danych otrzymuje początkową zawartość. Ale to nie wystarczy, aby dostarczyć odpowiednich informacji. Służy do tego moduł trzeci – program do interakcji on-line z systemami rezerwacji i sprzedaży biletów. Moduł uzyskuje dostęp do systemów zewnętrznych w czasie rzeczywistym i określa wymagane informacje.

Ze względu na szybkie zmiany danych o dostępności, nie ma możliwości przechowywania informacji w systemie. Próba centralizacji takich danych nie jest technicznie wykonalna, gdyż wymagałaby takiej samej liczby hurtowni danych, jak wszystkie inne systemy zewnętrznełączny.

Z punktu widzenia systemów zewnętrznych program interakcji online jest klientem żądającym informacji o dostępności i aktualizacjach rozkładów jazdy. Konkretna realizacja interakcji zależy od rodzaju źródła. Dla systemu Express jest to emulator terminala pracujący w referencyjnym trybie dostępu. W przypadku innych systemów zewnętrznych może to być wyspecjalizowany klient internetowy.

Z punktu widzenia systemu pomocy jest to program interakcji online oddzielny serwer, do którego przesyłane są żądania z modułu wyszukiwania (oraz do modułu od użytkowników). Żądania są umieszczane w kolejce na podstawie priorytetu i czasu przybycia oraz wysyłane do zewnętrznych systemów pomocy.

Moduł pozwala automatycznie zachować aktualność informacji na najważniejszych kierunkach np. Moskwa - Sankt Petersburg. W takim przypadku otrzymana informacja jest przechowywana w systemie przez pewien czas i przy ponawianiu żądania nie ładuje systemów zewnętrznych.

Trzon usługi wyszukiwania stanowi wielopoziomowy moduł oprogramowania, który z jednej strony współpracuje z bazą danych i serwisem internetowym, a z drugiej z użytkownikiem (poprzez stronę internetową). Po otrzymaniu zapytania o możliwość przejazdu pomiędzy punktami A i B moduł dokonuje wstępnej analizy danych i parametrów zapytania. Jeśli niedawno dokonano podobnego uruchomienia, to na tym etapie możesz zwrócić odpowiedź klientowi. Jeżeli parametry żądania są prawidłowe, moduł odwołuje się do algorytmu wyszukiwania tras zaimplementowanego w bazie danych. Algorytm przeprowadza wstępne wyszukiwanie możliwych tras z uwzględnieniem rozkładów jazdy i zwraca do modułu kilka możliwych tras przejazdu.

Drugi etap to kompleksowa analiza znalezionych tras. Na tym etapie sprawdzane są dni kursowania, dla każdej znalezionej trasy wyliczane są statystyki i ustalany jest optymalny wariant podróży. Jeżeli rozliczenie dni kursowych wykaże, że pociąg w danym dniu nie kursuje, moduł ponownie uzyskuje dostęp do algorytmu bazy danych i pyta o alternatywne warianty przejazdu. W ostatnim etapie moduł wysyła zapytania o dostępność do serwera interakcji online. Żądania umieszczane są w kolejce, a moduł oczekuje na otrzymanie informacji z systemów zewnętrznych. Następnie wyniki wyszukiwania są ostatecznie sprawdzane i przesyłane do klienta (strony internetowej).

Zewnętrzny moduł widoczny dla użytkowników to strona pomocy online. Można na nim utworzyć zapytanie referencyjne dotyczące możliwości przejazdu pomiędzy punktami A i B. Można określić termin przejazdu oraz rodzaj dostępnych miejsc, które należy wziąć pod uwagę przy wyszukiwaniu. Jeśli więc użytkownika nie stać na podróżowanie luksusowymi samochodami, może to wyraźnie wskazać, a drogie opcje podróży zostaną wykluczone z wyników wyszukiwania.

Można podać zarówno nazwę węzła komunikacyjnego (stacji), jak i nazwę miasta. Na przykład miasto Jekaterynburg (stacja Swierdłowsk). Jeśli użytkownik określi miasto, wyszukiwanie zostanie przeprowadzone ze wszystkich dworców kolejowych i autobusowych miasta; jeśli wskazuje konkretną stację, to tylko z określonej stacji.

Dzięki integracji serwisu z usługą mapową GoogleMaps użytkownik otrzymuje nie tylko informacje o harmonogramie i dostępności, ale także wizualną reprezentację trasy wycieczki na interaktywnej mapie. Na mapie prezentowane są alternatywne możliwości podróżowania, po kliknięciu na które można uzyskać informację o możliwościach podróży wybraną trasą.

Informacja to informacja o czymś

Pojęcie i rodzaje informacji, przekazywanie i przetwarzanie, wyszukiwanie i przechowywanie informacji

Rozwiń zawartość

Zwiń zawartość

Informacja to definicja

Informacja jest wszelkie informacje otrzymane i przesłane, przechowywane przez różne źródła. Informacja to cały zbiór informacji o otaczającym nas świecie, o wszelkiego rodzaju procesach w nim zachodzących, który może być postrzegany przez organizmy żywe, maszyny elektroniczne i inne systemy informacyjne.

- Ten istotna informacja o czymś, gdy forma jej przedstawienia jest jednocześnie informacją, czyli pełni funkcję formatującą zgodnie ze swą naturą.

Informacja jest wszystko co da się uzupełnić naszą wiedzą i założeniami.

Informacja jest informacja o czymś, niezależnie od formy jej przedstawienia.

Informacja jest mentalny produkt każdego organizmu psychofizycznego, wytworzony przez niego za pomocą jakichkolwiek środków, zwany nośnikiem informacji.

Informacja jest informacje postrzegane przez ludzi i (lub) specjalistów. urządzenia jako odzwierciedlenie faktów świata materialnego lub duchowego w procesie komunikacji.

Informacja jest dane zorganizowane w taki sposób, aby miały sens dla osoby, która je przetwarza.

Informacja jest znaczenie, jakie dana osoba przywiązuje do danych w oparciu o znane konwencje stosowane do ich reprezentacji.

Informacja jest informacja, wyjaśnienie, prezentacja.

Informacja jest wszelkie dane lub informacje, które kogokolwiek interesują.

Informacja jest informacja o obiektach i zjawiskach środowiska, ich parametrach, właściwościach i stanie, które są postrzegane przez systemy informacyjne (organizmy żywe, maszyny sterujące itp.) w procesie życia i pracy.

Ten sam przekaz informacyjny (artykuł w gazecie, ogłoszenie, list, telegram, zaświadczenie, opowiadanie, rysunek, audycja radiowa itp.) może zawierać różną ilość informacji dla różnych osób – w zależności od ich wcześniejszej wiedzy, stopnia zrozumienia tego przekazu i zainteresowanie nim.

W przypadkach, gdy mówią o zautomatyzowanej pracy z informacjami za pośrednictwem dowolnego urządzenia techniczne, nie interesuje ich treść wiadomości, ale to, ile znaków zawiera ta wiadomość.

W odniesieniu do komputerowego przetwarzania danych przez informację rozumie się pewien ciąg oznaczeń symbolicznych (litery, cyfry, zakodowane obrazy graficzne i dźwięki itp.), niosące ładunek semantyczny i prezentowane w formie zrozumiałej dla komputera. Każdy nowy symbol w takim ciągu symboli zwiększa się objętość informacyjna komunikatu.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różne obszary wiedzy, koncepcja ta opisana jest poprzez specyficzny zestaw cech. Na przykład pojęcie „informacja” jest podstawowe na kursie informatyki i nie da się go zdefiniować innymi, „prostszymi” pojęciami (podobnie jak na przykład w geometrii nie da się wyrazić treści podstawowe koncepcje„punkt”, „prosta”, „płaszczyzna” poprzez prostsze pojęcia).


Treść podstawowych, podstawowych pojęć w każdej nauce należy wyjaśnić przykładami lub zidentyfikować poprzez porównanie ich z treścią innych pojęć. W przypadku pojęcia „informacja” problem jego definicji jest jeszcze bardziej złożony, gdyż jest to pojęcie ogólnonaukowe. Pojęcie to jest stosowane w różnych naukach (informatyka, cybernetyka, biologia, fizyka itp.), a w każdej nauce pojęcie „informacji” wiąże się z różne systemy koncepcje.


Koncepcja informacji

W nowoczesna nauka Pod uwagę brane są dwa rodzaje informacji:

Informacja obiektywna (pierwotna) to właściwość obiektów materialnych i zjawisk (procesów) polegająca na generowaniu różnorodnych stanów, które poprzez interakcje (interakcje fundamentalne) są przekazywane innym obiektom i odciśnięte w ich strukturze.

Informacja subiektywna (semantyczna, semantyczna, wtórna) to semantyczna treść obiektywnej informacji o obiektach i procesach świata materialnego, utworzona przez ludzką świadomość za pomocą obrazów semantycznych (słów, obrazów i wrażeń) i zapisana na jakimś materialnym nośniku.


W potocznym rozumieniu informacja to informacja o otaczającym świecie i zachodzących w nim procesach, postrzegana przez człowieka lub specjalne urządzenie.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to charakteryzuje się specyficznym zespołem cech. Według koncepcji K. Shannona informacja jest usuwana z niepewności, tj. informacja, która powinna w takim czy innym stopniu usunąć niepewność istniejącą u konsumenta przed jej otrzymaniem i poszerzyć jego zrozumienie przedmiotu o przydatne informacje.


Z punktu widzenia Gregory'ego Betona podstawową jednostką informacji jest „różnica nieobojętna” lub różnica efektywna dla jakiegoś większego systemu postrzegania. Te różnice, które nie są postrzegane, nazywa „potencjalnymi”, a te, które są postrzegane jako „skuteczne”. „Informacja składa się z różnic, które nie są obojętne” (c) „Każde postrzeganie informacji jest z konieczności otrzymaniem informacji o różnicy”. Z punktu widzenia informatyki informacja ma szereg podstawowych właściwości: nowość, trafność, wiarygodność, obiektywność, kompletność, wartość itp. Nauka logiczna zajmuje się przede wszystkim analizą informacji. Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie informacji rozważali starożytni filozofowie.

Przed rozpoczęciem rewolucji przemysłowej określenie istoty informacji pozostawało prerogatywą głównie filozofów. Następnie nowa nauka, cybernetyka, zaczęła zajmować się zagadnieniami teorii informacji.

Czasami, aby zrozumieć istotę pojęcia, warto przeanalizować znaczenie słowa, którym to pojęcie jest oznaczane. Wyjaśnienie wewnętrznej formy słowa i przestudiowanie historii jego użycia może rzucić nieoczekiwane światło na jego znaczenie, przyćmione zwykłym „technologicznym” użyciem tego słowa i współczesnymi konotacjami.

Słowo informacja weszło do języka rosyjskiego w epoce Piotrowej. Po raz pierwszy zostało ono odnotowane w „Przepisach duchowych” z 1721 r. w znaczeniu „idei, koncepcji czegoś”. (W językach europejskich ustalono to wcześniej - około XIV wieku.)

W oparciu o tę etymologię za informację można uznać każdą znaczącą zmianę kształtu lub, innymi słowy, wszelkie materialnie zapisane ślady powstałe w wyniku interakcji obiektów lub sił i możliwe do zrozumienia. Informacja jest zatem przekształconą formą energii. Nośnikiem informacji jest znak, a sposobem jej istnienia jest interpretacja: określenie znaczenia znaku lub ciągu znaków.

Znaczeniem może być zdarzenie odtworzone ze znaku, który spowodował jego wystąpienie (w przypadku znaków „naturalnych” i mimowolnych, takich jak ślady, dowody itp.) lub przesłanie (w przypadku znaków konwencjonalnych tkwiących w sferze języka). To drugi rodzaj znaków tworzący korpus kultury ludzkiej, który według jednej z definicji stanowi „zestaw informacji niedziedzicznie przekazywanych”.

Wiadomości mogą zawierać informacje o faktach lub ich interpretację (z języka łacińskiego interpretatio, interpretacja, tłumaczenie).

Żywa istota otrzymuje informacje za pośrednictwem zmysłów, a także poprzez refleksję lub intuicję. Wymiana informacji między podmiotami to komunikacja lub komunikacja (od łac. lecommunications, wiadomość, przekaz, wywodzące się z kolei od łac. communico, tworzyć wspólny, komunikować się, rozmawiać, łączyć).

Z praktycznego punktu widzenia informacja jest zawsze prezentowana w formie komunikatu. Komunikat informacyjny jest powiązany ze źródłem komunikatu, odbiorcą komunikatu i kanałem komunikacji.


Wracając do łacińskiej etymologii słowa informacja, spróbujmy odpowiedzieć na pytanie, jaką dokładnie formę ma tu nadana.

Jest rzeczą oczywistą, że po pierwsze do pewnego znaczenia, które początkowo jest bezkształtne i niewyrażone, istnieje jedynie potencjalnie i musi zostać „zbudowane”, aby zostało dostrzeżone i przekazane.

Po drugie, do ludzkiego umysłu, który jest wyszkolony do myślenia strukturalnego i jasnego. Po trzecie, społeczeństwu, które właśnie dzięki temu, że jego członkowie podzielają te znaczenia i wspólnie z nich korzystają, zyskuje jedność i funkcjonalność.

Informacja w rozumieniu inteligentnego znaczenia to wiedza, która może być przechowywana, przekazywana i stanowić podstawę do generowania innej wiedzy. Formy konserwacji wiedzy (pamięci historycznej) są różnorodne: od mitów, kronik i piramid po biblioteki, muzea i komputerowe bazy danych dane.

Informacja to informacja o otaczającym nas świecie, o procesach w nim zachodzących, które są postrzegane przez organizmy żywe, maszyny sterujące i inne systemy informacyjne.

Słowo „informacja” pochodzi z języka łacińskiego. W ciągu długiego życia jego znaczenie przeszło ewolucję, rozszerzając się lub skrajnie zawężając jego granice. Początkowo słowo „informacja” oznaczało: „reprezentację”, „koncepcję”, następnie „informację”, „przekaz komunikatów”.


W ostatnich latach naukowcy uznali, że zwykłe (powszechnie akceptowane) znaczenie słowa „informacja” jest zbyt elastyczne i niejasne, i nadali mu następujące znaczenie: „miara pewności w przekazie”.

Teoria informacji zrodziła się z potrzeb praktyki. Jego pochodzenie wiąże się z pracą Claude'a Shannona „Matematyczna teoria komunikacji”, opublikowaną w 1946 roku. Podstawy teorii informacji opierają się na wynikach uzyskanych przez wielu naukowców. Do drugiej połowy XX wieku Ziemia wibrowały informacje przesyłane kablami telefonicznymi i telegraficznymi oraz kanałami radiowymi. Później pojawiły się komputery elektroniczne - procesory informacji. I w tym czasie głównym zadaniem teorii informacji było przede wszystkim zwiększenie wydajności systemów komunikacyjnych. Trudność w projektowaniu i obsłudze środków, systemów i kanałów komunikacji polega na tym, że projektant i inżynier nie wystarczy rozwiązać problem z punktu widzenia fizycznego i energetycznego. Z tych punktów widzenia system może być najbardziej zaawansowany i ekonomiczny. Jednak tworząc systemy transmisji, należy zwrócić uwagę na to, ile informacji przejdzie przez ten system transmisji. Przecież informację można mierzyć ilościowo, policzyć. I w takich obliczeniach postępują najzwyczajniej: abstrahują od znaczenia przekazu, tak jak porzucają konkretność w znanych nam wszystkim operacjach arytmetycznych (przechodząc od dodawania dwóch jabłek i trzech jabłek do dodawania liczb ogólnie: 2 + 3).


Naukowcy stwierdzili, że „całkowicie zignorowali ocenę informacji przez człowieka”. Na przykład kolejnemu ciągowi 100 liter przypisują informację określone znaczenie, nie zwracając uwagi na to, czy informacja ta ma sens i czy ma to z kolei sens w praktycznym zastosowaniu. Podejście ilościowe jest najbardziej rozwiniętą gałęzią teorii informacji. Zgodnie z tą definicją zbiór 100 liter – 100-literowe zdanie z gazety, sztuki Szekspira czy twierdzenia Einsteina – zawiera dokładnie tę samą ilość informacji.


Ta definicja ilości informacji jest niezwykle użyteczna i praktyczna. Odpowiada to dokładnie zadaniu inżyniera łączności, który musi przekazać wszystkie informacje zawarte w przesłanym telegramie, niezależnie od wartości tej informacji dla adresata. Kanał komunikacji jest bezduszny. Dla systemu transmisji ważne jest jedno: przekazać wymaganą ilość informacji w określonym czasie. Jak obliczyć ilość informacji w konkretnej wiadomości?

Ocena ilości informacji opiera się na prawach teorii prawdopodobieństwa, a dokładniej, jest ustalana poprzez prawdopodobieństwa zdarzeń. To jest zrozumiałe. Komunikat ma wartość i niesie informację tylko wtedy, gdy dowiadujemy się z niego o wyniku zdarzenia o charakterze losowym, gdy jest ono w pewnym stopniu nieoczekiwane. Przecież wiadomość o tym, co już wiadomo, nie zawiera żadnych informacji. Te. Jeśli na przykład ktoś do Ciebie zadzwoni i powie: „W dzień jest jasno, w nocy ciemno”, to taka wiadomość zaskoczy Cię jedynie absurdem stwierdzenia czegoś oczywistego i znanego wszystkim, a nie zawarte w nim wiadomości. Inną rzeczą jest na przykład wynik wyścigu. Kto przyjdzie pierwszy? Wynik tutaj jest trudny do przewidzenia.Im bardziej losowe skutki ma interesujące nas zdarzenie, tym cenniejszy jest przekaz o jego wyniku, tym więcej informacji. Komunikat o zdarzeniu, które ma tylko dwa równie możliwe wyniki, zawiera pojedynczą jednostkę informacji zwaną bitem. Wybór jednostki informacyjnej nie jest przypadkowy. Jest to związane z najpopularniejszym binarnym sposobem kodowania go podczas transmisji i przetwarzania. Spróbujmy, przynajmniej w najbardziej uproszczonej formie, wyobrazić sobie ogólną zasadę ilościowej oceny informacji, która jest kamieniem węgielnym wszelkiej teorii informacji.


Wiemy już, że ilość informacji zależy od prawdopodobieństwa określonych wyników zdarzenia. Jeśli zdarzenie, jak mówią naukowcy, ma dwa równie prawdopodobne wyniki, oznacza to, że prawdopodobieństwo każdego wyniku wynosi 1/2. Jest to prawdopodobieństwo wyrzucenia orła lub reszki podczas rzucania monetą. Jeśli zdarzenie ma trzy równie prawdopodobne wyniki, prawdopodobieństwo każdego z nich wynosi 1/3. Należy pamiętać, że suma prawdopodobieństw wszystkich wyników jest zawsze równa jeden: w końcu jeden ze wszystkich możliwych wyników na pewno wystąpi. Zdarzenie, jak sam rozumiesz, może mieć nierówno prawdopodobne wyniki. Zatem w meczu piłkarskim pomiędzy silną i słabą drużyną prawdopodobieństwo wygranej mocnej drużyny jest wysokie – na przykład 4/5. Prawdopodobieństwo remisu jest znacznie niższe, na przykład 3/20. Prawdopodobieństwo porażki jest bardzo małe.


Okazuje się, że ilość informacji jest miarą zmniejszania niepewności danej sytuacji. Kanałami komunikacyjnymi przesyłane są różne ilości informacji, a ilość informacji przechodzących przez ten kanał nie może być większa niż jego pojemność. Zależy to od tego, ile informacji przepływa tutaj w jednostce czasu. Jeden z bohaterów powieści Juliusza Verne’a Tajemnicza wyspa, dziennikarz Gideon Spillett, przekazał telefonicznie rozdział Biblii, aby jego konkurenci nie mogli korzystać z łącza telefonicznego. W tym przypadku kanał był w pełni załadowany, a ilość informacji była równa zeru, ponieważ znane mu informacje zostały przesłane do abonenta. Oznacza to, że kanał pracował na biegu jałowym, przepuszczając ściśle określoną liczbę impulsów, nie obciążając ich niczym. Tymczasem im więcej informacji niesie każdy z określonej liczby impulsów, tym pełniej wykorzystywana jest pojemność kanału. Trzeba więc mądrze kodować informacje, znaleźć oszczędny, oszczędny język do przekazywania komunikatów.


Informacje są „przesiewane” w najdokładniejszy sposób. W telegrafie często występujące litery, kombinacje liter, a nawet całe frazy są reprezentowane przez krótszy zestaw zer i jedynek, a te, które występują rzadziej, są reprezentowane przez dłuższy zestaw. W przypadku, gdy długość słowa kodowego jest zmniejszana dla symboli często występujących, a zwiększana dla rzadko występujących, mówi się o skutecznym kodowaniu informacji. Jednak w praktyce często zdarza się, że kod, który powstał w wyniku najdokładniejszego „przesiewania”, kod jest wygodny i ekonomiczny, może zniekształcić przekaz na skutek zakłóceń, co niestety zawsze ma miejsce w kanałach komunikacji: dźwięk zniekształcenia w telefonie, zakłócenia atmosferyczne w radiu, zniekształcenie lub przyciemnienie obrazu w telewizji, błędy transmisji w telegrafie. Ta ingerencja, lub jak to nazywają eksperci, szum, atakuje informację. A to skutkuje najbardziej niesamowitymi i oczywiście nieprzyjemnymi niespodziankami.


Dlatego, aby zwiększyć niezawodność transmisji i przetwarzania informacji, konieczne jest wprowadzenie dodatkowych znaków - swego rodzaju zabezpieczenie przed zniekształceniami. One – te dodatkowe symbole – nie niosą ze sobą faktycznej treści przekazu, są zbędne. Z punktu widzenia teorii informacji wszystko, co czyni język kolorowym, elastycznym, bogatym w odcienie, wieloaspektowym, wielowartościowym, to redundancja. Jakże zbędny jest z tego punktu widzenia list Tatiany do Oniegina! Ileż w nim nadmiaru informacji w krótkim i zrozumiałym przekazie „Kocham Cię”! I jak dokładne informacyjnie są ręcznie rysowane znaki, zrozumiałe dla każdego, kto dziś wchodzi do metra, gdzie zamiast słów i zwrotów ogłoszeń widnieją lakoniczne symboliczne znaki wskazujące: „Wejście”, „Wyjście”.


W tym kontekście warto przypomnieć anegdotę opowiedzianą kiedyś przez słynnego amerykańskiego naukowca Benjamina Franklina o twórcy kapeluszy, który zaprosił swoich przyjaciół do omówienia projektu znaku, który miał narysować na znaku kapelusz i napisać: „John Thompson , kapelusznik, produkuje i sprzedaje kapelusze za gotówkę.”. Jeden ze znajomych zauważył, że słowa „za gotówkę” są niepotrzebne – takie przypomnienie byłoby obraźliwe dla kupującego. Znaleziono także inny zbędne słowo„sprzedaje”, bo przecież kapelusznik sprzedaje kapelusze i nie rozdaje ich za darmo. Trzeci uważał, że słowa „kapelusznik” i „robi kapelusze” są niepotrzebną tautologią i te ostatnie słowa zostały wyrzucone. Czwarty sugerował, że słowo „kapelusznik” również należy wyrzucić – pomalowany kapelusz wyraźnie mówi, kim jest John Thompson. Wreszcie piąty upierał się, że dla kupującego nie ma absolutnie żadnej różnicy, czy kapelusznik nazywa się John Thompson, czy jakoś inaczej, i zasugerował, aby zrezygnować z tego oznaczenia, tak że ostatecznie na znaku nie pozostało nic poza kapeluszem. Oczywiście, gdyby ludzie używali tylko tego rodzaju kodów, bez zbędnych przekazów, wówczas wszelkie „formularze informacyjne” – książki, raporty, artykuły – byłyby niezwykle krótkie. Ale straciliby na przejrzystości i pięknie.

Informacje można podzielić na typy według różnych kryteriów: wprawdzie: prawda i fałsz;

w drodze percepcji:

Wizualny - postrzegany przez narządy wzroku;

Słuchowe - odbierane przez narządy słuchu;

Dotykowy - postrzegany przez receptory dotykowe;

Węchowy - odbierany przez receptory węchowe;

Smakowe - odbierane przez kubki smakowe.


według formularza prezentacji:

Tekst – przekazywany w postaci symboli mających oznaczać leksemy języka;

Numeryczne - w postaci liczb i znaków wskazujących działania matematyczne;

Grafika – w formie obrazów, obiektów, wykresów;

Dźwięk - ustne lub nagrane przekazywanie leksemów językowych za pomocą środków słuchowych.


według celu:

Msza – zawiera trywialne informacje i operuje zestawem pojęć zrozumiałych dla większości społeczeństwa;

Specjalny - zawiera określony zestaw pojęć; w przypadku użycia przekazywane są informacje, które mogą nie być zrozumiałe dla większości społeczeństwa, ale są konieczne i zrozumiałe w wąskich ramach Grupa społeczna gdzie te informacje są wykorzystywane;

Sekretne – przekazywane wąskiemu kręgowi osób i zamkniętymi (chronionymi) kanałami;

Osobisty (prywatny) - zbiór informacji o osobie, określający status społeczny i rodzaje interakcji społecznych w populacji.


według wartości:

Istotne – informacje, które są wartościowe w danym momencie;

Rzetelne – informacja uzyskana bez zniekształceń;

Zrozumiały – informacja wyrażona językiem zrozumiałym dla osób, dla których jest przeznaczona;

Kompletny – informacje wystarczające do podjęcia właściwej decyzji lub zrozumienia;

Przydatne – o przydatności informacji decyduje podmiot, który ją otrzymał, w zależności od zakresu możliwości jej wykorzystania.


Wartość informacji w różnych dziedzinach wiedzy

Obecnie w teorii informacji opracowywanych jest wiele systemów, metod, podejść i pomysłów. Naukowcy uważają jednak, że do współczesnych kierunków teorii informacji dołączą się nowe i pojawią się nowe idee. Jako dowód słuszności swoich założeń przytaczają „żywy”, rozwijający się charakter nauki, wskazując, że teoria informacji zaskakująco szybko i stanowczo zostaje wprowadzona w najróżniejsze obszary ludzkiej wiedzy. Teoria informacji przeniknęła do fizyki, chemii, biologii, medycyny, filozofii, językoznawstwa, pedagogiki, ekonomii, logiki, nauk technicznych i estetyki. Zdaniem samych ekspertów doktryna informacji, która powstała na potrzeby teorii komunikacji i cybernetyki, przekroczyła ich granice. A teraz być może mamy prawo mówić o informacji jako o koncepcji naukowej, która oddaje w ręce badaczy teoretyczno-informacyjną metodę, za pomocą której można przeniknąć do wielu nauk o przyrodzie żywej i nieożywionej, o społeczeństwie, które nie tylko pozwoli Ci przyjrzeć się wszystkim problemom nowa strona, ale także zobaczyć to, czego jeszcze nie było widać. Dlatego też termin „informacja” stał się w naszych czasach powszechny, wchodząc w skład takich pojęć, jak system informacyjny, kultura informacyjna, a nawet etyka informacyjna.


Wiele dyscyplin naukowych wykorzystuje teorię informacji do uwypuklenia nowych kierunków w starych naukach. W ten sposób powstała na przykład geografia informacji, ekonomia informacji i prawo informacyjne. Jednak termin „informacja” nabrał niezwykle dużego znaczenia w związku z rozwojem najnowszej technologii komputerowej, automatyzacją pracy umysłowej, rozwojem nowych środków komunikacji i przetwarzania informacji, a zwłaszcza wraz z pojawieniem się informatyki. Jednym z najważniejszych zadań teorii informacji jest badanie natury i właściwości informacji, tworzenie metod jej przetwarzania, w szczególności przekształcanie szerokiej gamy współczesnych informacji na programy komputerowe, za pomocą których automatyzacja następuje praca umysłowa - swego rodzaju wzmocnienie inteligencji, a co za tym idzie rozwój zasobów intelektualnych społeczeństwa.


Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kierunku informatyka, jednak nie da się go zdefiniować innymi, bardziej „prostszymi” pojęciami. Pojęcie „informacja” jest stosowane w różnych naukach, a w każdej nauce pojęcie „informacji” informacja” wiąże się z różnymi systemami pojęć. Informacja w biologii: Biologia bada przyrodę żywą, a pojęcie „informacji” wiąże się z właściwym zachowaniem organizmów żywych. W organizmach żywych informacja jest przekazywana i przechowywana za pomocą obiektów o różnej naturze fizycznej (stan DNA), które są uważane za znaki alfabetów biologicznych. Informacja genetyczna jest dziedziczona i przechowywana we wszystkich komórkach organizmów żywych. Podejście filozoficzne: Informacja to interakcja, refleksja, poznanie. Podejście cybernetyczne: Informacja to charakterystyka sygnału sterującego przesyłanego linią komunikacyjną.

Rola informacji w filozofii

We wczesnych definicjach informacji jako kategorii, pojęcia, właściwości świata materialnego stale dominował tradycjonalizm subiektywizmu. Informacja istnieje poza naszą świadomością i może znaleźć odzwierciedlenie w naszej percepcji jedynie w wyniku interakcji: refleksji, odczytania, odbioru w postaci sygnału, bodźca. Informacja nie jest materialna, jak wszystkie właściwości materii. Informacja jest uporządkowana w następujący sposób: materia, przestrzeń, czas, systematyczność, funkcja itp., które są podstawowymi pojęciami sformalizowanego odzwierciedlenia obiektywnej rzeczywistości w jej rozmieszczeniu i zmienności, różnorodności i przejawach. Informacja jest właściwością materii i odzwierciedla jej właściwości (stan lub zdolność do interakcji) oraz ilość (miarę) poprzez interakcję.


Z materialnego punktu widzenia informacja jest porządkiem obiektów w świecie materialnym. Na przykład kolejność liter na kartce papieru według określonych zasad jest informacją pisemną. Kolejność pojawiania się wielobarwnych kropek na kartce papieru według określonych zasad jest taka informacje graficzne. Kolejność nut jest informacją muzyczną. Kolejność genów w DNA jest informacją dziedziczną. Kolejność bitów w komputerze to informacja komputerowa itp. i tak dalej. Aby przeprowadzić wymianę informacji, wymagana jest obecność warunków niezbędnych i wystarczających.

Niezbędne warunki:

Obecność co najmniej dwóch różnych obiektów świata materialnego lub niematerialnego;

Obecność wspólnej właściwości obiektów, która pozwala na ich identyfikację jako nośnika informacji;

Obecność określonej właściwości obiektów, która pozwala im odróżnić obiekty od siebie;

Obecność właściwości przestrzeni, która pozwala określić kolejność obiektów. Na przykład układ informacji pisanych na papierze jest specyficzną właściwością papieru, która umożliwia układanie liter od lewej do prawej i od góry do dołu.


Stan wystarczający jedno: obecność podmiotu zdolnego do rozpoznawania informacji. To człowiek i społeczeństwo ludzkie, społeczeństwa zwierząt, robotów itp. Przekaz informacyjny konstruowany jest poprzez wybranie z bazy kopii obiektów i ułożenie tych obiektów w przestrzeni w określonej kolejności. Długość komunikatu informacyjnego jest definiowana jako liczba kopii obiektów bazowych i zawsze wyrażana jest jako liczba całkowita. Należy rozróżnić długość przekazu informacyjnego, mierzoną zawsze liczbą całkowitą, od ilości wiedzy zawartej w przekazie informacyjnym, mierzonej w nieznanej jednostce miary. Z matematycznego punktu widzenia informacja to ciąg liczb całkowitych zapisanych w wektorze. Liczby są numerami obiektów w bazie informacyjnej. Wektor nazywany jest niezmiennikiem informacyjnym, ponieważ nie zależy od fizycznej natury obiektów bazowych. Ten sam przekaz informacyjny może być wyrażony w literach, słowach, zdaniach, plikach, obrazach, notatkach, piosenkach, klipach wideo lub dowolnej kombinacji wszystkich powyższych.

Rola informacji w fizyce

Informacja to informacja o otaczającym ją świecie (obiekcie, procesie, zjawisku, zdarzeniu), która jest przedmiotem transformacji (w tym przechowywania, transmisji itp.) i służy kształtowaniu zachowań, podejmowaniu decyzji, zarządzaniu czy uczeniu się.


Charakterystycznymi cechami informacji są:

To jest najważniejsze źródło nowoczesna produkcja: zmniejsza zapotrzebowanie na ziemię, pracę, kapitał, zmniejsza zużycie surowców i energii. Jeśli więc np. masz możliwość archiwizacji plików (tj. posiadasz takie informacje), nie musisz wydawać pieniędzy na zakup nowych dyskietek;

Informacje ożywiają nowe produkcje. Przykładowo wynalezienie wiązki laserowej było przyczyną powstania i rozwoju produkcji dysków laserowych (optycznych);

Informacja jest towarem i sprzedawca informacji nie traci jej po sprzedaży. Jeśli więc student w trakcie semestru przekaże koledze informację o planie zajęć, nie straci tych danych dla siebie;

Informacje dodają wartość innym zasobom, w szczególności pracy. Rzeczywiście, pracownik z wyższym wykształceniem jest ceniony bardziej niż ten z wykształceniem średnim.


Jak wynika z definicji, z informacją zawsze kojarzone są trzy pojęcia:

Źródłem informacji jest ten element otaczającego świata (obiekt, proces, zjawisko, zdarzenie), o którym informacja jest przedmiotem transformacji. Zatem źródło informacji jakie otrzymuje czytelnik w tej chwili pomoc nauczania, to informatyka jako dziedzina działalności człowieka;

Konsument informacji to ten element otaczającego świata, który wykorzystuje informacje (do kształtowania zachowań, podejmowania decyzji, zarządzania lub uczenia się). Konsument ta informacja– sam czytelnik;

Sygnał to materialny nośnik, który rejestruje informację w celu przekazania jej ze źródła do konsumenta. W tym przypadku sygnał ma charakter elektroniczny. Jeżeli uczeń zabierze ten podręcznik z biblioteki, wówczas te same informacje będą zapisane na papierze. Po przeczytaniu i zapamiętaniu przez ucznia informacja nabierze innego nośnika – biologicznego, gdy zostanie „zapisana” w pamięci ucznia.


Sygnał jest najważniejszy element na tym schemacie. Formy jej prezentacji oraz istotne dla odbiorcy informacji cechy ilościowe i jakościowe zawartych w niej informacji omówiono w dalszej części podręcznika. Główne cechy komputera jako głównego narzędzia przekształcającego źródło informacji w sygnał (link 1 na rysunku) i „dostarczającego” sygnał do konsumenta informacji (link 2 na rysunku) podano w części Komputer . Struktura procedur realizujących połączenia 1 i 2 tworzących proces informacyjny jest przedmiotem rozważań w części Proces informacyjny.

Obiekty świata materialnego znajdują się w stanie ciągłej zmiany, która charakteryzuje się wymianą energii pomiędzy obiektem a otoczeniem. Zmiana stanu jednego obiektu zawsze prowadzi do zmiany stanu innego obiektu środowiska. Zjawisko to, niezależnie od tego jak, jakie stany i jakie obiekty uległy zmianie, można uznać za transmisję sygnału z jednego obiektu na drugi. Zmiana stanu obiektu po przesłaniu do niego sygnału nazywana jest rejestracją sygnału.


Sygnał lub sekwencja sygnałów tworzy komunikat, który odbiorca może odebrać w takiej czy innej formie, a także w takiej czy innej objętości. Informacja w fizyce to termin, który jakościowo uogólnia pojęcia „sygnał” i „wiadomość”. Jeśli sygnały i komunikaty można określić ilościowo, wówczas możemy powiedzieć, że sygnały i komunikaty są jednostkami miary objętości informacji. Wiadomość (sygnał) różne systemy interpretowane na swój sposób. Na przykład kolejno długie i dwa krótkie sygnały dźwiękowe w terminologii alfabetu Morse'a jest to litera de (lub D), w terminologii BIOS-u z AWARD jest to awaria karty graficznej.

Rola informacji w matematyce

W matematyce teoria informacji (teoria komunikacji matematycznej) jest działem matematyki stosowanej, który definiuje pojęcie informacji, jej właściwości oraz ustanawia zależności ograniczające dla systemów transmisji danych. Główne gałęzie teorii informacji to kodowanie źródłowe (kodowanie kompresyjne) i kodowanie kanałowe (odporne na szumy). Matematyka to coś więcej niż dyscyplina naukowa. Tworzy jednolity język dla całej nauki.


Przedmiotem badań matematyki są obiekty abstrakcyjne: liczba, funkcja, wektor, zbiór i inne. Co więcej, większość z nich jest wprowadzana aksjomatycznie (aksjomat), tj. bez żadnego związku z innymi pojęciami i bez jakiejkolwiek definicji.

Informacja nie jest częścią nauki matematyki. Jednakże słowo „informacja” używane jest w kategoriach matematycznych – samoinformacji i informacji wzajemnej, związanych z abstrakcyjną (matematyczną) częścią teorii informacji. Jednak w teorii matematycznej pojęcie „informacji” kojarzy się wyłącznie z obiektami abstrakcyjnymi – zmiennymi losowymi, natomiast we współczesnej teorii informacji pojęcie to jest rozpatrywane znacznie szerzej – jako właściwość obiektów materialnych. Związek między tymi dwoma identycznymi terminami jest niezaprzeczalny. To właśnie matematycznego aparatu liczb losowych używał twórca teorii informacji, Claude Shannon. On sam pod pojęciem „informacji” rozumie coś fundamentalnego (nieredukowalnego). Teoria Shannona intuicyjnie zakłada, że ​​informacja ma treść. Informacja zmniejsza ogólną niepewność i entropię informacji. Ilość informacji jest mierzalna. Przestrzega jednak badaczy przed mechanicznym przenoszeniem pojęć ze swojej teorii do innych dziedzin nauki.


„Poszukiwanie sposobów zastosowania teorii informacji w innych dziedzinach nauki nie sprowadza się do trywialnego przenoszenia terminów z jednej dziedziny nauki do drugiej. Poszukiwanie to odbywa się w długim procesie stawiania nowych hipotez i ich eksperymentalnego sprawdzania .” K. Shannona.

Rola informacji w cybernetyce

Założyciel cybernetyki, Norbert Wiener, mówił o takich informacjach:

Informacja nie jest materią ani energią, informacja jest informacją.” Jednak podstawowa definicja informacji, którą podał w kilku swoich książkach, jest następująca: informacja to określenie treści otrzymywanej przez nas ze świata zewnętrznego, w procesie dostosowując nas i nasze uczucia.

Informacja jest podstawowym pojęciem cybernetyki, podobnie jak informacja ekonomiczna jest podstawowym pojęciem cybernetyki ekonomicznej.


Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem jest oczywiście to, że cybernetyką jako zjawiskiem zajmują się różne nauki, a cybernetyka jest dopiero najmłodszą z nich. Informacja jest przedmiotem badań takich nauk, jak nauki o zarządzaniu, statystyka matematyczna, genetyka, teoria środków masowego przekazu (prasa, radio, telewizja), informatyka, która zajmuje się problematyką informacji naukowo-technicznej itp. Wreszcie w ostatnimi czasy filozofowie wykazują duże zainteresowanie problematyką energii: skłonni są uważać energię za jedną z głównych uniwersalnych właściwości materii, kojarzoną z koncepcją odbicia. Przy wszystkich interpretacjach pojęcia informacji zakłada ono istnienie dwóch obiektów: źródła informacji i konsumenta (odbiorcy) informacji.Przekazywanie informacji między sobą odbywa się za pomocą sygnałów, które, najogólniej mówiąc, może nie mieć żadnego połączenie fizyczne z jego znaczeniem: połączenie to ustala się w drodze umowy. Przykładowo, bicie dzwonu veche oznaczało, że trzeba było zebrać się na placu, lecz tym, którzy nie wiedzieli o tym nakazie, nie przekazywał żadnych informacji.


W sytuacji z dzwonkiem veche osoba uczestnicząca w uzgadnianiu znaczenia sygnału wie, że w tej chwili mogą być dwie alternatywy: spotkanie veche się odbędzie lub nie. Lub, w języku teorii informacji, niepewne wydarzenie (veche) ma dwa skutki. Otrzymany sygnał prowadzi do zmniejszenia niepewności: osoba wie już, że dane wydarzenie (wieczór) ma tylko jeden wynik – nastąpi. Jeżeli jednak z góry było wiadomo, że spotkanie odbędzie się o takiej a takiej godzinie, dzwonek nie zapowiadał niczego nowego. Wynika z tego, że im mniej prawdopodobny (tj. bardziej nieoczekiwany) jest komunikat, tym więcej zawiera informacji i odwrotnie, im większe prawdopodobieństwo wyniku przed wystąpieniem zdarzenia, tym mniej informacji zawiera. Mniej więcej to samo rozumowanie przeprowadzono w latach 40. XX wieku. XX wiek do powstania statystycznej, czyli „klasycznej” teorii informacji, która definiuje pojęcie informacji poprzez miarę zmniejszania niepewności wiedzy o wystąpieniu zdarzenia (miarę tę nazwano entropią). Początkami tej nauki byli N. Wiener, K. Shannon i radzieccy naukowcy A. N. Kołmogorow, V. A. Kotelnikow i inni. Potrafili wyprowadzić matematyczne prawa pomiaru ilości informacji, a stąd takie pojęcia, jak pojemność kanału i., pojemność pamięci I. urządzeń itp., co stanowiło potężną zachętę do rozwoju cybernetyki jako nauki i technologii obliczeń elektronicznych jako praktyczne zastosowanie osiągnięcia cybernetyki.


Jeśli chodzi o określenie wartości i przydatności informacji dla odbiorcy, nadal pozostaje wiele nierozwiązanych i niejasnych kwestii. W oparciu o potrzeby zarządzanie gospodarcze a zatem cybernetyki ekonomicznej, wówczas informację można zdefiniować jako całość informacji, wiedzy i komunikatów, które pomagają rozwiązać konkretny problem zarządzania (to znaczy zmniejszyć niepewność jego wyników). Otwierają się wówczas pewne możliwości oceny informacji: im bardziej jest ona użyteczna i cenna, tym szybciej lub mniejszym kosztem prowadzi do rozwiązania problemu. Pojęcie informacji jest bliskie pojęciu danych. Jest jednak między nimi różnica: dane to sygnały, z których należy jeszcze wydobyć informacje.Przetwarzanie danych to proces doprowadzenia ich do odpowiedniej do tego postaci.


Proces ich przekazywania od źródła do konsumenta i postrzegania jako informacji można uznać za przechodzący przez trzy filtry:

Fizyczne lub statystyczne (czysto ilościowe ograniczenie przepustowości kanału, niezależnie od zawartości danych, tj. z punktu widzenia syntaktyki);

Semantyczny (wybór takich danych, które są zrozumiałe dla odbiorcy, czyli odpowiadają tezaurusowi jego wiedzy);

Pragmatyczny (wybór spośród zrozumiałych informacji tych, które są przydatne do rozwiązania danego problemu).

Widać to wyraźnie na schemacie zaczerpniętym z książki E. G. Yasina o informacje gospodarcze. W związku z tym wyróżnia się trzy aspekty badania problemów językowych - syntaktyczny, semantyczny i pragmatyczny.


Ze względu na treść informacje dzielą się na społeczno-polityczne, społeczno-ekonomiczne (w tym ekonomiczne), naukowo-techniczne itp. Ogólnie rzecz biorąc, istnieje wiele klasyfikacji informacji, opierają się one na różnych podstawach. Z reguły, ze względu na bliskość pojęć, klasyfikacje danych konstruowane są w ten sam sposób. Na przykład informacja jest podzielona na statyczną (stała) i dynamiczną (zmienną), a dane są podzielone na stałe i zmienne. Kolejnym podziałem jest informacja pierwotna, pochodna, wyjściowa (w ten sam sposób klasyfikuje się także dane). Trzeci dział to I. kontrolowanie i informowanie. Po czwarte - zbędne, przydatne i fałszywe. Po piąte – pełne (ciągłe) i selektywne. Ta koncepcja Wienera daje bezpośrednie wskazanie na obiektywność informacji, tj. jego istnienie w przyrodzie jest niezależne od ludzkiej świadomości (percepcji).

Współczesna cybernetyka definiuje informację obiektywną jako obiektywną właściwość obiektów i zjawisk materialnych, która generuje różnorodne stany, które poprzez fundamentalne oddziaływania materii są przekazywane z jednego obiektu (procesu) na drugi i odciśnięte w jego strukturze. System materialny w cybernetyce jest uważany za zbiór obiektów, które same mogą znajdować się w różnych stanach, ale o stanie każdego z nich decydują stany innych obiektów układu.

W naturze wiele stanów systemu reprezentuje informację; same stany reprezentują kod pierwotny, czyli kod źródłowy. Zatem każdy system materialny jest źródłem informacji. Cybernetyka definiuje informację subiektywną (semantyczną) jako znaczenie lub treść komunikatu.

Rola informacji w informatyce

Przedmiotem nauki są dane: sposoby ich tworzenia, przechowywania, przetwarzania i przesyłania. Treść (też: „wypełnienie” (w kontekście), „zawartość witryny”) to termin oznaczający wszelkiego rodzaju informacje (zarówno tekstowe, jak i multimedialne - obrazy, audio, wideo), które składają się na treść (wizualizowaną, dla odwiedzającego, treść ) strony internetowej. Służy do oddzielenia pojęcia informacji tworzącej wewnętrzną strukturę strony/strony (kod) od tego, co ostatecznie zostanie wyświetlone na ekranie.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, wprowadzenie. Pojęcie „informacja” jest podstawowe na kursie informatyki, jednak nie da się go zdefiniować za pomocą innych, bardziej „prostych” pojęć.


Można wyróżnić następujące podejścia do ustalania informacji:

Tradycyjne (zwykłe) - stosowane w informatyce: Informacja to informacja, wiedza, komunikaty o stanie rzeczy, które człowiek odbiera ze świata zewnętrznego za pomocą zmysłów (wzrok, słuch, smak, węch, dotyk).

Probabilistyczna - stosowana w teorii informacji: Informacja to informacja o obiektach i zjawiskach otoczenia, ich parametrach, właściwościach i stanie, które zmniejszają stopień niepewności i niepełnej wiedzy na ich temat.


Informacje są przechowywane, przesyłane i przetwarzane w formie symbolicznej (znaku). Te same informacje można przedstawić w różnych formach:

Pismo migowe, składające się z różnych znaków, wśród których wyróżnia się znaki symboliczne w postaci tekstu, cyfr, znaków specjalnych. postacie; graficzny; tabelaryczne itp.;

W formie gestów lub sygnałów;

Ustna forma werbalna (rozmowa).


Informacje prezentowane są przy użyciu języków jako systemów znaków, które zbudowane są w oparciu o określony alfabet i posiadają zasady wykonywania operacji na znakach. Język jest specyficznym systemem znaków służącym do przedstawiania informacji. Istnieć:

Języki naturalne – języki mówione w formie ustnej i pisemnej. W niektórych przypadkach język mówiony można zastąpić językiem mimiki i gestów, językiem znaków specjalnych (na przykład znaków drogowych);

Języki formalne– języki specjalne dla różnych dziedzin ludzkiej działalności, które charakteryzują się ściśle ustalonym alfabetem, bardziej rygorystycznymi zasadami gramatyki i składni. To język muzyki (nuty), język matematyki (liczby, znaki matematyczne), systemy liczbowe, języki programowania itp. Podstawą każdego języka jest alfabet – zbiór symboli/znaków. Całkowita liczba symboli alfabetu nazywana jest zwykle potęgą alfabetu.


Media informacyjne to medium lub ciało fizyczne służące do przesyłania, przechowywania i odtwarzania informacji. (Są to sygnały elektryczne, świetlne, termiczne, dźwiękowe, radiowe, dyski magnetyczne i laserowe, publikacje drukowane, fotografie itp.)

Procesy informacyjne- są to procesy związane z otrzymywaniem, przechowywaniem, przetwarzaniem i przesyłaniem informacji (czyli czynności wykonywane z informacją). Te. Są to procesy, podczas których zmienia się treść informacji lub forma jej prezentacji.

Aby zapewnić proces informacyjny, potrzebne jest źródło informacji, kanał komunikacji i konsument informacji. Źródło przekazuje (wysyła) informację, a odbiorca ją odbiera (postrzega). Przesyłana informacja przemieszcza się od źródła do odbiorcy za pomocą sygnału (kodu). Zmiana sygnału umożliwia uzyskanie informacji.

Będąc przedmiotem transformacji i użytkowania, informacja charakteryzuje się następującymi właściwościami:

Składnia to właściwość określająca sposób prezentacji informacji na nośniku (w sygnale). Tym samym informacje te prezentowane są na nośnikach elektronicznych przy użyciu określonej czcionki. Tutaj możesz także wziąć pod uwagę takie parametry prezentacji informacji, jak styl i kolor czcionki, jej rozmiar, odstępy między wierszami itp. O wyborze niezbędnych parametrów jako właściwości składniowych decyduje oczywiście zamierzony sposób transformacji. Na przykład dla osoby słabo widzącej ważny jest rozmiar i kolor czcionki. Jeśli planujesz wprowadzić ten tekst do komputera za pomocą skanera, ważny jest rozmiar papieru;


Semantyka to właściwość określająca znaczenie informacji jako zgodność sygnału ze światem rzeczywistym. Zatem semantyka sygnału „informatyka” kryje się w podanej wcześniej definicji. Semantykę można uznać za pewną, znaną konsumentowi informacji, zgodę na to, co oznacza każdy sygnał (tzw. reguła interpretacji). Na przykład semantykę sygnałów bada początkujący kierowca, który studiuje zasady ruch drogowy, nauka znaków drogowych (w tym przypadku same znaki są sygnałami). Semantyki słów (sygnałów) uczy się uczeń języka obcego. Można powiedzieć, że celem nauczania informatyki jest studiowanie semantyki różne sygnały– istotę kluczowych pojęć tej dyscypliny;


Pragmatyka to właściwość określająca wpływ informacji na zachowania konsumentów. Zatem pragmatyką informacji, jakie otrzymuje czytelnik tego podręcznika, jest co najmniej pomyślne zdanie egzaminu z informatyki. Chciałbym wierzyć, że pragmatyka tej pracy nie będzie się na tym ograniczać, ale posłuży do dalszego szkolenia i działalność zawodowa czytelnik.

Należy zauważyć, że sygnały różniące się składnią mogą mieć tę samą semantykę. Na przykład sygnały „komputer” i „komputer” oznaczają urządzenie elektroniczne do przekształcania informacji. W tym przypadku zwykle mówimy o synonimii sygnału. Z drugiej strony, jeden sygnał (czyli informacja o jednej właściwości syntaktycznej) może mieć dla konsumentów inną pragmatykę i inną semantykę. Zatem znak drogowy zwany „cegłą” i posiadający bardzo specyficzną semantykę („zakaz wjazdu”) oznacza dla kierowcy zakaz wjazdu, ale nie ma żadnego wpływu na pieszego. Jednocześnie sygnał „klucz” może mieć różną semantykę: klucz wiolinowy, klucz sprężynowy, klucz do otwierania zamka, klucz stosowany w informatyce do kodowania sygnału w celu zabezpieczenia go przed nieupoważnionym dostępem (w w tym przypadku mowa o homonimii sygnału). Istnieją sygnały - antonimy, które mają przeciwną semantykę. Na przykład „zimno” i „gorąco”, „szybko” i „wolno” itp.


Przedmiotem badań nauk informatycznych są dane: metody ich tworzenia, przechowywania, przetwarzania i przesyłania. A sama informacja zapisana w danych, jej znaczenie, interesuje użytkowników systemów informatycznych, specjalistów z różnych nauk i dziedzin działalności: lekarz interesuje się informacją medyczną, geolog informacją geologiczną, przedsiębiorca interesuje się informacjami handlowymi itp. (W szczególności informatyk jest zainteresowany informacjami na temat pracy z danymi).

Semiotyka - nauka o informacji

Nie można sobie wyobrazić informacji bez jej otrzymania, przetworzenia, przekazania itp., czyli poza ramami wymiany informacji. Wszelkie akty wymiany informacji odbywają się za pomocą symboli lub znaków, za pomocą których jeden system wpływa na drugi. Dlatego główną nauką badającą informację jest semiotyka - nauka o znakach i systemach znaków w przyrodzie i społeczeństwie (teoria znaków). W każdym akcie wymiany informacji można wyróżnić trzech „uczestników”, trzy elementy: znak, przedmiot, który on oznacza, oraz odbiorca (użytkownik) znaku.


W zależności od relacji pomiędzy rozważanymi elementami semiotykę dzieli się na trzy działy: syntaktykę, semantykę i pragmatykę. Syntaktyka bada znaki i relacje między nimi. Jednocześnie abstrahuje od treści znaku i jego praktycznego znaczenia dla odbiorcy. Semantyka bada relację między znakami a przedmiotami, które one oznaczają, abstrahując od odbiorcy znaków i wartości tego ostatniego: dla niego. Oczywiste jest, że badanie wzorców semantycznej reprezentacji obiektów w znakach jest niemożliwe bez uwzględnienia i wykorzystania ogólnych wzorców konstrukcji dowolnych systemów znakowych badanych przez syntaktykę. Pragmatyka zajmuje się badaniem relacji między znakami a ich użytkownikami. W ramach pragmatyki badane są wszystkie czynniki odróżniające jeden akt wymiany informacji od drugiego, wszelkie kwestie praktycznych skutków wykorzystania informacji i jej wartości dla odbiorcy.


W tym przypadku nieuchronnie wpływa to na wiele aspektów relacji znaków ze sobą i z oznaczanymi przez nie przedmiotami. Zatem trzem działam semiotyki odpowiadają trzy poziomy abstrakcji (odwrócenia uwagi) od cech konkretnych aktów wymiany informacji. Badanie informacji w całej jej różnorodności odpowiada poziomowi pragmatycznemu. Odwracając uwagę odbiorcy informacji, wykluczając go z rozważań, przechodzimy do jej badania na poziomie semantycznym. Wraz z abstrakcją od treści znaków analiza informacji zostaje przeniesiona na poziom syntaktyki. To przenikanie się głównych działów semiotyki, związanych z różne poziomy abstrakcję, można przedstawić za pomocą diagramu „Trzy sekcje semiotyki i ich związek”. Pomiar informacji odbywa się odpowiednio w trzech aspektach: syntaktycznym, semantycznym i pragmatycznym. Zapotrzebowanie na tak różne wymiary informacji, jak zostanie pokazane poniżej, podyktowane jest praktyką projektowania i organizacji pracy systemów informatycznych. Rozważmy typową sytuację produkcyjną.


Pod koniec zmiany planista budowy przygotowuje dane dotyczące harmonogramu produkcji. Dane te trafiają do centrum informacyjno-obliczeniowego (ICC) przedsiębiorstwa, gdzie są przetwarzane i w formie raportów o bieżącym stanie produkcji wydawane menadżerom. Na podstawie otrzymanych danych kierownik warsztatu podejmuje decyzję o zmianie planu produkcji na kolejny okres planistyczny lub o podjęciu innych działań organizacyjnych. Oczywiście dla kierownika sklepu ilość informacji zawartych w podsumowaniu zależy od wielkości efektu ekonomicznego, jaki uzyska z ich wykorzystania w procesie decyzyjnym, od tego, jak przydatne były otrzymane informacje. Dla planisty serwisu o ilości informacji zawartych w tej samej wiadomości decyduje trafność jej zgodności ze stanem faktycznym na obiekcie oraz stopień zaskoczenia raportowanymi faktami. Im bardziej są one nieoczekiwane, tym szybciej należy je zgłosić kierownictwu, tym więcej informacji zawiera ta wiadomość. Dla pracowników ICC ilość znaków i długość komunikatu niosącego informację będzie miała ogromne znaczenie, gdyż to właśnie od niej zależy czas ładowania sprzętu komputerowego i kanałów komunikacyjnych. Jednocześnie praktycznie nie interesuje ich ani użyteczność informacji, ani ilościowy miernik wartości semantycznej informacji.


Naturalnie organizując system zarządzania produkcją i budując modele wyboru decyzji, będziemy wykorzystywać użyteczność informacji jako miarę informatywności komunikatów. Budując system księgowo-raportowy zapewniający zarządzanie danymi o postępie procesu produkcyjnego, jako miarę ilości informacji należy przyjąć nowość otrzymanych informacji. Organizacja procedur mechanicznego przetwarzania informacji wymaga pomiaru objętości komunikatów w postaci liczby przetworzonych znaków. Te trzy zasadniczo różne podejścia do pomiaru informacji nie są sprzeczne ani wzajemnie się wykluczają. Wręcz przeciwnie, mierząc informacje w różnych skalach, pozwalają na pełniejszą i kompleksową ocenę zawartości informacyjnej każdego przekazu oraz efektywniej organizują system zarządzania produkcją. Według trafnego określenia prof. NIE. Kobryńskiego, jeśli chodzi o racjonalną organizację przepływu informacji, ilość, nowość i użyteczność informacji są ze sobą powiązane tak samo, jak ilość, jakość i koszt wytwarzanych produktów.

Informacje w świecie materialnym

Informacja jest jednym z ogólnych pojęć związanych z materią. Informacja istnieje w każdym obiekcie materialnym w postaci różnorodnych jego stanów i jest przenoszona z obiektu na obiekt w procesie ich interakcji. Istnienie informacji jako obiektywnej właściwości materii wynika logicznie ze znanych podstawowych właściwości materii – budowy, ciągłej zmiany (ruchu) i wzajemnego oddziaływania obiektów materialnych.


Struktura materii objawia się wewnętrznym rozczłonkowaniem integralności, naturalnym porządkiem łączenia elementów w całość. Innymi słowy, każdy obiekt materialny, począwszy od subatomowej cząstki Metawszechświata (Wielkiego Wybuchu) jako całości, jest systemem wzajemnie połączonych podsystemów. W wyniku ciągłego ruchu, rozumianego szeroko jako ruch w przestrzeni i rozwój w czasie, obiekty materialne zmieniają swój stan. Stany obiektów zmieniają się także podczas interakcji z innymi obiektami. Zbiór stanów systemu materialnego i wszystkich jego podsystemów reprezentuje informację o systemie.


Ściśle mówiąc, ze względu na niepewność, nieskończoność i właściwości struktury, ilość obiektywnej informacji w każdym obiekcie materialnym jest nieskończona. Informacje te nazywane są kompletnymi. Można jednak wyróżnić poziomy strukturalne o skończonych zbiorach stanów. Informacje istniejące na poziomie strukturalnym skończoną liczbą stany nazywane są prywatnymi. W przypadku informacji prywatnych koncepcja ilości informacji ma sens.

Z powyższej prezentacji logiczny i prosty jest wybór jednostki miary ilości informacji. Wyobraźmy sobie układ, który może znajdować się tylko w dwóch stanach jednakowo prawdopodobnych. Jednemu z nich przypiszemy kod „1”, a drugiemu „0”. Jest to minimalna ilość informacji, jaką może pomieścić system. Jest to jednostka miary informacji i nazywa się bitem. Istnieją inne, trudniejsze do zdefiniowania metody i jednostki pomiaru ilości informacji.


W zależności od materialnej formy nośnika, informacje dzielą się na dwa główne typy – analogowe i dyskretne. Informacje analogowe zmieniają się w sposób ciągły w czasie i pobierają wartości z kontinuum wartości. Informacje dyskretne zmieniają się w niektórych momentach i przyjmują wartości z określonego zestawu wartości. Podstawowym źródłem informacji jest każdy materialny obiekt lub proces. Wszystkie jego możliwe stany składają się na kod źródłowy informacji. Wartość chwilowa stany są reprezentowane jako symbol („litera”) tego kodu. Aby informacja mogła zostać przesłana z jednego obiektu do drugiego jako odbiorcy, konieczne jest istnienie jakiegoś pośredniego ośrodka materialnego, który oddziałuje ze źródłem. Takie nośniki w przyrodzie z reguły szybko rozprzestrzeniają się procesy struktury falowej - promieniowanie kosmiczne, gamma i rentgenowskie, fale elektromagnetyczne i dźwiękowe, potencjały (i być może jeszcze nie odkryte fale) pola grawitacyjnego. Kiedy promieniowanie elektromagnetyczne oddziałuje z obiektem w wyniku absorpcji lub odbicia, zmienia się jego widmo, tj. zmieniają się intensywności niektórych długości fal. Harmoniczne drgań dźwięku zmieniają się także podczas interakcji z obiektami. Informacja przekazywana jest również poprzez interakcję mechaniczną, jednak interakcja mechaniczna z reguły prowadzi do dużych zmian w strukturze obiektów (aż do ich zniszczenia), a informacja jest znacznie zniekształcona. Zniekształcenie informacji podczas jej transmisji nazywa się dezinformacją.


Przeniesienie informacji źródłowej na strukturę nośnika nazywa się kodowaniem. W tym przypadku kod źródłowy jest konwertowany na kod nośnika. Nośnik, do którego przesłano kod źródłowy w postaci kodu nośnego, nazywany jest sygnałem. Odbiornik sygnału ma swój własny zestaw możliwych stanów, który nazywany jest kodem odbiornika. Sygnał wchodząc w interakcję z obiektem odbiorczym zmienia swój stan. Proces konwersji kodu sygnału na kod odbiornika nazywany jest dekodowaniem.Przekazywanie informacji ze źródła do odbiornika można uznać za interakcję informacyjną. Interakcja informacyjna zasadniczo różni się od innych interakcji. We wszystkich innych interakcjach obiektów materialnych następuje wymiana materii i (lub) energii. W tym przypadku jeden z obiektów traci materię lub energię, a drugi ją zyskuje. Ta właściwość interakcji nazywa się symetrią. Podczas interakcji informacyjnej odbiorca otrzymuje informację, ale źródło jej nie traci. Interakcja informacji jest asymetryczna. Obiektywna informacja sama w sobie nie jest materialna, jest właściwością materii, taką jak struktura, ruch i istnieje na nośnikach materialnych w postaci własnych kodów.

Informacje w dzikiej przyrodzie

Dzika przyroda jest złożona i różnorodna. Źródłem i odbiorcą informacji w nim są żywe organizmy i ich komórki. Organizm ma szereg właściwości odróżniających go od nieożywionych obiektów materialnych.


Podstawowy:

Ciągła wymiana materii, energii i informacji z otoczeniem;

Drażliwość, zdolność organizmu do postrzegania i przetwarzania informacji o zmianach w otoczeniu i środowisku wewnętrznym organizmu;

Pobudliwość, zdolność reagowania na bodźce;

Samoorganizacja objawiająca się zmianami w organizmie w celu przystosowania się do warunków środowiskowych.


Organizm uważany za system ma struktura hierarchiczna. Struktura ta w stosunku do samego organizmu dzieli się na poziomy wewnętrzne: molekularny, komórkowy, narządowy i wreszcie sam organizm. Jednak organizm oddziałuje również ponad organizmami żywymi, których poziomami są populacja, ekosystem i cała żywa przyroda jako całość (biosfera). Pomiędzy wszystkimi tymi poziomami krążą nie tylko przepływy materii i energii, ale także informacji.Współpraca informacyjna w przyrodzie ożywionej przebiega w taki sam sposób, jak w przyrodzie nieożywionej. Jednocześnie żywa przyroda w procesie ewolucji stworzyła szeroką gamę źródeł, nośników i odbiorców informacji.


Reakcja na wpływy świata zewnętrznego objawia się we wszystkich organizmach, ponieważ jest spowodowana drażliwością. U organizmów wyższych przystosowanie się do środowiska zewnętrznego jest działaniem złożonym, skutecznym jedynie przy dostatecznie pełnej i aktualnej informacji o środowisku. Odbiorcami informacji ze środowiska zewnętrznego są ich narządy zmysłów, do których zalicza się wzrok, słuch, węch, smak, dotyk oraz narząd przedsionkowy. W wewnętrznej strukturze organizmów znajdują się liczne receptory wewnętrzne związane z układem nerwowym. Układ nerwowy składa się z neuronów, których procesy (aksony i dendryty) są analogiczne do kanałów przekazywania informacji. Głównymi narządami przechowującymi i przetwarzającymi informacje u kręgowców są rdzeń kręgowy i mózg. Zgodnie z charakterystyką zmysłów, informacje odbierane przez organizm można podzielić na wizualne, słuchowe, smakowe, węchowe i dotykowe.


Gdy sygnał dociera do siatkówki ludzkiego oka, w szczególny sposób pobudza komórki tworzące tę część oka. Impulsy nerwowe z komórek przekazywane są poprzez aksony do mózgu. Mózg zapamiętuje to uczucie w postaci pewnej kombinacji stanów neuronów składowych. (Przykład jest kontynuowany w części „Informacja w społeczeństwie ludzkim”). Gromadząc informacje, mózg tworzy na swojej strukturze połączoną strukturę model informacyjny otaczający świat. W przyrodzie żywej ważną cechą organizmu odbierającego informację jest jej dostępność. Ilość informacji, które system nerwowy osoba jest w stanie przesłać do mózgu podczas czytania tekstu około 1 bit na 1/16 s.

Badanie organizmów komplikuje ich złożoność. Abstrakcja struktury jako zbioru matematycznego, akceptowalna dla obiektów nieożywionych, jest mało akceptowalna dla organizmu żywego, gdyż aby stworzyć mniej lub bardziej adekwatny abstrakcyjny model organizmu, należy wziąć pod uwagę wszystkie hierarchiczne poziomach jego struktury. Dlatego trudno jest wprowadzić miarę ilości informacji. Bardzo trudno jest określić powiązania pomiędzy elementami konstrukcji. Jeśli wiadomo, który narząd jest źródłem informacji, to jaki jest sygnał, a jaki odbiornik?


Przed pojawieniem się komputerów biologia, która zajmuje się badaniem organizmów żywych, była wykorzystywana wyłącznie jakościowo, tj. modele opisowe. W modelu jakościowym prawie niemożliwe jest uwzględnienie powiązań informacyjnych pomiędzy elementami konstrukcji. Elektroniczna technologia obliczeniowa umożliwiła zastosowanie nowych metod w badaniach biologicznych, w szczególności metody modelowania maszynowego, która polega na matematycznym opisie znanych zjawisk i procesów zachodzących w organizmie, dodaniu do nich hipotez na temat niektórych nieznanych procesów i obliczeniu możliwych zachowań wzorce organizmu. Uzyskane opcje porównuje się z rzeczywistym zachowaniem organizmu, co pozwala określić prawdziwość lub fałszywość postawionych hipotez. Takie modele mogą również uwzględniać interakcję informacyjną. Procesy informacyjne zapewniające istnienie samego życia są niezwykle złożone. I choć intuicyjnie wiadomo, że właściwość ta jest bezpośrednio związana z tworzeniem, przechowywaniem i przekazywaniem pełnej informacji o budowie organizmu, to abstrakcyjny opis tego zjawiska przez pewien czas wydawał się niemożliwy. Jednak procesy informacyjne zapewniające istnienie tej właściwości zostały częściowo ujawnione poprzez rozszyfrowanie kodu genetycznego i odczytanie genomów różne organizmy.

Informacja w społeczeństwie ludzkim

Rozwój materii w procesie ruchu ma na celu skomplikowanie struktury obiektów materialnych. Jedną z najbardziej złożonych struktur jest ludzki mózg. Jak dotąd jest to jedyna znana nam struktura, która ma właściwość, którą sam człowiek nazywa świadomością. Mówiąc o informacji, my, istoty myślące, a priori mamy na myśli, że informacja oprócz swojej obecności w postaci sygnałów, które otrzymujemy, ma również pewne znaczenie. Tworząc w umyśle model otaczającego świata jako zbiór wzajemnie powiązanych modeli jego obiektów i procesów, człowiek posługuje się pojęciami semantycznymi, a nie informacją. Znaczenie jest istotą każdego zjawiska, która nie pokrywa się sama ze sobą i łączy je z szerszym kontekstem rzeczywistości. Samo słowo bezpośrednio wskazuje, że treść semantyczną informacji mogą formować jedynie myślący odbiorcy informacji. W społeczeństwie ludzkim decydujące znaczenie ma nie sama informacja, ale jej treść semantyczna.


Przykład (ciąg dalszy). Doświadczywszy takiego wrażenia, osoba przypisuje przedmiotowi pojęcie „pomidor”, a jego stanowi pojęcie „kolor czerwony”. Ponadto jego świadomość naprawia połączenie: „pomidor” - „czerwony”. Takie jest znaczenie odbieranego sygnału. (Przykład kontynuowany poniżej w tej sekcji). Zdolność mózgu do tworzenia znaczących koncepcji i połączeń między nimi jest podstawą świadomości. Świadomość można uznać za samodoskonalący się model semantyczny otaczającego świata. Znaczenie nie jest informacją. Informacja istnieje wyłącznie na materialnym nośniku. Ludzka świadomość jest uważana za niematerialną. Znaczenie istnieje w ludzkim umyśle w postaci słów, obrazów i wrażeń. Osoba może wymawiać słowa nie tylko na głos, ale także „do siebie”. Potrafi także tworzyć (lub zapamiętywać) obrazy i doznania „we własnym umyśle”. Może jednak uzyskać informacje odpowiadające temu znaczeniu, mówiąc lub pisząc słowa.

Przykład (ciąg dalszy). Jeśli słowa „pomidor” i „czerwony” są znaczeniem tych pojęć, to gdzie jest informacja? Informacja zawarta jest w mózgu w postaci pewnych stanów jego neuronów. Jest on również zawarty w drukowanym tekście składającym się z tych słów, a przy kodowaniu liter za pomocą trzybitowego kodu binarnego jego ilość wynosi 120 bitów. Jeśli wypowiesz te słowa na głos, informacji będzie znacznie więcej, ale znaczenie pozostanie takie samo. Obraz wizualny niesie ze sobą najwięcej informacji. Znajduje to odzwierciedlenie nawet w folklorze – „lepiej raz zobaczyć, niż usłyszeć sto razy”. Odtworzona w ten sposób informacja nazywana jest informacją semantyczną, gdyż koduje znaczenie jakiejś informacji pierwotnej (semantyka). Usłyszawszy (lub widząc) zdanie wypowiedziane (lub napisane) w języku, którego dana osoba nie zna, otrzymuje informacje, ale nie może określić ich znaczenia. Dlatego też, aby przekazać treść semantyczną informacji, konieczne są pewne ustalenia pomiędzy źródłem a odbiorcą co do treści semantycznej sygnałów, tj. słowa Takie porozumienia można osiągnąć poprzez komunikację. Komunikacja jest jednym z najważniejszych warunków istnienia społeczeństwa ludzkiego.

We współczesnym świecie informacja jest jednym z najważniejszych zasoby krytyczne a jednocześnie jedną z sił napędowych rozwoju społeczeństwa ludzkiego. Procesy informacyjne zachodzące w świecie materialnym, przyrodzie żywej i społeczeństwie ludzkim są badane (lub przynajmniej brane pod uwagę) przez wszystkie dyscypliny naukowe, od filozofii po marketing. Rosnąca złożoność problemów badań naukowych doprowadziła do konieczności przyciągania do ich rozwiązywania dużych zespołów naukowców z różnych specjalności. Dlatego prawie wszystkie omówione poniżej teorie mają charakter interdyscyplinarny. Historycznie rzecz biorąc, badaniem samej informacji zajmowały się dwie złożone gałęzie nauki – cybernetyka i informatyka.


Współczesna cybernetyka to multidyscyplinarna dziedzina nauki zajmująca się badaniem bardzo złożonych systemów, takich jak:

Społeczeństwo(cybernetyka społeczna);

Ekonomia (cybernetyka ekonomiczna);

Organizm żywy (cybernetyka biologiczna);

Ludzki mózg a jego funkcją jest świadomość (sztuczna inteligencja).


Informatyka, ukształtowana jako nauka w połowie ubiegłego wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznych. Obie te branże wykorzystują kilka podstawowych teorii naukowych. Należą do nich teoria informacji i jej działy – teoria kodowania, teoria algorytmów i teoria automatów. Badania nad semantyczną zawartością informacji opierają się na zestawie teorii naukowych pod ogólną nazwą semiotyka.Teoria informacji jest złożoną teorią, głównie matematyczną, obejmującą opis i ocenę metod wyszukiwania, przesyłania, przechowywania i klasyfikowania informacji. Rozważa media informacyjne jako elementy zbioru abstrakcyjnego (matematycznego), a interakcje pomiędzy mediami jako sposób uporządkowania elementów tego zbioru. Takie podejście pozwala na formalny opis kodu informacyjnego, czyli zdefiniowanie kodu abstrakcyjnego i zbadanie go metody matematyczne. Do badań tych wykorzystuje metody teorii prawdopodobieństwa, statystyki matematycznej, algebry liniowej, teorii gier i innych teorii matematycznych.


Podstawy tej teorii położył amerykański naukowiec E. Hartley w 1928 roku, który określił miarę ilości informacji dla niektórych problemów komunikacyjnych. Później teorię znacznie rozwinął amerykański naukowiec K. Shannon, rosyjscy naukowcy A.N. Kołmogorow, W.M. Głuszkow i inni.Współczesna teoria informacji obejmuje działy takie jak teoria kodowania, teoria algorytmów, teoria automatów cyfrowych (patrz niżej) i inne.Istnieją także alternatywne teorie informacji, np. „Jakościowa teoria informacji”, zaproponowana przez polskiego naukowiec M. Mazur Pojęcie algorytmu zna każdy człowiek, nawet o tym nie wiedząc. Oto przykład nieformalnego algorytmu: „Pomidory pokroić w koła lub plasterki. Umieść w nich posiekaną cebulę, zalej olejem roślinnym, następnie posyp drobno posiekaną papryką i wymieszaj. Przed jedzeniem posolić, przełożyć do salaterki i udekorować natką pietruszki.” (Sałatka pomidorowa).


Pierwsze zasady rozwiązywania problemów arytmetycznych w historii ludzkości zostały opracowane przez jednego ze słynnych naukowców starożytności, Al-Khorezmi, w IX wieku naszej ery. Na jego cześć sformalizowane zasady osiągania dowolnego celu nazywane są algorytmami.Przedmiotem teorii algorytmów jest znalezienie metod konstruowania i oceny skutecznych (w tym uniwersalnych) algorytmów obliczeniowych i sterujących przetwarzaniem informacji. Do uzasadnienia takich metod teoria algorytmów wykorzystuje aparat matematyczny teorii informacji.Współczesna koncepcja naukowa algorytmów jako metod przetwarzania informacji została wprowadzona w pracach E. Posta i A. Turinga w latach 20. XX wieku (Turing Maszyna). Rosyjscy naukowcy A. Markov (Algorytm normalny Markowa) i A. Kołmogorow wnieśli ogromny wkład w rozwój teorii algorytmów.Teoria automatów to gałąź cybernetyki teoretycznej, która bada modele matematyczne faktycznie istniejących lub zasadniczo możliwych urządzeń przetwarzających dyskretne informacje w dyskretnych momentach czasu.


Pojęcie automatu zrodziło się w teorii algorytmów. Jeżeli istnieją uniwersalne algorytmy rozwiązywania problemów obliczeniowych, to muszą istnieć również urządzenia (choć abstrakcyjne) do realizacji takich algorytmów. W rzeczywistości abstrakcyjna maszyna Turinga, rozpatrywana w teorii algorytmów, jest jednocześnie nieformalnie zdefiniowanym automatem. Teoretyczne uzasadnienie budowy takich urządzeń jest przedmiotem teorii automatów.Teoria automatów wykorzystuje aparat teorii matematycznych - algebrę, logikę matematyczną, analizę kombinatoryczną, teorię grafów, teorię prawdopodobieństwa itp. Teoria automatów wraz z teorią algorytmów , jest główną podstawą teoretyczną tworzenia komputerów elektronicznych i zautomatyzowanych systemów sterowania.Semiotyka to zespół teorii naukowych badających właściwości systemów znakowych. Największe wyniki osiągnięto w dziale semiotyka – semantyka. Przedmiotem badań semantyki jest treść semantyczna informacji.


Za system znaków uważa się system obiektów konkretnych lub abstrakcyjnych (znaków, słów), z których każdy ma w określony sposób określone znaczenie. W teorii udowodniono, że mogą istnieć dwa takie porównania. Pierwszy rodzaj korespondencji bezpośrednio określa przedmiot materialny, który oznacza to słowo i nazywany jest denotacją (lub w niektórych pracach nominacją). Drugi rodzaj korespondencji określa znaczenie znaku (słowa) i nazywa się pojęciem. Jednocześnie badane są takie właściwości porównań, jak „znaczenie”, „prawda”, „definiowalność”, „podążanie”, „interpretacja” itp. Do badań wykorzystuje się aparat logiki matematycznej i językoznawstwa matematycznego. semantyki, zarysowanej w XIX w. przez G. V. Leibniza i F de Saussure’a, sformułowanej i rozwiniętej przez C. Pierce’a (1839-1914), C. Morrisa (ur. 1901), R. Carnapa (1891-1970) itd. Głównym osiągnięciem teorii jest stworzenie aparatu analizy semantycznej, który pozwala przedstawić znaczenie tekstu w języku naturalnym w formie zapisu w jakimś sformalizowanym języku semantycznym (semantycznym).Analiza semantyczna jest podstawą do tworzenia urządzeń (programy) służące do tłumaczenia maszynowego z jednego języka naturalnego na inny.

Informacje są przechowywane poprzez przeniesienie ich na jakiś nośnik fizyczny. Informacje semantyczne zapisane na materialnym nośniku danych nazywane są dokumentem. Ludzkość nauczyła się przechowywać informacje bardzo dawno temu. Najstarsze formy przechowywania informacji wykorzystywały układ przedmiotów - muszle i kamienie na piasku, węzły na linie. Znaczącym rozwinięciem tych metod było napisanie - obraz graficzny symbole na kamieniu, glinie, papirusie, papierze. Duże znaczenie w rozwoju tego kierunku miał wynalazek druku. W swojej historii ludzkość zgromadziła ogromną ilość informacji w bibliotekach, archiwach, czasopismach i innych dokumentach pisanych.


Obecnie szczególnego znaczenia nabiera przechowywanie informacji w postaci ciągów znaków binarnych. Aby wdrożyć te metody, stosuje się różne urządzenia pamięci masowej. Stanowią centralne ogniwo systemów przechowywania informacji. Oprócz nich systemy te wykorzystują środki wyszukiwania informacji (wyszukiwarka), środki pozyskiwania informacji (systemy informacyjne i referencyjne) oraz środki wyświetlania informacji (urządzenie wyjściowe). Tworzone zgodnie z przeznaczeniem informacji, takie systemy informacyjne tworzą bazy danych, banki danych i bazę wiedzy.

Transfer informacji semantycznej to proces jej przestrzennego przekazania od źródła do odbiorcy (adresata). Człowiek nauczył się przekazywać i odbierać informacje jeszcze wcześniej, niż je przechowywać. Mowa jest sposobem przekazu, który stosowali nasi odlegli przodkowie w bezpośrednim kontakcie (rozmowie) – i my z niego korzystamy do dziś. Aby przesłać informacje do długie dystanse konieczne jest zastosowanie znacznie bardziej złożonych procesów informacyjnych.Aby taki proces przeprowadzić, informacja musi zostać w jakiś sposób sformalizowana (zaprezentowana). Do przedstawienia informacji wykorzystuje się różne systemy znaków – zestawy ustalonych symboli semantycznych: przedmioty, obrazy, pisane lub drukowane słowa języka naturalnego. Informacje semantyczne o dowolnym przedmiocie, zjawisku lub procesie prezentowane za ich pomocą nazywane są komunikatem.


Oczywiście, aby przesłać wiadomość na odległość, informacja musi zostać przeniesiona na jakiś mobilny nośnik. Przewoźnicy mogą przemieszczać się w przestrzeni kosmicznej za pomocą pojazdów, tak jak ma to miejsce w przypadku listów wysyłanych pocztą. Metoda ta zapewnia całkowitą niezawodność przekazu informacji, gdyż adresat otrzymuje oryginalną wiadomość, ale jej przesłanie wymaga znacznej ilości czasu. Od połowy XIX w. upowszechniły się sposoby przekazywania informacji wykorzystujące naturalnie rozchodzący się nośnik informacji – wibracje elektromagnetyczne (drgania elektryczne, fale radiowe, światło). Wdrożenie tych metod wymaga:

Wstępne przeniesienie informacji zawartej w przekazie na nośnik – kodowanie;

Zapewnienie transmisji tak otrzymanego sygnału do odbiorcy specjalnym kanałem komunikacyjnym;

Odwrotna konwersja kodu sygnałowego na kod komunikatu – dekodowanie.

Zastosowanie mediów elektromagnetycznych sprawia, że ​​dotarcie komunikatu do adresata jest niemal natychmiastowe, wymaga jednak dodatkowych działań zapewniających jakość (rzetelność i dokładność) przesyłane informacje, ponieważ rzeczywiste kanały komunikacji podlegają naturalnym i sztucznym zakłóceniom. Urządzenia realizujące proces przesyłania danych z systemów komunikacyjnych. W zależności od sposobu prezentacji informacji systemy komunikacji można podzielić na systemy znakowe (telegraf, telefaks), dźwiękowe (telefon), wideo i kombinowane (telewizja). Najbardziej rozwiniętym systemem komunikacji w naszych czasach jest Internet.

Przetwarzanie danych

Ponieważ informacja nie jest materialna, jej przetwarzanie wiąże się z różnymi transformacjami. Procesy przetwarzania obejmują każdy transfer informacji z nośnika na inny nośnik. Informacje przeznaczone do przetwarzania nazywane są danymi. Głównym rodzajem przetwarzania pierwotnych informacji odbieranych przez różne urządzenia jest przekształcanie ich do postaci zapewniającej ich odbiór przez zmysły człowieka. Tym samym fotografie przestrzeni uzyskane w promieniach rentgenowskich przekształcane są w zwykłe kolorowe fotografie za pomocą specjalnych konwerterów widma i materiałów fotograficznych. Noktowizory przetwarzają obraz uzyskany w promieniach podczerwonych (termicznych) na obraz w zakresie widzialnym. W przypadku niektórych zadań komunikacyjnych i sterujących konieczna jest konwersja informacji analogowej. W tym celu analogowo-cyfrowe i przetworniki cyfrowo-analogowe sygnały.


Najważniejszym rodzajem przetwarzania informacji semantycznej jest określenie znaczenia (treści) zawartej w danym komunikacie. W przeciwieństwie do pierwotnej informacji semantycznej nie ma ona cech statystycznych, to znaczy miary ilościowej - albo ma znaczenie, albo go nie ma. A ile to jest, jeśli w ogóle, nie da się ustalić. Znaczenie zawarte w wiadomości zostało opisane w sztuczny język, odzwierciedlając powiązania semantyczne pomiędzy słowami tekstu źródłowego. Słownik takiego języka, zwany tezaurusem, znajduje się w odbiorniku wiadomości. Znaczenie słów i wyrażeń w przekazie określa się poprzez przypisanie ich do określonych grup słów lub wyrażeń, których znaczenie zostało już ustalone. Tezaurus pozwala zatem ustalić znaczenie przekazu, a jednocześnie jest uzupełniany o nowe pojęcia semantyczne. Opisany rodzaj przetwarzania informacji jest stosowany w systemach wyszukiwania informacji i systemach tłumaczenia maszynowego.


Jednym z powszechnych rodzajów przetwarzania informacji jest rozwiązywanie problemów obliczeniowych i problemów automatycznego sterowania za pomocą komputerów. Przetwarzanie informacji zawsze odbywa się w jakimś celu. Aby to osiągnąć, musi być znana kolejność działań na informacjach prowadzących do danego celu. Ta procedura nazywa się algorytmem. Oprócz samego algorytmu potrzebne jest również urządzenie, które ten algorytm implementuje. W teoriach naukowych takie urządzenie nazywa się automatem. Należy zauważyć, że najważniejszą cechą informacji jest to, że na skutek asymetrii interakcji informacji, podczas przetwarzania informacji pojawiają się nowe informacje, ale pierwotna informacja nie zostaje tracona.

Informacje analogowe i cyfrowe

Dźwięk to drgania fal w dowolnym ośrodku, na przykład w powietrzu. Kiedy ktoś mówi, wibracje więzadeł gardła przekształcają się w wibracje falowe powietrza. Jeśli rozważymy dźwięk nie jako falę, ale jako wibracje w jednym punkcie, wówczas wibracje te można przedstawić jako zmieniające się w czasie ciśnienie powietrza. Za pomocą mikrofonu można wykryć zmiany ciśnienia i przekształcić je w napięcie elektryczne. Ciśnienie powietrza jest przekształcane na wahania napięcia elektrycznego.


Taka transformacja może zachodzić według różnych praw, najczęściej transformacja następuje według prawa liniowego. Na przykład tak:

U(t)=K(P(t)-P_0),

gdzie U(t) to napięcie elektryczne, P(t) to ciśnienie powietrza, P_0 to średnie ciśnienie powietrza, a K to współczynnik konwersji.

Zarówno napięcie elektryczne, jak i ciśnienie powietrza są funkcjami ciągłymi w czasie. Funkcje U(t) i P(t) są informacją o drganiach więzadeł gardła. Funkcje te mają charakter ciągły i taką informację nazywamy analogową.Muzyka jest szczególny przypadek dźwięku i można go również przedstawić jako pewną funkcję czasu. Będzie to analogowa reprezentacja muzyki. Ale muzykę zapisuje się także w formie notatek. Każda nuta ma czas trwania stanowiący wielokrotność z góry określonego czasu trwania i wysokość dźwięku (do, re, mi, fa, salt itp.). Jeśli dane te zostaną przeliczone na liczby, otrzymamy cyfrową reprezentację muzyki.


Mowa ludzka jest również szczególnym przypadkiem dźwięku. Można go również przedstawić w formie analogowej. Ale tak jak muzykę można podzielić na nuty, tak mowę można rozłożyć na litery. Jeśli każdej literze zostanie przypisany własny zestaw liczb, otrzymamy cyfrową reprezentację mowy.Różnica między informacją analogową i cyfrową polega na tym, że informacja analogowa jest ciągła, podczas gdy informacja cyfrowa jest dyskretna.Transformacja informacji z jednego typu na inny , w zależności od rodzaju transformacji, nazywa się inaczej: po prostu „konwersją”, np. konwersją cyfrowo-analogową lub konwersją analogowo-cyfrową; złożone transformacje nazywane są „kodowaniem”, na przykład kodowaniem delta, kodowaniem entropijnym; Konwersja między charakterystykami, takimi jak amplituda, częstotliwość lub faza, nazywana jest „modulacją”, na przykład modulacja amplitudy i częstotliwości lub modulacja szerokości impulsu.

Zazwyczaj konwersja analogowa jest dość prosta i można ją łatwo przeprowadzić za pomocą różnych urządzeń wymyślonych przez człowieka. Magnetofon przekształca namagnesowanie kliszy na dźwięk, dyktafon przetwarza dźwięk na namagnesowanie kliszy, kamera wideo przekształca światło w namagnesowanie kliszy, oscyloskop przetwarza napięcie lub prąd elektryczny na obraz itp. Konwersja informacji analogowej na cyfrową jest znacznie trudniejsza. Maszyna nie może dokonać pewnych przekształceń lub udaje jej się to z wielkim trudem. Na przykład konwersja mowy na tekst lub konwersja nagrania koncertu na nuty, a nawet reprezentację z natury cyfrową: tekst na papierze jest bardzo trudny do przekształcenia przez maszynę w ten sam tekst w pamięci komputera.

Po co więc stosować cyfrową reprezentację informacji, skoro jest ona tak złożona? Główną przewagą informacji cyfrowych nad informacjami analogowymi jest odporność na zakłócenia. Oznacza to, że w procesie kopiowania informacji informacje cyfrowe są kopiowane w niezmienionej postaci, można je kopiować niemal nieskończoną liczbę razy, podczas gdy informacje analogowe stają się zaszumione podczas procesu kopiowania, a ich jakość ulega pogorszeniu. Zazwyczaj informację analogową można skopiować nie więcej niż trzy razy.Jeśli posiadasz magnetofon dwukasetowy, możesz przeprowadzić następujący eksperyment: spróbuj kilkakrotnie przepisać ten sam utwór z kasety na kasetę, już po kilku takich ponownych nagraniach zauważysz, jak bardzo jakość nagrania uległa pogorszeniu. Informacje na kasecie zapisywane są w formie analogowej. Możesz przepisywać muzykę w formacie mp3 tyle razy, ile chcesz, a jakość muzyki nie ulega pogorszeniu. Informacje zawarte w pliku mp3 są przechowywane cyfrowo.

Ilość informacji

Osoba lub inny odbiorca informacji, otrzymawszy informację, rozwiewa pewną niepewność. Weźmy na przykład to samo drzewo. Kiedy zobaczyliśmy drzewo, rozwialiśmy wiele wątpliwości. Dowiadywaliśmy się o wysokości drzewa, jego gatunku, gęstości listowia, kolorze liści, a jeśli było to drzewo owocowe, to widzieliśmy na nim owoce, ich dojrzałość itp. Zanim spojrzeliśmy na drzewo, nie wiedzieliśmy tego wszystkiego, po spojrzeniu na drzewo rozwieliśmy niepewność – otrzymaliśmy informację.


Jeśli wyjdziemy na łąkę i przyjrzymy się jej, otrzymamy inny rodzaj informacji, jak duża jest łąka, jak wysoka jest trawa i jakiego koloru jest trawa. Jeśli biolog pojedzie na tę samą łąkę, to będzie mógł między innymi dowiedzieć się: jakie odmiany trawy na łące rosną, jaki to rodzaj łąki, zobaczy, jakie kwiaty zakwitły, jakie zaraz zakwitnie, czy łąka nadaje się do wypasu krów itp. Oznacza to, że otrzyma więcej informacji niż my, ponieważ miał więcej pytań, zanim spojrzał na łąkę, biolog rozwieje więcej wątpliwości.

Im więcej niepewności rozwiewało się w procesie pozyskiwania informacji, tym więcej informacji otrzymywaliśmy. Jest to jednak subiektywna miara ilości informacji, a my chcielibyśmy mieć miarę obiektywną. Istnieje wzór na obliczenie ilości informacji. Mamy pewną niepewność i mamy N przypadków rozwiązania niepewności, a każdy przypadek ma pewne prawdopodobieństwo rozwiązania, wówczas ilość otrzymanych informacji można obliczyć za pomocą następującego wzoru, który zasugerował nam Shannon:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), gdzie

I – ilość informacji;

N – liczba wyników;

p_1, p_2, ..., p_N to prawdopodobieństwa wyniku.

Ilość informacji mierzona jest w bitach – skrót od angielskiego słowa BInary digiT, co oznacza cyfrę binarną.

Dla zdarzeń równie prawdopodobnych wzór można uprościć:

I = \log_(2)N, gdzie

I – ilość informacji;

N – liczba wyników.

Weźmy na przykład monetę i rzućmy ją na stół. Wyląduje orłem lub reszką. Mamy 2 równie prawdopodobne zdarzenia. Po rzucie monetą otrzymaliśmy \log_(2)2=1 bit informacji.

Spróbujmy dowiedzieć się, ile informacji otrzymamy po rzucie kostką. Sześcian ma sześć boków – sześć równie prawdopodobnych zdarzeń. Otrzymujemy: \log_(2)6 \około 2,6. Po rzuceniu kostki na stół otrzymaliśmy około 2,6 bitu informacji.


Szansa, że ​​wychodząc z domu zobaczymy marsjańskiego dinozaura, wynosi jeden do dziesięciu miliardów. Ile informacji na temat marsjańskiego dinozaura dowiemy się po wyjściu z domu?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \około 3,4 \cdot 10^(-9) bitów.

Załóżmy, że rzuciliśmy 8 monetami. Mamy 2^8 opcji upuszczania monet. Oznacza to, że po rzucie monetą otrzymamy \log_2(2^8)=8 bitów informacji.

Kiedy zadajemy pytanie i z równym prawdopodobieństwem otrzymamy odpowiedź „tak” lub „nie”, to po udzieleniu odpowiedzi na pytanie otrzymujemy jedną informację.


Zadziwiające, że jeśli zastosujemy wzór Shannona do informacji analogowych, otrzymamy nieskończoną ilość informacji. Na przykład napięcie w punkcie obwód elektryczny może przyjąć równie prawdopodobną wartość od zera do jednego wolta. Liczba wyników, które mamy, jest równa nieskończoności i podstawiając tę ​​wartość do wzoru na zdarzenia równie prawdopodobne, otrzymujemy nieskończoność – nieskończoną ilość informacji.

Teraz pokażę ci, jak zakodować „Wojnę i pokój”, używając tylko jednego znaku na dowolnym metalowym pręcie. Zakodujmy wszystkie litery i znaki występujące w „Wojnie i pokoju” za pomocą liczb dwucyfrowych – to powinno nam wystarczyć. Przykładowo literze „A” nadamy kod „00”, literze „B” kodowi „01” i tak dalej, zakodujemy znaki interpunkcyjne, litery i cyfry łacińskie. Przekodujmy „Wojnę i pokój” za pomocą tego kodu i otrzymamy długą liczbę, na przykład 70123856383901874..., dodajmy przed tą liczbą przecinek i zero (0,70123856383901874...). Wynikiem jest liczba od zera do jeden. Na metalowym pręcie zaznaczmy tak, aby stosunek lewej strony pręta do długości tego pręta był dokładnie równy naszej liczbie. Jeśli więc nagle zapragniemy przeczytać „Wojnę i pokój”, po prostu odmierzamy lewą stronę pręta do kreski i długość całego pręta, dzielimy liczbę przez drugą, otrzymujemy liczbę i kodujemy ją z powrotem na litery ( „00” do „A”, „01” do „B” itp.).

W rzeczywistości nie będziemy w stanie tego zrobić, ponieważ nie będziemy w stanie określić długości z nieskończoną dokładnością. Pewne problemy inżynieryjne uniemożliwiają nam zwiększenie dokładności pomiarów, a fizyka kwantowa pokazuje nam, że po pewnej granicy prawa kwantowe będą już nam przeszkadzać. Intuicyjnie rozumiemy, że im niższa dokładność pomiaru, tym mniej informacji otrzymujemy, a im większa dokładność pomiaru, tym więcej informacji otrzymujemy. Wzór Shannona nie nadaje się do pomiaru ilości informacji analogowej, ale istnieją do tego inne metody, które są omówione w teorii informacji. W technologia komputerowa bit odpowiada stanowi fizycznemu nośnika informacji: namagnesowany - nie namagnesowany, jest dziura - nie ma dziury, naładowany - nie naładowany, odbija światło - nie odbija światła, wysoki potencjał elektryczny - niski potencjał elektryczny. W tym przypadku jeden stan jest zwykle oznaczany liczbą 0, a drugi liczbą 1. Za pomocą ciągu bitów można zakodować dowolną informację: tekst, obraz, dźwięk itp.


Oprócz bitu często używana jest wartość zwana bajtem, która zwykle wynosi 8 bitów. A jeśli bit pozwala wybrać jedną równie prawdopodobną opcję z dwóch możliwych, to bajt to 1 z 256 (2^8). Aby zmierzyć ilość informacji, często używa się również większych jednostek:

1 KB (jeden kilobajt) 210 bajtów = 1024 bajty

1 MB (jeden megabajt) 210 KB = 1024 KB

1 GB (jeden gigabajt) 210 MB = 1024 MB

W rzeczywistości przedrostki SI kilo-, mega-, giga- powinny być używane odpowiednio dla współczynników 10^3, 10^6 i 10^9, ale historycznie rzecz biorąc, istniała praktyka używania czynników o potędze dwójki.


Bit Shannona i bit używany w technologii komputerowej są takie same, jeśli prawdopodobieństwa pojawienia się zera lub jedynki w bicie komputerowym są równe. Jeśli prawdopodobieństwa nie są równe, wówczas ilość informacji według Shannona staje się mniejsza, co widzieliśmy na przykładzie marsjańskiego dinozaura. Komputerowa ilość informacji stanowi górną ocenę ilości informacji. Pamięć ulotna po zasileniu jest zwykle inicjowana jakąś wartością, na przykład samymi jedynkami lub wszystkimi zerami. Oczywiste jest, że po włączeniu zasilania pamięci nie ma tam żadnych informacji, ponieważ wartości w komórkach pamięci są ściśle określone, nie ma niepewności. Pamięć może przechowywać pewną ilość informacji, ale po włączeniu zasilania nie ma w niej żadnej informacji.

Dezinformacja to celowo fałszywe informacje przekazywane wrogowi lub partner biznesowy dla skuteczniejszych działań bojowych, współpracy, sprawdzania wycieków informacji i kierunku ich wycieku, identyfikacji potencjalni klienci czarny rynek Dezinformacja (także dezinformacja) to także proces manipulacji samą informacją, taki jak: wprowadzenie kogoś w błąd poprzez podanie niekompletnych lub pełnych, ale już niepotrzebnych informacji, zniekształcenie kontekstu, zniekształcenie części informacji.


Cel takiego oddziaływania jest zawsze ten sam – przeciwnik musi działać tak, jak tego potrzebuje manipulator. Działanie celu, przeciwko któremu skierowana jest dezinformacja, może polegać na podjęciu decyzji potrzebnej manipulatorowi lub na odmowie podjęcia decyzji niekorzystnej dla manipulatora. Ale w każdym razie ostatecznym celem jest akcja, którą podejmie przeciwnik.

Dezinformacja jest zatem wytworem działalności człowieka, próbą wywołania fałszywego wrażenia i w związku z tym nakłonienia do pożądanych działań i/lub zaniechania działania.

Rodzaje dezinformacji:

Wprowadzanie w błąd konkretnej osoby lub grupy osób (w tym całego narodu);

Manipulacja (działania jednej osoby lub grupy osób);

Kreowanie opinii publicznej na temat problemu lub przedmiotu.

Wprowadzanie w błąd to nic innego jak zwykłe wprowadzenie w błąd, czyli podanie fałszywych informacji. Manipulacja to metoda oddziaływania mająca na celu bezpośrednio zmianę kierunku działania ludzi. Wyróżnia się następujące poziomy manipulacji:

Wzmocnienie wartości (idei, postaw), które istnieją w umysłach ludzi i są korzystne dla manipulatora;

Częściowa zmiana poglądów na temat określonego zdarzenia lub okoliczności;

Radykalna zmiana postaw życiowych.

Kształtowanie opinii publicznej to kształtowanie w społeczeństwie określonej postawy wobec wybranego problemu.


Źródła i linki

ru.wikipedia.org – wolna encyklopedia Wikipedia

youtube.com – hosting filmów na YouTube

obrazy.yandex.ua - Zdjęcia Yandex

google.com.ua – obrazy Google

ru.wikibooks.org – Wikibooks

inf1.info – Planeta Informatyki

old.russ.ru – Magazyn rosyjski

shkolo.ru – Katalog informacyjny

5byte.ru – witryna informatyczna

ssti.ru – Technologie informacyjne

klgtu.ru - Informatyka

informatika.sch880.ru - strona internetowa nauczyciela informatyki O.V. Podwincewa

bibliofond.ru - biblioteka elektroniczna Bibliofond

life-prog.ru - programowanie