Jak działa sieć WWW. Sieć ogólnoświatowa

Dla każdego współczesnego mieszkańca planety komputer bez dostępu do Internetu jest rzeczą bezużyteczną. Sieć WWW stanowi szybki, wygodny i lepszy sposób interakcji ze światem zewnętrznym, ale nie zawsze tak było. Jeszcze w połowie XX wieku słowo to nie miało zupełnie żadnego znaczenia.

Pamiętajmy o przeszłości

Kiedy więc powstał Internet, przez kogo i po co? Założycielami tego pomysłu, co dziwne, są amerykańscy specjaliści. Wszystko zaczęło się w październiku 1957 r., kiedy Związek Radziecki wystrzelił sztucznego satelitę Ziemi, co skłoniło Amerykanów do podjęcia zdecydowanych działań.

Departament Obrony USA, przeczuwając wyraźną wyższość narodu rosyjskiego, podjął decyzję o stworzeniu niezawodnego i wydajnego systemu wymiany informacji. System taki miał pomóc krajowi w przypadku nagłej wojny. Tak trudną odpowiedzialność spoczęły na wiodących uniwersytetach amerykańskich.

Dzięki dobrym funduszom ośrodek badawczy Stanforda oraz uniwersytety w Los Angeles, Santa Barbara i Utah mogły wprowadzić ten pomysł w życie do 1969 roku. Cztery instytucje edukacyjne połączyły się we wspólną sieć zwaną „Siecią Agencji Zaawansowanych Projektów Badawczych” (w skrócie ARPANET).

Data „narodzin” sieci WWW

Już w pierwszych miesiącach nie sposób było nie docenić skuteczności elektronicznych innowacji. System zaczął aktywnie się rozwijać, uzyskując wiele zatwierdzeń od wielu naukowców i badaczy ubiegłego wieku. Pod koniec października 1969 r. odbyła się pierwsza udana sesja komunikacyjna między obydwoma uniwersytetami.

29 października 1969 to data pojawienia się Internetu. Pracownik Instytutu Kalifornijskiego, Charlie Cline, nawiązał zdalne połączenie, co zostało potwierdzone w rozmowie telefonicznej z pracownikiem Stanforda, Billem Duvallem. Oczywiście nie wszystko poszło gładko, ale komunikacja nadal była nawiązana.

Proces rozwoju

Jak to mówią, dobre rzeczy zostają na półce. To wyrażenie nie było wyjątkiem dla sieci. Dwa lata po nawiązaniu komunikacji zdalnej powstał nasz ukochany e-mail. Stało się to 2 października 1971 roku dzięki pracy Raya Tomlinsona, czołowego inżyniera korporacji naukowej BBN TECHNOLOGIES.

Pomysł badacza polega na stworzeniu znaku oddzielającego login użytkownika od domeny. Bez zastanowienia nadal aktywnie używamy tego symbolu, nazywając go prostym ludzkim słowem „pies”. Ray pomógł udostępnić sieć masom, łącząc setki tysięcy zainteresowanych osób.

Ale nawet wtedy koncepcja i koncepcja sieci WWW nie istniały. Istniała jedynie przestrzeń chmurowa umożliwiająca wymianę danych na znaczną odległość, co obejmowało wysyłanie e-maili i różnego rodzaju list mailingowych, grup dyskusyjnych i prywatnych forów dyskusyjnych.

Autor prawdziwej sieci WWW

W latach 1971–1989 wykonano ogromną pracę w celu rozszerzenia możliwości sieci internetowej. Protokoły przesyłania danych, nad którymi ciężko pracował Jonathan Postel, aktywnie się rozwijają. Opracowano system nazw domen. Pomyślnie wdrożono protokół umożliwiający rzeczywistą komunikację.

I dopiero w 1989 roku pracownik IMAGE COMPUTER SYSTEMS LTD, zajmujący się oprogramowaniem komunikacyjnym i architekturą systemów online, zaproponował kierownictwu firmy doktrynę „World Wide Web”. Założyciel planu nazywa się Timothy John Bernes-Lee.

Bernes-Lee jest znakomitym absolwentem Uniwersytetu Oksfordzkiego z tytułem licencjata z fizyki. Nazwę pojęcia „World Wide Web” wymyślił samodzielnie, na podstawie swojej pracy i w oparciu o nazwę powszechnie znanego protokołu. Wszyscy jesteśmy przyzwyczajeni do nazywania tego „potrójnym podwójnym” lub „BBW” (www).

Pod koniec 1989 roku w USA i Europie istniał nie tylko popyt na pocztę elektroniczną, ale także na komunikację w czasie rzeczywistym, różne kanały informacyjne i działalność komercyjną. Tim Bernes-Lee nie poprzestaje na tym, ale kontynuuje modernizację nowomodnego systemu.

Nowa twarz

Utalentowany fizyk-programista opracowuje serwer WWW i pierwszą w historii przeglądarkę internetową. To dzięki jego staraniom stworzono: edytor stron, tradycyjny sposób zapisywania adresu strony, hipertekstowy język znaczników (HTML) i protokoły przesyłania danych. W 1990 roku dołączył do niego Belg Robert Caillot.

Robert był zatrudniony w Europejskim Centrum Badań Jądrowych (CERN). Kierował działem zajmującym się wówczas systemami obliczeniowymi w dziale przetwarzania danych. Wysiłki Kayo miały na celu pozyskanie podstawowego finansowania dla projektu Tima Bernesa.

Oprócz kwestii finansowych i organizacyjnych Robert Caillot brał czynny udział w rozwoju i promocji Internetu. Nie zastrzegł sobie jednak praw współautorskich, przez co został praktycznie zapomniany. W historii coraz częściej słychać tylko nazwisko badacza Tima Bernesa-Lee.

Wniosek

Zastanawiam się, czy wszystkie wymienione osoby myślały, że w 2016 roku świat dosłownie zanurzy się w ogrom Internetu. Zainstalowana zostanie łączność satelitarna, komunikacja wideo i inne. Każdy kraj będzie miał swój własny termin na globalny Internet, odzwierciedlający jego przynależność językową (RUNET) i wskazujący domeny krajowe.

Nawiasem mówiąc, pierwsza domena Federacji Rosyjskiej (RU) została zarejestrowana wiosną 1994 roku. Teraz każdy z czytelników wie, kiedy, jak i przez kogo wynaleziono i wdrożono Internet. Dziś jest to zaawansowane osiągnięcie nauki i technologii, będące organiczną częścią współczesnego społeczeństwa.

Internet zajmuje coraz ważniejsze miejsce w naszym życiu. Żadna inna technologia stworzona przez człowieka nie zyskała tak powszechnej popularności. Internet - sieć WWW, która obejmuje cały glob, otaczając go siecią wież telewizyjnych. Swoją popularność zaczęła zyskiwać już w stosunkowo odległych latach 90-tych. W artykule porozmawiamy o tym, skąd się wzięła i dlaczego stała się tak popularna.

Internet jak sieć WWW

Druga nazwa takiego planu nie pojawiła się bez powodu. Faktem jest, że Internet jednoczy wielu użytkowników na całym świecie. Niczym pajęczyna oplata swoimi nitkami cały glob. I nie jest to zwykła metafora, naprawdę nią jest. Internet składa się z przewodów i sieci bezprzewodowych, z których te ostatnie są dla nas niewidoczne.

Ale to liryczna dygresja, w rzeczywistości Internet jest podłączony do sieci WWW (www lub Word Wide Web). Obejmuje wszystkie komputery podłączone do Internetu. Na zdalnych serwerach użytkownicy przechowują niezbędne informacje, a także mogą komunikować się przez Internet. Nazwę tę często rozumie się jako sieć WWW lub sieć globalną.

Opiera się na kilku szczególnie ważnych protokołach, takich jak TCP/IP. Dzięki Internetowi World Wide Web, czyli inaczej Word Wide Web (WWW), realizuje swoją działalność, czyli przesyła i odbiera dane.

Liczba użytkowników

Pod koniec 2015 roku przeprowadzono badanie, na podstawie którego uzyskano następujące dane. Na całym świecie jest 3,3 miliarda użytkowników Internetu. A to prawie 50% całej populacji naszej planety.

Tak wysokie wyniki osiągnięto dzięki rozpowszechnieniu się sieci komórkowych 3G i szybkich sieci komórkowych 4G. Dostawcy odegrali ważną rolę, dzięki masowemu wprowadzeniu technologii internetowych spadły koszty utrzymania serwerów i produkcji kabli światłowodowych. W większości krajów europejskich prędkość Internetu jest większa niż w krajach afrykańskich. Wyjaśnia to opóźnienie techniczne tego ostatniego i niski popyt na usługę.

Dlaczego Internet nazywa się siecią WWW?

Choć może się to wydawać paradoksalne, wielu użytkowników jest przekonanych, że powyższy termin i Internet to jedno i to samo. To głębokie błędne przekonanie, które krąży w głowach wielu użytkowników, spowodowane jest podobieństwem pojęć. Teraz dowiemy się, co jest co.

Sieć WWW jest często mylona z podobnym wyrażeniem „sieć WWW”. Reprezentuje pewną ilość informacji opartą na technologii internetowej.

Historia sieci WWW

Pod koniec lat 90-tych na świecie ostatecznie ugruntowała się dominacja NSFNet nad technologią ARPANET. Co dziwne, ich opracowaniem zajmował się jeden ośrodek naukowy. ARPNET został opracowany na zlecenie Departamentu Wojny Stanów Zjednoczonych. Tak, tak, pierwszymi, którzy skorzystali z Internetu, było wojsko. Technologia NSFNet została opracowana niezależnie od agencji rządowych, niemal z czystego entuzjazmu.

To właśnie konkurencja między obydwoma opracowaniami stała się podstawą ich dalszego rozwoju i masowego wprowadzenia na świat. Sieć WWW stała się dostępna dla ogółu społeczeństwa w roku 1991. To musiało jakoś zadziałać i Berners Lee zajął się rozwojem systemu dla Internetu. Po dwóch latach udanej pracy stworzył hipertekst, czyli HTTP, słynny elektroniczny język HTML i adresów URL. Nie musimy wdawać się w szczegóły, bo teraz widzimy je jako zwykłe linki do adresów stron internetowych.

Przestrzeń informacyjna

Przede wszystkim jest to przestrzeń informacyjna, do której dostęp zapewnia Internet. Umożliwia użytkownikowi dostęp do danych znajdujących się na serwerach. Jeśli zastosujemy metodę wizualno-figuratywną, to Internet jest cylindrem wolumetrycznym, a sieć WWW go wypełnia.

Za pośrednictwem programu zwanego „przeglądarką” użytkownik uzyskuje dostęp do Internetu w celu surfowania po sieci. Składa się z niezliczonej liczby witryn opartych na serwerach. Są podłączone do komputerów i odpowiadają za przechowywanie, ładowanie i przeglądanie danych.

Pajęcze sieci i współczesny człowiek

Obecnie Homo sapiens w krajach rozwiniętych niemal całkowicie zintegrował się z siecią WWW. Nie mówimy o naszych dziadkach ani o odległych wioskach, gdzie nawet nie wiedzą o jakimś Internecie.

Wcześniej osoba poszukująca informacji szła prosto do biblioteki. A często zdarzało się, że nie odnajdywano potrzebnej mu książki, wówczas musiał udać się do innych instytucji posiadających archiwa. Teraz nie ma potrzeby takich manipulacji.

W biologii wszystkie nazwy gatunków składają się z trzech słów, np. nasze pełne imię i nazwisko Homo sapiens neanderthalensis. Teraz możemy bezpiecznie dodać czwarte słowo internetiys.

Internet podbija umysły ludzkości

Zgadzam się, prawie wszystkie nasze informacje czerpiemy z Internetu. Mamy mnóstwo informacji na wyciągnięcie ręki. Opowiedz o tym naszemu przodkowi, chętnie wpatrywał się w ekran monitora i przesiadywał tam cały swój wolny czas w poszukiwaniu informacji.

To Internet wyniósł ludzkość na zasadniczo nowy poziom, przyczynia się do powstania nowej kultury – mieszanej lub wielorakiej. Przedstawiciele różnych narodów naśladują i dostosowują się, jakby łącząc swoje zwyczaje w jeden kocioł. Skąd zatem pochodzi produkt końcowy?

Jest to szczególnie przydatne dla naukowców, nie ma już konieczności gromadzenia się na konsultacjach w kraju oddalonym o 1000 km. Można wymieniać się doświadczeniami bez spotykania się osobiście, na przykład za pośrednictwem komunikatorów internetowych lub sieci społecznościowych. A jeśli trzeba omówić ważną kwestię, można to zrobić przez Skype.

Wniosek

Sieć WWW jest składnikiem Internetu. Jego działanie zapewniają serwery magazynujące, które na żądanie użytkownika udostępniają informacje. Sama Sieć powstała dzięki naukowcom z USA i ich entuzjazmowi.

Już dziś liczba użytkowników Internetu sięga 3,5 miliarda ludzi, co stanowi prawie połowę światowej populacji. I oczywiście każdy o tym wie Sieć WWW całkowicie pokryła naszą planetę. Ale wciąż nie każdy może powiedzieć, czy istnieje różnica między koncepcjami Internetu i sieci WWW. Co dziwne, wielu jest absolutnie pewnych, że są to synonimy, ale doświadczeni faceci mogą podać argumenty, które zmniejszą to zaufanie.

Co to internet?

Nie wchodząc w skomplikowane szczegóły techniczne, możemy to powiedzieć Internet to system łączący sieci komputerowe na całym świecie. Komputery dzielą się na dwie grupy – klienci i serwery.

Klienci nazywane są zwykłymi urządzeniami użytkownika, do których zaliczają się komputery osobiste, laptopy, tablety i oczywiście smartfony. Wysyłają żądanie, odbierają i wyświetlają informacje.

Wszystkie informacje przechowywane są na serwerach, które można klasyfikować według różnych celów:

  • serwer internetowy,
  • pocztowy,
  • czaty,
  • systemy transmisji radiowej i telewizyjnej,
  • udostępnianie plików.

Serwery to potężne komputery, które pracują w sposób ciągły. Oprócz przechowywania informacji odbierają zapytania od klientów i wysyłają niezbędną odpowiedź. Jednocześnie przetwarzają setki takich wniosków.

Również w naszym krótkim programie edukacyjnym nie sposób o tym nie wspomnieć Dostawcy Internetu, które zapewniają komunikację pomiędzy klientem a serwerem. Dostawca to organizacja posiadająca własny serwer internetowy, do którego podłączeni są wszyscy jej klienci. Dostawcy zapewniają komunikację za pośrednictwem kabla telefonicznego, dedykowanego kanału lub sieci bezprzewodowej.


W ten sposób zyskujesz dostęp do Internetu

Czy można obejść się bez dostawcy i połączyć się bezpośrednio z Internetem? Teoretycznie jest to możliwe! Będziesz musiał zostać własnym dostawcą i wydać ogromną ilość pieniędzy, aby dostać się do serwerów centralnych. Więc nie obwiniaj zbytnio swojego dostawcy Internetu za wysokie taryfy - ci goście również muszą płacić za wiele rzeczy i wydawać pieniądze na konserwację sprzętu.

Sieć WWW uwikłała cały świat

Sieć WWW lub po prostu sieć - „sieć”. Faktycznie jest reprezentowany przez ogromną liczbę połączonych ze sobą stron. Połączenie to zapewniają linki, za pomocą których można przemieszczać się z jednej strony na drugą, nawet jeśli znajduje się ona na innym podłączonym komputerze.


Sieć WWW jest najpopularniejszą i największą usługą internetową.

Sieć WWW wykorzystuje do działania specjalne serwery internetowe. Przechowują strony internetowe (jedną z nich teraz widzisz). Strony połączone linkami, posiadające wspólną tematykę, wygląd i znajdujące się zazwyczaj na tym samym serwerze nazywane są stronami internetowymi.

Do przeglądania stron internetowych i dokumentów używane są specjalne programy - przeglądarki.

Sieć WWW obejmuje fora, blogi i sieci społecznościowe. Ale jego działanie i istnienie bezpośrednio zapewnia Internet...

Czy jest duża różnica?

Tak naprawdę różnica pomiędzy Internetem a siecią WWW jest dość duża. Jeśli Internet jest ogromną siecią łączącą miliony komputerów na całym świecie w celu wymiany informacji, to sieć WWW jest tylko jednym ze sposobów wymiany tych informacji. Oprócz zapewnienia działania sieci WWW, Internet umożliwia korzystanie z poczty elektronicznej i różnych komunikatorów internetowych, a także przesyłanie plików za pośrednictwem protokołu FTP,

Internet jest tym, co łączy wiele sieci komputerowych.

Sieć WWW to wszystkie strony przechowywane na specjalnych serwerach internetowych.

Wniosek

Teraz już wiesz, że sieć WWW i sieć WWW to różne rzeczy. A co najważniejsze, będziesz mógł pochwalić się swoją inteligencją i wyjaśnić znajomym, na czym polega ta różnica.

Sieć WWW (WWW)

Sieć ogólnoświatowa(Język angielski) Sieć WWW) - system rozproszony zapewniający dostęp do wzajemnie powiązanych dokumentów znajdujących się na różnych komputerach podłączonych do Internetu. Słowo „sieć” jest również używane w odniesieniu do sieci WWW. sieć„web”) i skrót WWW. Sieć WWW to największe na świecie wielojęzyczne repozytorium informacji w formie elektronicznej: dziesiątki milionów wzajemnie powiązanych dokumentów znajdujących się na komputerach rozmieszczonych na całym świecie. Uważana jest za najpopularniejszą i najciekawszą usługę w Internecie, która pozwala na dostęp do informacji niezależnie od jej lokalizacji. Aby poznać wiadomości, dowiedzieć się czegoś lub po prostu dobrze się bawić, ludzie oglądają telewizję, słuchają radia, czytają gazety, czasopisma i książki. Sieć WWW oferuje swoim użytkownikom także audycje radiowe, informacje wideo, prasę, książki, z tą jednak różnicą, że to wszystko można uzyskać bez wychodzenia z domu. Nie ma znaczenia w jakiej formie prezentowane są interesujące Cię informacje (dokument tekstowy, fotografia, wideo czy fragment dźwiękowy) i gdzie geograficznie znajdują się te informacje (w Rosji, Australii czy Wybrzeżu Kości Słoniowej) – otrzymasz je w w ciągu kilku minut na Twoim komputerze.

Sieć WWW składa się z setek milionów serwerów internetowych. Większość zasobów w sieci WWW to hipertekst. Dokumenty hipertekstowe publikowane w sieci WWW nazywane są stronami internetowymi. Stroną internetową nazywa się kilka stron internetowych, które mają ten sam motyw, wygląd i łącza i które zwykle znajdują się na tym samym serwerze internetowym. Do pobierania i przeglądania stron internetowych używane są specjalne programy - przeglądarki. Sieć WWW spowodowała prawdziwą rewolucję w informatyce i gwałtowny rozwój Internetu. Często mówiąc o Internecie, mają na myśli sieć WWW, ale ważne jest, aby zrozumieć, że to nie to samo.

Historia sieci WWW

Za wynalazców sieci WWW uważa się Tima Bernersa-Lee i, w mniejszym stopniu, Roberta Caillota. Tim Berners-Lee jest twórcą technologii HTTP, URI/URL i HTML. W 1980 roku pracował dla Europejskiej Rady Badań Jądrowych (Conseil Européen pour la Recherche Nucléaire, CERN) jako konsultant ds. oprogramowania. To właśnie tam, w Genewie (Szwajcaria), napisał na własne potrzeby program Inquire, który wykorzystywał losowe skojarzenia do przechowywania danych i położył podwaliny koncepcyjne pod WWW.

W 1989 roku, pracując w CERN nad intranetem tej organizacji, Tim Berners-Lee zaproponował globalny projekt hipertekstowy, obecnie znany jako World Wide Web. Projekt zakładał publikację dokumentów hipertekstowych połączonych hiperłączami, co ułatwiłoby naukowcom CERN wyszukiwanie i konsolidację informacji. Aby wdrożyć projekt, Tim Berners-Lee (wraz ze swoimi asystentami) wynalazł identyfikatory URI, protokół HTTP i język HTML. To technologie, bez których nie da się już sobie wyobrazić współczesnego Internetu. W latach 1991–1993 Berners-Lee udoskonalił specyfikacje techniczne tych norm i opublikował je. Niemniej jednak za oficjalny rok narodzin sieci WWW należy uznać rok 1989.

W ramach projektu Berners-Lee napisał pierwszy na świecie serwer WWW httpd i pierwszą na świecie hipertekstową przeglądarkę internetową o nazwie WorldWideWeb. Przeglądarka ta była także edytorem WYSIWYG (skrót od What You See Is What You Get), którego rozwój rozpoczął się w październiku 1990 roku i zakończył w grudniu tego samego roku. Program działał w środowisku NeXTStep i zaczął rozprzestrzeniać się w Internecie latem 1991 roku.

Pierwsza na świecie witryna internetowa została uruchomiona przez Berners-Lee 6 sierpnia 1991 r. na pierwszym serwerze internetowym, dostępnym pod adresem http://info.cern.ch/. Zasób definiował pojęcie sieci WWW, zawierał instrukcje dotyczące instalacji serwera WWW, korzystania z przeglądarki itp. Strona ta była jednocześnie pierwszym na świecie katalogiem internetowym, ponieważ Tim Berners-Lee zamieścił później i utrzymywał listę linków do innych tamtejsze witryny.

Od 1994 roku główne prace nad rozwojem sieci WWW przejęło konsorcjum World Wide Web Consortium (W3C), założone i kierowane do dziś przez Tima Bernersa-Lee. Konsorcjum to jest organizacją opracowującą i wdrażającą standardy technologiczne dla Internetu i sieci WWW. Misja W3C: „Uwolnij pełny potencjał sieci WWW poprzez ustanowienie protokołów i zasad zapewniających długoterminowy rozwój sieci”. Dwa inne główne cele konsorcjum to zapewnienie pełnej „internacjonalizacji sieci” oraz udostępnienie sieci osobom niepełnosprawnym.

W3C opracowuje wspólne zasady i standardy dla Internetu (zwane „zaleceniami”, angielskie Zalecenia W3C), które są następnie wdrażane przez producentów oprogramowania i sprzętu. W ten sposób osiągana jest kompatybilność pomiędzy oprogramowaniem i sprzętem różnych firm, co czyni sieć WWW bardziej zaawansowaną, uniwersalną i wygodną. Wszystkie rekomendacje konsorcjum World Wide Web mają charakter otwarty, to znaczy nie są chronione patentami i mogą być wdrażane przez każdego, bez żadnego wkładu finansowego na rzecz konsorcjum.

Struktura i zasady sieci WWW

Sieć WWW składa się z milionów serwerów internetowych zlokalizowanych na całym świecie. Serwer WWW to program działający na komputerze podłączonym do sieci i wykorzystujący protokół HTTP do przesyłania danych. W najprostszej formie taki program odbiera przez sieć żądanie HTTP dotyczące określonego zasobu, znajduje odpowiedni plik na lokalnym dysku twardym i wysyła go przez sieć do żądającego komputera. Bardziej zaawansowane serwery internetowe są w stanie dynamicznie generować dokumenty w odpowiedzi na żądanie HTTP przy użyciu szablonów i skryptów.

Do przeglądania informacji otrzymanych z serwera WWW służy na komputerze klienckim specjalny program – przeglądarka internetowa. Główną funkcją przeglądarki internetowej jest wyświetlanie hipertekstu. Sieć WWW jest nierozerwalnie związana z pojęciami hipertekstu i hiperłączy. Większość informacji w Internecie to hipertekst.

Aby ułatwić tworzenie, przechowywanie i wyświetlanie hipertekstu w sieci WWW, tradycyjnie używany jest język HTML (HyperText Markup Language). Praca nad tworzeniem (oznaczaniem) dokumentów hipertekstowych nazywa się układem i wykonuje ją webmaster lub odrębny specjalista od znaczników - projektant układu. Po znacznikach HTML powstały dokument jest zapisywany w pliku, a takie pliki HTML są głównym rodzajem zasobów w sieci WWW. Gdy plik HTML zostanie udostępniony serwerowi internetowemu, nazywa się go „stroną internetową”. Zbiór stron internetowych tworzy witrynę internetową.

Hipertekst stron internetowych zawiera hiperłącza. Hiperłącza ułatwiają użytkownikom sieci World Wide Web łatwe nawigowanie pomiędzy zasobami (plikami), niezależnie od tego, czy zasoby te znajdują się na komputerze lokalnym, czy na serwerze zdalnym. Aby określić lokalizację zasobów w sieci WWW, stosuje się jednolite lokalizatory zasobów (URL). Na przykład pełny adres URL strony głównej rosyjskiej sekcji Wikipedii wygląda następująco: http://ru.wikipedia.org/wiki/Main_page. Takie lokalizatory URL łączą w sobie technologię identyfikacji URI (Uniform Resource Identifier) ​​i system nazw domen DNS (Domain Name System). Nazwa domeny (w tym przypadku ru.wikipedia.org) jako część adresu URL oznacza komputer (a dokładniej jeden z jego interfejsów sieciowych), który wykonuje kod żądanego serwera WWW. Adres URL bieżącej strony można zwykle zobaczyć w pasku adresu przeglądarki, chociaż wiele nowoczesnych przeglądarek woli domyślnie wyświetlać tylko nazwę domeny bieżącej witryny.

Technologie WWW

Aby poprawić wizualną percepcję sieci, szeroko zastosowano technologię CSS, która pozwala ustawić jednolite style projektowania dla wielu stron internetowych. Kolejną innowacją, na którą warto zwrócić uwagę, jest system nazewnictwa zasobów URN (Uniform Resource Name).

Popularną koncepcją rozwoju sieci WWW jest utworzenie sieci semantycznej. Sieć semantyczna to dodatek do istniejącej sieci WWW, którego zadaniem jest uczynienie informacji zamieszczanych w sieci bardziej zrozumiałymi dla komputerów. Sieć semantyczna to koncepcja sieci, w której każdy zasób w języku ludzkim miałby opis zrozumiały dla komputera. Sieć semantyczna otwiera dostęp do przejrzyście ustrukturyzowanych informacji dla dowolnej aplikacji, niezależnie od platformy i niezależnie od języków programowania. Programy będą mogły same znajdować niezbędne zasoby, przetwarzać informacje, klasyfikować dane, identyfikować powiązania logiczne, wyciągać wnioski, a nawet podejmować decyzje na podstawie tych wniosków. Sieć semantyczna, jeśli zostanie powszechnie przyjęta i mądrze wdrożona, może wywołać rewolucję w Internecie. Aby utworzyć czytelny maszynowo opis zasobu w sieci semantycznej, używany jest format RDF (Resource Opis Framework), który opiera się na składni XML i wykorzystuje identyfikatory URI do identyfikacji zasobów. Nowościami w tym obszarze są RDFS (schemat RDF) i SPARQL (język zapytań protokołu i RDF), nowy język zapytań umożliwiający szybki dostęp do danych RDF.

Podstawowe terminy używane w sieci WWW

Praca z przeglądarką

Dziś, dziesięć lat po wynalezieniu protokołu HTTP, który stał się podstawą sieci WWW, przeglądarka jest bardzo złożonym oprogramowaniem, które łączy w sobie łatwość obsługi i bogactwo możliwości.
Przeglądarka nie tylko otwiera użytkownikowi świat zasobów hipertekstowych w sieci WWW. Może także współpracować z innymi usługami internetowymi, takimi jak FTP, Gopher, WAIS. Oprócz przeglądarki na komputerze instalowany jest zwykle program do obsługi poczty elektronicznej i serwisów informacyjnych. Zasadniczo przeglądarka jest głównym programem umożliwiającym dostęp do usług internetowych. Dzięki niemu możesz uzyskać dostęp do prawie każdej usługi internetowej, nawet jeśli przeglądarka nie obsługuje pracy z tą usługą. W tym celu wykorzystywane są specjalnie zaprogramowane serwery internetowe, które łączą sieć WWW z tą usługą sieciową. Przykładem tego rodzaju serwerów internetowych są liczne bezpłatne serwery pocztowe z interfejsem internetowym (patrz http://www.mail.ru)
Obecnie istnieje wiele programów przeglądarkowych stworzonych przez różne firmy. Najszerzej używanymi i rozpoznawalnymi przeglądarkami są Netscape Navigator i Internet Explorer. To właśnie te przeglądarki stanowią dla siebie główną konkurencję, choć warto zaznaczyć, że programy te są pod wieloma względami podobne. Jest to zrozumiałe, ponieważ działają według tych samych standardów - standardów internetowych.
Praca z przeglądarką rozpoczyna się od wpisania przez użytkownika w pasku adresu (adresu) adresu URL zasobu, do którego chce uzyskać dostęp, i naciśnięcia klawisza Enter.

Przeglądarka wysyła żądanie do określonego serwera internetowego. W miarę jak elementy strony internetowej określonej przez użytkownika przychodzą z serwera, stopniowo pojawiają się one w działającym oknie przeglądarki. Proces odbierania elementów strony z serwera wyświetlany jest w dolnej linii „statusu” przeglądarki.

Hiperłącza tekstowe zawarte na wynikowej stronie internetowej są zazwyczaj wyróżnione innym kolorem niż reszta tekstu dokumentu i podkreślone. Linki kierujące do zasobów, których użytkownik jeszcze nie przeglądał oraz linki do zasobów, które użytkownik już odwiedził, mają zazwyczaj inny kolor. Obrazy mogą również pełnić funkcję hiperłączy. Niezależnie od tego czy link jest linkiem tekstowym czy graficznym, najechanie na niego myszką powoduje zmianę jego kształtu. Jednocześnie w pasku stanu przeglądarki pojawi się adres, na który prowadzi odnośnik.

Po kliknięciu hiperłącza przeglądarka otwiera w oknie roboczym zasób, na który wskazuje, a poprzedni zasób zostaje z niego wyładowany. Przeglądarka przechowuje listę przeglądanych stron, a użytkownik w razie potrzeby może cofnąć się w łańcuchu przeglądanych stron. Aby to zrobić, kliknij przycisk „Wstecz” w menu przeglądarki - nastąpi powrót do strony, którą przeglądałeś przed otwarciem bieżącego dokumentu.
Za każdym razem, gdy klikniesz ten przycisk, przeglądarka cofnie się o jeden dokument na liście odwiedzonych dokumentów. Jeśli nagle cofniesz się za daleko, użyj przycisku „Dalej” w menu przeglądarki. Ułatwi Ci to poruszanie się po liście dokumentów.
Przycisk „Stop” zatrzyma ładowanie dokumentu. Przycisk „Załaduj ponownie” umożliwia ponowne załadowanie bieżącego dokumentu z serwera.
Przeglądarka może wyświetlić w swoim oknie tylko jeden dokument: aby wyświetlić inny dokument, usuwa poprzedni. Dużo wygodniej jest pracować w kilku oknach przeglądarki jednocześnie. Otwarcie nowego okna odbywa się za pomocą menu: Plik – Nowy – Okno (lub kombinacji klawiszy Ctrl+N).

Praca z dokumentem

Przeglądarka umożliwia wykonanie zestawu standardowych operacji na dokumencie. Załadowaną do niego stronę internetową można wydrukować (w przeglądarce Internet Explorer odbywa się to za pomocą przycisku „Drukuj” lub z menu: Plik – Drukuj...), zapisać na dysku (menu: Plik – Zapisz jako...). Na załadowanej stronie możesz znaleźć interesujący Cię fragment tekstu. W tym celu należy skorzystać z menu: Edycja – Znajdź na tej stronie.... A jeżeli ciekawi Cię jak wygląda ten dokument w oryginalnym hipertekście przetworzonym przez przeglądarkę, wybierz z menu: Widok - Jako HTML.
Kiedy użytkownik przeglądając Internet znajdzie stronę, która szczególnie go interesuje, korzysta z możliwości, jakie dają przeglądarki, aby ustawić zakładki (podobnie jak zakładki oznaczające interesujące fragmenty książki).
Odbywa się to poprzez menu: Ulubione – Dodaj do ulubionych. Następnie nowa zakładka pojawia się na liście zakładek, którą można przeglądać klikając przycisk „Ulubione” na panelu przeglądarki lub poprzez menu Ulubione.
Istniejące zakładki można usuwać, edytować lub organizować w foldery za pomocą menu: Ulubione – Organizuj ulubione.

Praca poprzez serwer proxy

Netscape Navigator i Microsoft Internet Explorer udostępniają także zewnętrznym dostawcom mechanizm umożliwiający wbudowanie dodatkowej funkcjonalności. Moduły rozszerzające możliwości przeglądarki nazywane są wtyczkami.
Przeglądarki działają na komputerach z wieloma różnymi systemami operacyjnymi. Daje to podstawy do mówienia o niezależności sieci WWW od rodzaju komputera i systemu operacyjnego, z którego korzysta użytkownik.

Wyszukiwanie informacji w Internecie

W ostatnim czasie sieć WWW jest postrzegana jako nowe, potężne środki masowego przekazu, którego odbiorcami jest najbardziej aktywna i wykształcona część populacji planety. Wizja ta odpowiada stanowi rzeczywistemu. W dni znaczących wydarzeń i wstrząsów obciążenie węzłów informacyjnych sieci gwałtownie wzrasta; w odpowiedzi na zapotrzebowanie czytelników natychmiast pojawiają się zasoby poświęcone zdarzeniu, które właśnie miało miejsce. Tym samym w czasie sierpniowego kryzysu 1998 r. wiadomości pojawiły się na stronie internetowej spółki telewizyjno-radiowej CNN (http://www.cnn.com) znacznie wcześniej, niż informowały o nich rosyjskie media. W tym samym czasie szeroko znany stał się serwer RIA RosBusinessConsulting (http://www.rbc.ru), który dostarcza najświeższych informacji z rynków finansowych i najświeższych wiadomości. Wielu Amerykanów oglądało głosowanie w sprawie impeachmentu prezydenta USA Billa Clintona w Internecie, a nie na ekranach telewizorów. Rozwój wojny w Jugosławii znalazł także natychmiastowe odzwierciedlenie w różnorodnych publikacjach odzwierciedlających różnorodne punkty widzenia na ten konflikt.
Wiele osób bardziej zaznajomionych z Internetem ze słyszenia wierzy, że w Internecie można znaleźć wszelkie informacje. Jest to prawdą w tym sensie, że można tam natknąć się na najbardziej nieoczekiwane zasoby pod względem formy i treści. Rzeczywiście, współczesna sieć jest w stanie zaoferować użytkownikowi wiele informacji o różnorodnych profilach. Można tu zapoznać się z aktualnościami, ciekawie spędzić czas i uzyskać dostęp do szeregu informacji referencyjnych, encyklopedycznych i edukacyjnych. Należy jedynie podkreślić, że choć ogólna wartość informacyjna Internetu jest bardzo duża, sama przestrzeń informacyjna jest niejednorodna pod względem jakości, gdyż zasoby często powstają w pośpiechu. Jeśli podczas przygotowywania publikacji papierowej jej tekst czyta zwykle kilku recenzentów i wprowadzane są w nim poprawki, to w Internecie zazwyczaj nie ma tego etapu procesu wydawniczego. Ogólnie rzecz biorąc, informacje zaczerpnięte z Internetu należy traktować z nieco większą ostrożnością niż informacje zawarte w publikacji drukowanej.
Jednak obfitość informacji ma również swoją negatywną stronę: w miarę wzrostu ilości informacji coraz trudniej jest znaleźć informacje, które są w danej chwili potrzebne. Dlatego najważniejszym problemem pojawiającym się podczas pracy z siecią jest szybkie znalezienie niezbędnych informacji i zrozumienie ich, aby ocenić wartość informacyjną konkretnego zasobu dla swoich celów.

Aby rozwiązać problem znalezienia niezbędnych informacji w Internecie, istnieje odrębny rodzaj usługi sieciowej. Mówimy o serwerach wyszukiwania lub wyszukiwarkach.
Serwery wyszukiwania są dość liczne i zróżnicowane. Zwyczajowo rozróżnia się indeksy wyszukiwania i katalogi.
Serwery indeksujące Działają w następujący sposób: regularnie zapoznają się z zawartością większości stron internetowych („indeksują je”) i umieszczają je w całości lub w części we wspólnej bazie danych. Użytkownicy wyszukiwarek mają możliwość przeszukiwania tej bazy za pomocą słów kluczowych związanych z interesującą ich tematyką. Wyniki wyszukiwania składają się zazwyczaj z fragmentów stron polecanych użytkownikowi oraz ich adresów (URL), sformatowanych w formie hiperłączy. Wygodnie jest pracować z tego typu serwerami wyszukiwania, jeśli masz jasne pojęcie o temacie wyszukiwania.
Serwery katalogowe W istocie reprezentują wielopoziomową klasyfikację powiązań, zbudowaną na zasadzie „od ogółu do szczegółu”. Czasami linkom towarzyszy krótki opis zasobu. Z reguły można wyszukiwać w nazwach tytułów (kategorii) i opisach zasobów za pomocą słów kluczowych. Z katalogów korzysta się wtedy, gdy nie wiadomo dokładnie, czego szukają. Przechodząc od kategorii najbardziej ogólnych do bardziej szczegółowych, możesz określić, z którym konkretnym zasobem internetowym powinieneś się zapoznać. Właściwe jest porównywanie katalogów wyszukiwania z tematycznymi katalogami bibliotek lub klasyfikatorami. Obsługa katalogów wyszukiwania jest częściowo zautomatyzowana, jednak dotychczas klasyfikacja zasobów odbywa się głównie ręcznie.
Katalogi wyszukiwania są powszechne spotkania I wyspecjalizowane. Katalogi wyszukiwania ogólnego przeznaczenia obejmują zasoby o szerokiej gamie profili. Katalogi specjalistyczne łączą wyłącznie zasoby poświęcone określonej tematyce. Często udaje im się osiągnąć lepsze pokrycie zasobów w swojej dziedzinie i zbudować bardziej adekwatne kategorie.
W ostatnim czasie intensywnie integrowano katalogi wyszukiwania ogólnego i serwery wyszukiwania indeksującego, skutecznie łącząc ich zalety. Technologie wyszukiwania również nie stoją w miejscu. Tradycyjne serwery indeksujące przeszukują bazę danych w poszukiwaniu dokumentów zawierających słowa kluczowe z wyszukiwanego hasła. Przy takim podejściu bardzo trudno jest ocenić wartość i jakość zasobu udostępnionego użytkownikowi. Alternatywnym podejściem jest poszukiwanie stron internetowych, do których prowadzą linki z innych zasobów na dany temat. Im więcej linków do strony znajduje się w Internecie, tym większe prawdopodobieństwo, że ją znajdziesz. Ten rodzaj metawyszukiwania jest przeprowadzany przez serwer wyszukiwania Google ( http://www.google.com/), który pojawił się całkiem niedawno, ale już sprawdził się znakomicie.

Współpraca z serwerami wyszukiwania

Praca z serwerami wyszukiwania nie jest trudna. W pasku adresu przeglądarki wpisz jej adres, w wierszu zapytania wpisz w żądanym języku słowa kluczowe lub frazę odpowiadającą zasobowi lub zasobom sieci, które chcesz znaleźć. Następnie należy kliknąć przycisk „Szukaj”, a do działającego okna przeglądarki zostanie załadowana pierwsza strona z wynikami wyszukiwania.

Zazwyczaj serwer wyszukiwania generuje wyniki wyszukiwania w małych porcjach, na przykład 10 na stronę wyszukiwania. Dlatego często zajmują więcej niż jedną stronę. Następnie pod listą polecanych linków pojawi się link umożliwiający przejście do kolejnej „fragmentu” wyników wyszukiwania (patrz rysunek).

W idealnym przypadku serwer wyszukiwania umieści szukany zasób na pierwszej stronie wyników wyszukiwania, a żądany link natychmiast rozpoznasz na podstawie krótkiego opisu. Często jednak trzeba przejrzeć kilka zasobów, zanim znajdzie się ten właściwy. Zazwyczaj użytkownik przegląda je w nowych oknach przeglądarki bez zamykania okna przeglądarki z wynikami wyszukiwania. Czasami wyszukiwanie i przeglądanie znalezionych zasobów odbywa się w tym samym oknie przeglądarki.
Sukces wyszukiwania informacji zależy bezpośrednio od tego, jak kompetentnie ułożyłeś zapytanie.
Spójrzmy na prosty przykład. Załóżmy, że chcesz kupić komputer, ale nie wiesz, jakie modyfikacje istnieją dzisiaj i jakie są ich cechy. Aby uzyskać potrzebne informacje, możesz skorzystać z Internetu, zadając pytanie wyszukiwarce. Jeśli w wyszukiwarkę wpiszemy słowo „komputer”, efektem wyszukiwania będzie ponad 6 milionów (!) linków. Oczywiście wśród nich znajdują się strony spełniające nasze wymagania, jednak wśród tak dużej liczby nie da się ich znaleźć.
Jeśli napiszesz „jakie modyfikacje komputerów istnieją dzisiaj”, serwer wyszukiwania zaproponuje Ci przeglądanie około dwustu stron, ale żadna z nich nie będzie ściśle odpowiadać żądaniu. Innymi słowy, zawierają one pojedyncze słowa z Twojej prośby, ale być może w ogóle nie mówią o komputerach, ale powiedzmy o istniejących modyfikacjach pralek lub o liczbie komputerów dostępnych w danym dniu w magazynie firmy.
Ogólnie rzecz biorąc, nie zawsze możliwe jest pomyślne zadanie pytania serwerowi wyszukiwania za pierwszym razem. Jeśli zapytanie jest krótkie i zawiera tylko często używane słowa, można znaleźć wiele dokumentów, setki tysięcy i miliony. I odwrotnie, jeśli Twoje żądanie okaże się zbyt szczegółowe lub użyte zostaną bardzo rzadkie słowa, pojawi się komunikat informujący, że w bazie danych serwera nie znaleziono żadnych zasobów pasujących do Twojego żądania.
Stopniowe zawężanie lub rozszerzanie zakresu wyszukiwania poprzez zwiększanie lub zmniejszanie listy słów kluczowych lub zastępowanie nieudanych wyszukiwanych haseł skuteczniejszymi pomoże Ci poprawić wyniki wyszukiwania.
Oprócz liczby słów, w zapytaniu ważną rolę odgrywa ich treść. Słowa kluczowe tworzące wyszukiwane hasło są zwykle po prostu oddzielone spacjami. Należy pamiętać, że różne wyszukiwarki różnie to interpretują. Niektórzy z nich wybierają dla takiego żądania jedynie dokumenty zawierające wszystkie słowa kluczowe, czyli postrzegają przestrzeń w żądaniu jako logiczny łącznik „i”. Niektórzy interpretują spację jako logiczne „lub” i wyszukują dokumenty zawierające przynajmniej jedno ze słów kluczowych.
Podczas tworzenia zapytania wyszukiwania większość serwerów umożliwia jawne określenie połączeń logicznych łączących słowa kluczowe i ustawiających inne parametry wyszukiwania. Łączniki logiczne są zwykle oznaczane za pomocą angielskich słów „AND”, „OR”, „NOT”. Różne serwery wyszukiwania używają różnej składni podczas tworzenia rozszerzonego zapytania wyszukiwania – tak zwanego języka zapytań. Za pomocą języka zapytań możesz określić, które słowa muszą pojawić się w dokumencie, które nie powinny się w nim znaleźć, a które są pożądane (to znaczy mogą istnieć lub nie).
Z reguły nowoczesne wyszukiwarki wykorzystują wszystkie możliwe formy słów używanych podczas wyszukiwania. Oznacza to, że niezależnie od formy, w jakiej użyłeś słowa w zapytaniu, wyszukiwanie uwzględnia wszystkie jego formy zgodnie z zasadami języka rosyjskiego: na przykład, jeśli zapytanie brzmi „idź”, wynik wyszukiwania znajdzie linki do dokumentów zawierających słowa „idź”, „idzie”, „chodził”, „poszedł” itp.
Zazwyczaj na stronie tytułowej serwera wyszukiwania znajduje się link „Pomoc”, po kliknięciu w który użytkownik może zapoznać się z regułami wyszukiwania i językiem zapytań używanym na tym serwerze.
Kolejnym bardzo ważnym punktem jest wybór serwera wyszukiwania odpowiedniego do Twoich zadań. Jeśli szukasz konkretnego pliku, lepiej skorzystać ze specjalistycznego serwera wyszukiwania, który indeksuje nie strony internetowe, ale archiwa plików w Internecie. Przykładem takich serwerów wyszukiwania jest FTP Search (http://ftpsearch.lycos.com), a do wyszukiwania plików w rosyjskich archiwach lepiej jest użyć rosyjskiego odpowiednika - http://www.filesearch.ru.
Aby wyszukać oprogramowanie, skorzystaj z archiwów oprogramowania, takich jak http://www.tucows.com/, http://www.windows95.com, http://www.freeware.ru.
Jeżeli strona, której szukasz znajduje się w rosyjskiej części Internetu, warto skorzystać z rosyjskich wyszukiwarek. Działają lepiej z zapytaniami wyszukiwania w języku rosyjskim i są wyposażone w interfejs w języku rosyjskim.
Tabela 1 zawiera listę najbardziej znanych wyszukiwarek ogólnego przeznaczenia. Wszystkie te serwery oferują obecnie zarówno wyszukiwanie pełnotekstowe, jak i według kategorii, łącząc w ten sposób zalety serwera indeksującego i serwera katalogowego.

Http, który pozwoli na obsługę długoterminowego połączenia, transmisję danych w wielu strumieniach, dystrybucję kanałów transmisji danych i zarządzanie nimi. Jeśli zostanie zaimplementowany i wspierany przez standardowe oprogramowanie WWW, wyeliminuje wspomniane wady. Innym sposobem jest użycie nawigatorów, które mogą lokalnie uruchamiać programy w językach interpretowanych, takich jak projekt Java firmy Sun Microsystems. Innym rozwiązaniem tego problemu jest zastosowanie technologii AJAX, bazującej na XML i JavaScript. Dzięki temu możesz otrzymać dodatkowe dane z serwera, gdy strona WWW została już załadowana z serwera.

Obecnie istnieją dwa trendy w rozwoju sieci WWW: sieć semantyczna i sieć semantyczna

Istnieje również popularna koncepcja Web 2.0, która podsumowuje kilka kierunków rozwoju sieci WWW.

Sieć 2.0

Rozwój WWW w ostatnim czasie dokonał się znacząco poprzez aktywne wprowadzanie nowych zasad i technologii, zbiorczo zwanych Web 2.0 (Web 2.0). Sam termin Web 2.0 pojawił się po raz pierwszy w 2004 roku i ma zobrazować jakościowe zmiany, jakie zaszły w sieci WWW w drugiej dekadzie jej istnienia. Web 2.0 jest logicznym ulepszeniem sieci. Główną cechą jest usprawnienie i przyspieszenie interakcji stron internetowych z użytkownikami, co doprowadziło do szybkiego wzrostu aktywności użytkowników. To pojawiło się w:

  • uczestnictwo w społecznościach internetowych (w szczególności na forach);
  • umieszczanie komentarzy na stronach internetowych;
  • prowadzenie dzienników osobistych (blogów);
  • umieszczanie linków na stronach WWW.

Web 2.0 wprowadziła aktywną wymianę danych, w szczególności:

  • eksportuj wiadomości między witrynami;
  • aktywne agregowanie informacji ze stron internetowych.
  • użycie interfejsu API do oddzielenia danych witryny od samej witryny

Z punktu widzenia realizacji stron internetowych, Web 2.0 zwiększa wymagania dotyczące prostoty i wygody stron internetowych dla zwykłych użytkowników i ma na celu szybki spadek kwalifikacji użytkowników w najbliższej przyszłości. Na pierwszy plan wysuwa się zgodność z listą standardów i konsensusów (W3C). Jest to w szczególności:

  • standardy dotyczące wyglądu i funkcjonalności stron internetowych;
  • standardowe wymagania (SEO) wyszukiwarek;
  • XML i otwarte standardy wymiany informacji.

Z drugiej strony Web 2.0 upadł:

  • wymagania dotyczące „jasności” i „kreatywności” projektu i treści;
  • potrzeby kompleksowych stron internetowych ([http://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1 %82 -%D0%BF%D0%BE%D1%80%D1%82%D0%B0%D0%BB ]);
  • znaczenie reklamy offline;
  • zainteresowanie biznesowe dużymi projektami.

Tym samym Web 2.0 zarejestrował przejście WWW od pojedynczych, drogich i skomplikowanych rozwiązań do witryn o dużej liczbie typów, tanich, łatwych w obsłudze i umożliwiających efektywną wymianę informacji. Głównymi powodami tego przejścia były:

  • krytyczny brak wysokiej jakości treści informacyjnych;
  • potrzeba aktywnego wyrażania siebie użytkownika w sieci WWW;
  • rozwój technologii wyszukiwania i agregowania informacji w Internecie.

Przejście na zestaw technologii Web 2.0 ma następujące konsekwencje dla globalnej przestrzeni informacyjnej WWW, takie jak:

  • o powodzeniu projektu decyduje poziom aktywnej komunikacji pomiędzy użytkownikami projektu oraz poziom jakości treści informacyjnych;
  • strony internetowe mogą osiągnąć wysoką wydajność i rentowność bez dużych inwestycji dzięki skutecznemu pozycjonowaniu w sieci WWW;
  • indywidualni użytkownicy WWW mogą osiągnąć znaczący sukces w realizacji swoich planów biznesowych i twórczych w WWW, nie posiadając własnych stron internetowych;
  • koncepcja osobistej strony internetowej jest gorsza od koncepcji „blogu”, „kolumny autorskiej”;
  • pojawiają się zasadniczo nowe role dla aktywnego użytkownika WWW (moderator forum, autorytatywny uczestnik forum, bloger).

Przykłady Web 2.0
Oto kilka przykładów witryn ilustrujących technologie Web 2.0, które faktycznie zmieniły środowisko WWW. Jest to w szczególności:

Oprócz tych projektów istnieją inne projekty, które kształtują współczesne środowisko globalne i opierają się na aktywności ich użytkowników. Serwisy, których treść i popularność kształtują się przede wszystkim nie wysiłkiem i zasobami ich właścicieli, ale społecznością użytkowników zainteresowanych rozwojem serwisu, stanowią nową klasę usług, która określa zasady globalne środowisko WWW.

Witam, drodzy czytelnicy bloga. Wszyscy żyjemy w dobie globalnego Internetu i dość często i bez szczególnego wchodzenia w to, co to jest, używamy terminów witryna, sieć, www (World Wide Web - World Wide Web, sieć globalna).

To samo obserwuję u innych autorów, a nawet zwykłych rozmówców. „Strona”, „Internet”, „sieć” czy skrót „WWW” stały się dla nas pojęciami tak powszechnymi, że nawet nie przychodzi nam do głowy myśleć o ich istocie. Jednak pierwsza strona internetowa narodziła się dopiero jakieś dwadzieścia lat temu. Co to internet?

Przecież ma dość długą historię, jednak przed pojawieniem się globalnej sieci (WWW) 99,9% mieszkańców planety nawet nie podejrzewało jej istnienia, bo było mnóstwo specjalistów i pasjonatów. Teraz nawet Eskimosi wiedzą o sieci WWW, w której języku słowo to utożsamia się ze zdolnością szamanów do znajdowania odpowiedzi w warstwach wszechświata. Odkryjmy więc sami, czym jest Internet, strona internetowa, sieć WWW i wszystko inne.

Czym jest Internet i czym różni się od sieci WWW

Najbardziej niezwykłym faktem, jaki można teraz stwierdzić, jest to, że Internet nie ma właściciela. W istocie jest to połączenie poszczególnych sieci lokalnych (dzięki przyjętym po przyjęciu wspólnym standardom, a mianowicie protokołowi TCP/IP), które utrzymywane są w dobrym stanie przez dostawców sieci.

Uważa się, że ze względu na stale rosnący ruch medialny (wideo i inne ciężkie treści przemieszczające się tonami w sieci) Internet wkrótce ulegnie załamaniu ze względu na obecnie ograniczoną przepustowość. Głównym problemem w tym zakresie jest aktualizacja sprzętu sieciowego składającego się na globalną sieć na sprzęt o większej szybkości, co utrudniają przede wszystkim wymagane dodatkowe koszty. Myślę jednak, że problem zostanie rozwiązany w miarę dojrzewania załamania i istnieją już oddzielne segmenty sieci działające z dużymi prędkościami.

Generalnie, biorąc pod uwagę fakt, że Internet w zasadzie nie jest niczyi, należy wspomnieć, że wiele państw, próbując wprowadzić cenzurę w sieci globalnej, chce się z nim utożsamiać (a mianowicie z jego obecnie najpopularniejszym komponentem WWW).

Ale w rzeczywistości nie ma podstaw do tego pragnienia, ponieważ Internet to tylko środek komunikacji lub innymi słowy nośnik danych porównywalny z telefonem lub nawet zwykłym papierem. Spróbuj nałożyć sankcje na papier lub jego dystrybucję na całej planecie. Tak naprawdę poszczególne państwa mogą nakładać określone sankcje jedynie na witryny (wyspy informacji w sieci), które stają się dostępne dla użytkowników za pośrednictwem sieci WWW.

Podjęto pierwsze przesłanki do powstania globalnej sieci i Internetu... Jak myślisz, który rok? Co zaskakujące, jeszcze w szalonych czasach 1957 roku. Naturalnie wojsko (i oczywiście Stany Zjednoczone, gdzie bylibyśmy bez nich) potrzebowało takiej sieci do komunikacji w przypadku operacji wojskowych z użyciem broni nuklearnej. Tworzenie sieci trwało dość długo (około 12 lat), ale można to wytłumaczyć faktem, że komputery były wówczas w powijakach.

Niemniej jednak ich siła była wystarczająca, aby do 1971 roku stworzyć szansę między departamentami wojskowymi a wiodącymi amerykańskimi uniwersytetami. W ten sposób powstał protokół przesyłania wiadomości e-mail pierwszy sposób korzystania z Internetu dla potrzeb użytkownika. Po kilku kolejnych ludzie z zagranicy już wiedzieli, czym jest Internet. Na początku lat 80. ujednolicono główne protokoły przesyłania danych (poczta, ) i pojawił się protokół tzw. konferencji prasowych Usenet, który był podobny do poczty, ale umożliwiał organizowanie czegoś na wzór forów.

A kilka lat później pojawił się pomysł stworzenia systemu nazw domenowych (DNS – będzie odgrywał kluczową rolę w powstaniu WWW) i pierwszy na świecie protokół komunikacji przez Internet w czasie rzeczywistym – IRC (w języku potoczny rosyjski - irka) pojawiła się. Pozwoliło to na rozmowę online. Science fiction, która była dostępna i interesująca dla bardzo, bardzo małej liczby mieszkańców planety Ziemia. Ale to tylko na razie.

Na przełomie lat 80. i 90. w historii rozwoju infrastruktury miały miejsce tak znaczące wydarzenia, że ​​de facto przesądziły o jej dalszych losach. Ogólnie rzecz biorąc, takie rozprzestrzenianie się globalnej sieci w umysłach współczesnych mieszkańców planety jest zasługą niemal jednej osoby - Tima Bernersa-Lee:

Berners-Lee to Anglik urodzony w rodzinie dwóch matematyków, którzy poświęcili swoje życie stworzeniu jednego z pierwszych komputerów na świecie. To dzięki niemu świat dowiedział się czym jest Internet, strona internetowa, poczta elektroniczna itp. Początkowo tworzył sieć WWW (WWW) na potrzeby badań jądrowych w Cern (mają ten sam zderzacz). Zadanie polegało na wygodnym umieszczeniu wszelkich informacji naukowych dostępnych koncernowi we własnej sieci.

Aby rozwiązać ten problem, wymyślił wszystko, co jest obecnie podstawowymi elementami WWW (co uważamy za Internet, nie rozumiejąc ani trochę jego istoty). Za podstawę przyjął zasadę porządkowania informacji zwaną. Co to jest? Zasada ta została wymyślona dużo wcześniej i polegała na takim uporządkowaniu tekstu, aby liniowość narracji została zastąpiona możliwością poruszania się po różnych ogniwach (połączeniach).

Internet to hipertekst, hiperłącza, adresy URL i sprzęt

Dzięki temu hipertekst można czytać w różnej kolejności, uzyskując w ten sposób różne wersje tekstu linearnego (no cóż, teraz powinno to być dla Was, jako doświadczonych internautów, jasne i oczywiste, ale wtedy była to rewolucja). Rolą powinny być węzły hipertekstu, które teraz nazywamy po prostu linkami.

W rezultacie wszystkie informacje istniejące obecnie na komputerach można przedstawić w postaci jednego dużego hipertekstu, który zawiera niezliczoną liczbę węzłów (hiperłącza). Wszystko, co opracował Tim Berners-Lee, zostało przeniesione z lokalnej sieci CERN do tego, co obecnie nazywamy Internetem, po czym sieć zaczęła zyskiwać na popularności w zawrotnym tempie (pierwsze pięćdziesiąt milionów użytkowników sieci WWW zarejestrowało się zaledwie w pierwszym pięć lat istnienia).

Aby jednak wdrożyć zasadę hipertekstu i hiperłączy, konieczne było stworzenie i opracowanie kilku rzeczy od razu. Po pierwsze, potrzebowaliśmy nowego protokołu przesyłania danych, który jest już wam wszystkim znany Protokół HTTP(na początku każdego adresu strony internetowej znajdziesz wzmiankę o niej lub o jej bezpiecznej wersji HTTPs).

Po drugie, został opracowany od podstaw, którego skrót znają obecnie wszyscy webmasterzy na świecie. Otrzymaliśmy więc narzędzia do przesyłania danych i tworzenia stron internetowych (zestawu stron internetowych lub dokumentów internetowych). Ale jak można powoływać się na te same dokumenty?

Pierwsza umożliwiała identyfikację dokumentu na odrębnym serwerze (stronie), druga umożliwiała pomieszanie nazwy domeny (uzyskanej i jednoznacznie wskazującej, że dokument należy do strony internetowej hostowanej na konkretnym serwerze) lub adresu IP (unikalny identyfikator cyfrowy absolutnie wszystkich urządzeń w sieci globalnej lub lokalnej) do identyfikatora URI. ). Więcej na ten temat przeczytasz w podanym linku.

Pozostał już tylko jeden krok, aby sieć WWW wreszcie zaczęła działać i stała się popularna wśród użytkowników. Czy wiesz który?

No cóż, oczywiście potrzebowaliśmy programu, który mógłby wyświetlić na komputerze użytkownika zawartość dowolnej strony internetowej, o którą poprosimy w Internecie (przy użyciu adresu URL). Stało się takim programem. Jeśli mówimy o dniu dzisiejszym, to głównych graczy na tym rynku nie jest zbyt wielu, a o wszystkich udało mi się napisać w krótkiej recenzji:

  1. (IE, MSIE) - stara gwardia nadal służy
  2. (Mazila Firefox) - kolejny weteran nie zamierza oddać swojej pozycji bez walki
  3. (Google Chrome) - ambitny nowicjusz, któremu udało się objąć prowadzenie w najkrótszym możliwym czasie
  4. - przeglądarka ukochana przez wielu w RuNet, ale stopniowo tracąca popularność
  5. - posłaniec z młyna jabłkowego

Timothy John Berners-Lee niezależnie napisał program dla pierwszej na świecie przeglądarki internetowej i bez zbędnych ceregieli nazwał ją World Wide Web. Choć nie była to granica doskonałości, to właśnie z tej przeglądarki rozpoczął się zwycięski marsz sieci WWW po całej planecie.

Ogólnie rzecz biorąc, uderzające jest to, że wszystkie niezbędne narzędzia współczesnego Internetu (czyli jego najpopularniejszego elementu) zostały stworzony przez tylko jedną osobę w tak krótkim czasie. Brawo.

Nieco później pojawiła się pierwsza graficzna przeglądarka Mosaic, z której wywodzi się wiele współczesnych przeglądarek (Mazila i Explorer). To właśnie Mosaic stała się kroplą, której brakowało było zainteresowanie Internetem(mianowicie do sieci WWW) wśród zwykłych mieszkańców planety Ziemia. Przeglądarka graficzna to zupełnie inna sprawa niż przeglądarka tekstowa. Wszyscy uwielbiają oglądać zdjęcia, a tylko nieliczni uwielbiają je czytać.

Co ciekawe, Berners-Lee nie otrzymał żadnych strasznie dużych sum pieniędzy, które np. w efekcie otrzymał lub choć zapewne zrobił więcej dla globalnej sieci.

Tak, z biegiem czasu, oprócz języka HTML opracowanego przez Berners-Lee, . Dzięki temu część operatorów w HTML nie była już potrzebna, a zastąpiono je znacznie bardziej elastycznymi narzędziami do kaskadowego arkusza stylów, co pozwoliło znacząco zwiększyć atrakcyjność i elastyczność projektowania tworzonych współcześnie serwisów. Chociaż reguły CSS są oczywiście bardziej skomplikowane do nauczenia niż język znaczników. Jednak piękno wymaga poświęceń.

Jak Internet i sieć globalna działają od środka?

Ale zobaczmy czym jest sieć (www) oraz w jaki sposób informacje są publikowane w Internecie. Staniemy tu twarzą w twarz z samym zjawiskiem zwanym stroną internetową (sieć to siatka, a strona to miejsce). Czym więc jest „miejsce w sieci” (analogicznie do miejsca pod słońcem w prawdziwym życiu) i jak właściwie je zdobyć.

Co to jest intet? Składa się więc z urządzeń tworzących kanały (routery, przełączniki), które są niewidoczne i mają niewielkie znaczenie dla użytkowników. Sieć WWW (którą nazywamy siecią WWW lub siecią WWW) składa się z milionów serwerów WWW, czyli programów działających na nieco zmodyfikowanych komputerach, które z kolei muszą być podłączone (24 godziny na dobę, 7 dni w tygodniu) do globalnej sieci i korzystać z protokołu HTTP do wymiany danych.

Serwer WWW (program) otrzymuje żądanie (najczęściej z przeglądarki użytkownika, która otwiera link lub wpisuje adres URL w pasku adresu) o otwarcie dokumentu znajdującego się na tym właśnie serwerze. W najprostszym przypadku dokument to fizyczny plik (np. z rozszerzeniem html), który znajduje się na dysku twardym serwera.

W bardziej złożonym przypadku (podczas korzystania) żądany dokument zostanie wygenerowany programowo na bieżąco.

Aby wyświetlić żądaną stronę witryny, po stronie klienta (użytkownika) wykorzystywane jest specjalne oprogramowanie zwane przeglądarką, które może narysować pobrany fragment hipertekstu w zrozumiałej formie na urządzeniu wyświetlającym informacje, na którym zainstalowana jest ta sama przeglądarka (PC, telefon, tablet itp.). Ogólnie rzecz biorąc, wszystko jest proste, jeśli nie wdasz się w szczegóły.

Wcześniej każda witryna internetowa była fizycznie hostowana na oddzielnym komputerze. Było to spowodowane głównie słabą mocą obliczeniową dostępnych wówczas komputerów PC. Ale w każdym razie komputer z programem serwera WWW i hostowaną na nim stroną internetową musi być podłączony do Internetu przez całą dobę. Zrobienie tego w domu jest dość trudne i kosztowne, dlatego zazwyczaj korzystają z usług firm hostingowych specjalizujących się w tym, aby przechowywać strony internetowe.

Usługa hostingowa Ze względu na popularność WWW jest obecnie dość poszukiwany. Dzięki rosnącej z biegiem czasu mocy nowoczesnych komputerów PC, hosterzy mają możliwość hostowania wielu stron internetowych na jednym fizycznym komputerze (hosting wirtualny), a hosting jednej witryny internetowej na jednym fizycznym komputerze PC stał się nazywany usługą.

W przypadku korzystania z hostingu wirtualnego, wszystkim stronom WWW hostowanym na komputerze (tym zwanym serwerem) można przypisać jeden adres IP lub też każda z nich może mieć oddzielny. Nie zmienia to istoty rzeczy i może jedynie pośrednio wpłynąć na zlokalizowaną tam Stronę Internetową (złe sąsiedztwo na jednym IP może mieć zły wpływ - wyszukiwarki czasem traktują wszystkich jednakowo).

Porozmawiajmy teraz trochę o nazwach domen witryn internetowych i ich znaczeniu w sieci WWW. Każdy zasób w Internecie ma swoją własną nazwę domeny. Co więcej, może zaistnieć sytuacja, gdy ta sama witryna może posiadać kilka nazw domen (w efekcie powstają serwery lustrzane lub aliasy), a także np. ta sama nazwa domeny może być używana dla wielu zasobów.

Ponadto w przypadku niektórych poważnych zasobów istnieje coś takiego jak lustra. W takim przypadku pliki witryny mogą znajdować się na różnych komputerach fizycznych, a same zasoby mogą mieć różne nazwy domen. Ale to wszystko niuanse, które tylko dezorientują początkujących użytkowników.