Hvordan World Wide Web fungerer. Verdensveven

For enhver moderne innbygger på planeten er en datamaskin uten tilgang til Internett en ubrukelig ting. World Wide Web fungerer som en rask, praktisk og bedre måte å samhandle med omverdenen på, men dette var ikke alltid tilfelle. Tilbake på midten av 1900-tallet betydde dette ordet absolutt ingenting.

La oss huske fortiden

Så når ble Internett opprettet, av hvem og for hva? Grunnleggerne av ideen er merkelig nok amerikanske spesialister. Det hele startet i oktober 1957, da Sovjetunionen skjøt opp en kunstig jordsatellitt, noe som fikk amerikanerne til å ta avgjørende grep.

Det amerikanske forsvarsdepartementet, som kjente den russiske nasjonens klare overlegenhet, bestemte seg for å opprette et pålitelig og effektivt informasjonsutvekslingssystem. Et slikt system skulle hjelpe landet i tilfelle en plutselig krig. Et så vanskelig ansvar ble lagt på USAs ledende universiteter.

Takket være god finansiering klarte Stanford forskningssenter og universitetene i Los Angeles, Santa Barbara og Utah å bringe ideen ut i livet innen 1969. Fire utdanningsinstitusjoner ble samlet i et felles nettverk kalt «Advanced Research Projects Agency Network» (forkortelse ARPANET).

"Fødselsdato" for World Wide Web

Allerede i de første månedene var det umulig å ikke sette pris på effektiviteten av elektronisk innovasjon. Systemet begynte å utvikle seg aktivt, og mottok mange godkjenninger fra mange forskere og forskere fra forrige århundre. I slutten av oktober 1969 ble den første vellykkede kommunikasjonssesjonen mellom de to universitetene gjennomført.

29. oktober 1969 er datoen Internett dukket opp. California Institute-ansatt Charlie Cline etablerte en ekstern forbindelse, noe som ble bekreftet gjennom en telefonsamtale av Stanford-ansatt Bill Duvall. Selvfølgelig gikk ikke alt på skinner, men kommunikasjonen var likevel etablert.

Utviklingsprosess

Som de sier, gode ting forblir på hylla. Dette uttrykket var intet unntak for nettverket. To år etter at ekstern kommunikasjon ble etablert, ble vår elskede e-post oppfunnet. Dette skjedde 2. oktober 1971 takket være arbeidet til Ray Tomlinson, en ledende ingeniør ved det vitenskapelige selskapet BBN TECHNOLOGIES.

Forskerens idé er å lage et skilletegn mellom brukerinnloggingen og domenet. Uten å tenke, bruker vi fortsatt aktivt dette symbolet, og kaller det det enkle menneskelige ordet "hund". Ray bidro til å bringe nettverket til massene, og koblet sammen hundretusenvis av interesserte mennesker.

Men selv da eksisterte ikke konseptet og konseptet til World Wide Web. Det var bare et skyrom for utveksling av data over en betydelig avstand, som inkluderte sending av e-poster og ulike typer e-postlister, nyhetsgrupper og private oppslagstavler.

Forfatter av det sanne verdensveven

Fra 1971 til 1989 ble det gjort et enormt arbeid for å utvide mulighetene til Internett-nettverket. Dataoverføringsprotokoller, som Jonathan Postel jobbet hardt med, utvikler aktivt. Et domenenavnsystem ble utviklet. En protokoll ble implementert for å tillate reell kommunikasjon.

Og først i 1989 foreslo en ansatt i IMAGE COMPUTER SYSTEMS LTD, som arbeider med kommunikasjonsprogramvare og online systemarkitektur, "World Wide Web"-doktrinen til selskapets ledelse. Navnet på grunnleggeren av planen er Timothy John Bernes-Lee.

Bernes-Lee er en utmerket utdannet ved Oxford University med en BA i fysikk. Han kom opp med navnet på konseptet "World Wide Web" på egen hånd, basert på hans arbeid og basert på navnet på den velkjente protokollen. Vi er alle vant til å kalle det en "trippeldobbel" eller "BBW" (www).

Ved slutten av 1989, i USA og Europa, var ikke bare e-post etterspurt, men også sanntidskommunikasjon, ulike nyhetsstrømmer og kommersiell aktivitet utviklet seg. Tim Bernes-Lee stopper ikke der, men fortsetter å modernisere det nymotens systemet.

Nytt ansikt

En talentfull fysiker-programmerer utvikler en webserver og den første nettleseren i historien. Det var gjennom hans innsats at følgende ble opprettet: en sideredigerer, en tradisjonell måte å skrive en nettstedsadresse på, hypertext markup language (HTML) og dataoverføringsprotokoller. I 1990 ble belgiske Robert Caillot med ham.

Robert var ansatt ved European Centre for Nuclear Research (CERN). Han ledet avdelingen som på den tiden hadde med datasystemer i databehandlingsavdelingen. Kayos innsats var rettet mot å skaffe kjernefinansiering til Tim Bernes' prosjekt.

I tillegg til økonomiske og organisatoriske spørsmål, tok Robert Caillot en aktiv del i utviklingen og promoteringen av Internett. Imidlertid forbeholdt han seg ikke rettighetene til en medforfatter, som et resultat av at han praktisk talt ble glemt. I historien er det bare navnet til forskeren Tim Bernes-Lee som blir stadig mer hørt.

Konklusjon

Jeg lurer på om alle de nevnte menneskene trodde at i 2016 ville verden bokstavelig talt stupe ut i det enorme internett. Satellittkommunikasjon, videokommunikasjon med mer skal installeres. Hvert land vil ha sin egen betegnelse for det globale Internett, som gjenspeiler dets språklige tilhørighet (RUNET) og demonstrerer nasjonale domener.

Forresten, det første domenet til den russiske føderasjonen (RU) ble registrert våren 1994. Nå vet hver av leserne når, hvordan og av hvem Internett ble oppfunnet og implementert. I dag er det en avansert prestasjon av vitenskap og teknologi, som er en organisk del av det moderne samfunnet.

Internett inntar en stadig viktigere plass i livene våre. Ingen annen teknologi skapt av mennesker har fått så utbredt popularitet. Internett - World Wide Web, som dekker hele kloden, og omslutter det i et nettverk av TV-tårn. Det begynte å få sin popularitet tilbake på det relativt fjerne 1990-tallet. I artikkelen vil vi diskutere hvor det kom fra og hvorfor det ble så populært.

Internett som World Wide Web

Det andre navnet på en slik plan var ikke uten grunn. Faktum er at Internett forener mange brukere over hele verden. Som et edderkoppnett omslutter den hele kloden med sine tråder. Og dette er ikke en vanlig metafor, det er det virkelig. Internett består av ledninger og trådløse nettverk, hvorav sistnevnte er usynlige for oss.

Men dette er en lyrisk digresjon; faktisk er Internett koblet til World Wide Web (www, eller Word Wide Web). Den dekker alle datamaskiner som er koblet til Internett. På eksterne servere lagrer brukere nødvendig informasjon og kan også kommunisere på Internett. Dette navnet blir ofte forstått som World Wide Web eller Global Network.

Den er basert på flere spesielt viktige protokoller, som TCP/IP. Takket være Internett utfører World Wide Web, eller med andre ord Word Wide Web (WWW), sine aktiviteter, det vil si sender og mottar data.

antall brukere

På slutten av 2015 ble det gjennomført en studie, basert på følgende data. Det er 3,3 milliarder Internett-brukere over hele verden. Og dette er nesten 50% av hele befolkningen på planeten vår.

Slike høye tall ble oppnådd takket være spredningen av 3G og høyhastighets 4G mobilnettverk. Leverandører spilte en viktig rolle, takket være den massive introduksjonen av Internett-teknologier, reduserte kostnadene for vedlikehold av servere og produksjon av fiberoptiske kabler. I de fleste europeiske land er internetthastigheten høyere enn i afrikanske land. Dette forklares med det tekniske etterslepet til sistnevnte og den lave etterspørselen etter tjenesten.

Hvorfor kalles Internett World Wide Web?

Paradoksalt som det kan virke, er mange brukere sikre på at begrepet ovenfor og Internett er det samme. Denne dype misforståelsen som svever i hodet til mange brukere er forårsaket av likheten mellom konsepter. Nå skal vi finne ut hva som er hva.

World Wide Web blir ofte forvekslet med det lignende uttrykket "World Wide Web". Det representerer en viss mengde informasjon basert på Internett-teknologi.

Historien til World Wide Web

På slutten av 90-tallet ble NSFNets dominans over ARPANET-teknologi endelig etablert i verden. Merkelig nok ble utviklingen deres utført av ett vitenskapelig senter. ARPNET ble utviklet etter ordre fra det amerikanske krigsdepartementet. Ja, ja, de første som brukte Internett var militæret. Og NSFNet-teknologien ble utviklet uavhengig av offentlige etater, nesten av ren entusiasme.

Det var konkurransen mellom de to utviklingene som ble grunnlaget for deres videre utvikling og masseintroduksjon i verden. World Wide Web ble tilgjengelig for allmennheten i 1991. Det måtte fungere på en eller annen måte, og Berners Lee tok opp utviklingen av et system for Internett. Etter to år med vellykket arbeid, skapte han hypertekst, eller HTTP, det berømte elektroniske språket for HTML og URL-er. Vi trenger ikke gå inn på detaljer, for nå ser vi dem som vanlige lenker for nettstedsadresser.

Informasjonsrom

Først av alt er dette et informasjonsrom, tilgang til dette er gitt via Internett. Den lar brukeren ha tilgang til data som ligger på serverne. Hvis vi bruker en visuelt-figurativ metode, så er Internett en volumetrisk sylinder, og World Wide Web er det som fyller det.

Gjennom et program kalt "nettleser" får brukeren tilgang til Internett for å surfe på nettet. Den består av et utallig antall nettsteder som er basert på servere. De er koblet til datamaskiner og er ansvarlige for lagring, lasting og visning av data.

Edderkoppnett og moderne mann

For tiden har Homo sapiens i utviklede land nesten fullstendig integrert med World Wide Web. Vi snakker ikke om besteforeldrene våre eller om avsidesliggende landsbyer der de ikke en gang vet om en slags Internett.

Tidligere gikk en person på jakt etter informasjon rett til biblioteket. Og det hendte ofte at boken han trengte ikke ble funnet, da måtte han til andre institusjoner med arkiv. Nå er det ikke behov for slike manipulasjoner.

I biologi består alle artsnavn av tre ord, for eksempel vårt fulle navn Homo sapiens neanderthalensis. Nå kan vi trygt legge til det fjerde ordet internetiys.

Internett fanger menneskehetens sinn

Enig, vi får nesten all informasjonen vår fra Internett. Vi har tonnevis med informasjon til fingerspissene. Fortell vår forfar om dette, han ville ivrig stirre på skjermen og sitte der hele fritiden på jakt etter informasjon.

Det var Internett som brakte menneskeheten til et fundamentalt nytt nivå; det bidrar til å skape en ny kultur - blandet eller multi. Representanter for forskjellige nasjoner etterligner og tilpasser seg, som om de slår sammen sine skikker til en gryte. Hvor kommer det endelige produktet fra?

Det er spesielt nyttig for forskere; det er ikke lenger behov for å samles på konsultasjoner i et land som ligger 1000 km fra ditt. Du kan utveksle erfaringer uten å møte personlig, for eksempel gjennom direktemeldinger eller sosiale nettverk. Og hvis en viktig sak må diskuteres, kan dette gjøres via Skype.

Konklusjon

World Wide Web er en del av Internett. Driften er sikret takket være lagringsservere, som gir informasjon til brukeren på forespørsel. Selve nettverket ble utviklet takket være forskere fra USA og deres entusiasme.

Allerede i dag når antallet Internett-brukere 3,5 milliarder mennesker, som er nesten halvparten av verdens befolkning. Og det vet selvfølgelig alle World Wide Web har fullstendig omsluttet planeten vår. Men fortsatt kan ikke alle si om det er forskjell mellom konseptene Internett og World Wide Web. Merkelig nok er mange helt sikre på at dette er synonymer, men kyndige karer kan komme med argumenter som vil redusere denne selvtilliten.

Hva er Internett?

Uten å gå inn på komplekse tekniske detaljer, kan vi si det Internett er et system som kobler sammen datanettverk over hele verden. Datamaskiner er delt inn i to grupper - klienter og servere.

Kunder kalles vanlige brukerenheter, som inkluderer personlige datamaskiner, bærbare datamaskiner, nettbrett og, selvfølgelig, smarttelefoner. De sender en forespørsel, mottar og viser informasjon.

All informasjon lagres på servere, som kan klassifiseres etter ulike formål:

  • Internett server,
  • post,
  • chatter,
  • radio- og TV-kringkastingssystemer,
  • fildeling.

Servere er kraftige datamaskiner som jobber kontinuerlig. I tillegg til å lagre informasjon, mottar de forespørsler fra klienter og sender nødvendig svar. Samtidig behandler de hundrevis av slike forespørsler.

Også i vårt korte utdanningsprogram er det nødvendig å nevne at det er verdt å nevne Internett-leverandører, som gir kommunikasjon mellom klient og server. En leverandør er en organisasjon med en egen Internett-server som alle klientene er koblet til. Leverandører gir kommunikasjon via telefonkabel, dedikert kanal eller trådløst nettverk.


Slik kommer du deg på Internett

Er det mulig å klare seg uten leverandør og koble seg direkte til Internett? Teoretisk er det mulig! Du må bli din egen leverandør og bruke en enorm sum penger for å komme til de sentrale serverne. Så ikke klandre Internett-leverandøren din for mye for høye tariffer - disse gutta må også betale for mange ting og bruke penger på vedlikehold av utstyr.

World Wide Web har forvirret hele verden

World Wide Web eller ganske enkelt nett - "web". Faktisk det er representert av et stort antall sider som er sammenkoblet. Denne tilkoblingen er gitt av lenker, gjennom hvilke du kan flytte fra en side til en annen, selv om den er plassert på en annen datamaskin koblet til.


World Wide Web er den mest populære og største Internett-tjenesten.

World Wide Web bruker spesielle webservere for å operere. De lagrer nettsider (en av dem du ser nå). Sider koblet sammen med lenker, som har et felles tema, utseende og vanligvis ligger på samme server kalles et nettsted.

For å se nettsider og dokumenter brukes spesielle programmer - nettlesere.

World Wide Web inkluderer fora, blogger og sosiale nettverk. Men dets arbeid og eksistens er direkte sikret av Internett...

Er det stor forskjell?

Faktisk er forskjellen mellom Internett og World Wide Web ganske stor. Hvis Internett er et enormt nettverk som forbinder millioner av datamaskiner rundt om på planeten for å dele informasjon, så er World Wide Web bare én måte å utveksle denne informasjonen på. I tillegg til å sikre driften av World Wide Web, lar Internett deg bruke e-post og ulike direktemeldinger, samt overføre filer via FTP-protokollen,

Internett er det som forbinder mange datanettverk.

World Wide Web er alle sider som er lagret på spesielle Internett-servere.

Konklusjon

Nå vet du at World Wide Web og World Wide Web er forskjellige ting. Og viktigst av alt, du vil kunne vise frem intelligensen din og forklare vennene dine hva denne forskjellen er.

World Wide Web (WWW)

Verdensveven(Engelsk) Verdensveven) - et distribuert system som gir tilgang til sammenkoblede dokumenter plassert på forskjellige datamaskiner koblet til Internett. Ordet web brukes også for å referere til World Wide Web. web"web") og forkortelsen WWW. World Wide Web er det største verdensomspennende flerspråklige depotet av informasjon i elektronisk form: titalls millioner sammenkoblede dokumenter plassert på datamaskiner rundt om i verden. Det regnes som den mest populære og interessante tjenesten på Internett, som lar deg få tilgang til informasjon uavhengig av plasseringen. For å finne ut nyhetene, lære noe eller bare ha det gøy ser folk på TV, hører på radio, leser aviser, blader og bøker. World Wide Web tilbyr også sine brukere radiokringkasting, videoinformasjon, presse, bøker, men med den forskjellen at alt dette kan fås uten å forlate hjemmet. Det spiller ingen rolle i hvilken form informasjonen du er interessert i presenteres (tekstdokument, fotografi, video eller lydfragment) og hvor denne informasjonen befinner seg geografisk (i Russland, Australia eller Elfenbenskysten) - du vil motta den i et spørsmål om minutter på datamaskinen.

World Wide Web består av hundrevis av millioner av webservere. De fleste ressursene på World Wide Web er hypertekst. Hypertekstdokumenter som er lagt ut på World Wide Web kalles nettsider. Flere nettsider som deler et felles tema, design og lenker og vanligvis er plassert på samme webserver kalles et nettsted. For å laste ned og vise nettsider brukes spesielle programmer - nettlesere. World Wide Web har forårsaket en reell revolusjon innen informasjonsteknologi og en boom i utviklingen av Internett. Når de snakker om Internett, mener de ofte World Wide Web, men det er viktig å forstå at de ikke er det samme.

Historien til World Wide Web

Tim Berners-Lee og, i mindre grad, Robert Caillot regnes som oppfinnerne av World Wide Web. Tim Berners-Lee er opphavsmannen til HTTP-, URI/URL- og HTML-teknologier. I 1980 jobbet han for European Council for Nuclear Research (Conseil Européen pour la Recherche Nucléaire, CERN) som programvarekonsulent. Det var der, i Genève (Sveits), han skrev Inquire-programmet for sine egne behov, som brukte tilfeldige assosiasjoner til å lagre data og la det konseptuelle grunnlaget for World Wide Web.

I 1989, mens han jobbet ved CERN på organisasjonens intranett, foreslo Tim Berners-Lee det globale hypertekstprosjektet nå kjent som World Wide Web. Prosjektet innebar publisering av hypertekstdokumenter koblet sammen med hyperlenker, noe som ville lette søk og konsolidering av informasjon for CERN-forskere. For å implementere prosjektet oppfant Tim Berners-Lee (sammen med sine assistenter) URIer, HTTP-protokollen og HTML-språket. Dette er teknologier uten hvilke det ikke lenger er mulig å forestille seg det moderne Internett. Mellom 1991 og 1993 foredlet Berners-Lee de tekniske spesifikasjonene til disse standardene og publiserte dem. Men ikke desto mindre bør det offisielle fødselsåret til World Wide Web betraktes som 1989.

Som en del av prosjektet skrev Berners-Lee verdens første webserver, httpd, og verdens første hypertekstnettleser, kalt WorldWideWeb. Denne nettleseren var også en WYSIWYG-editor (forkortelse for What You See Is What You Get). Utviklingen startet i oktober 1990 og ble fullført i desember samme år. Programmet kjørte i NeXTStep-miljøet og begynte å spre seg over Internett sommeren 1991.

Verdens første nettsted ble hostet av Berners-Lee 6. august 1991, på den første webserveren, tilgjengelig på http://info.cern.ch/. Ressursen definerte konseptet World Wide Web, inneholdt instruksjoner for å installere en webserver, bruke en nettleser osv. Dette nettstedet var også verdens første Internett-katalog, fordi Tim Berners-Lee senere postet og vedlikeholdt en liste over linker til andre nettsteder der.

Siden 1994 har hovedarbeidet med utviklingen av World Wide Web blitt overtatt av World Wide Web Consortium (W3C), grunnlagt og fortsatt ledet av Tim Berners-Lee. Dette konsortiet er en organisasjon som utvikler og implementerer teknologistandarder for Internett og World Wide Web. W3C-oppdrag: "Slipp løs det fulle potensialet til World Wide Web ved å etablere protokoller og prinsipper for å sikre langsiktig utvikling av nettet." To andre hovedmål for konsortiet er å sikre full «internasjonalisering av nettet» og å gjøre nettet tilgjengelig for funksjonshemmede.

W3C utvikler vanlige prinsipper og standarder for Internett (kalt "recommendations", engelske W3C Recommendations), som deretter implementeres av programvare- og maskinvareprodusenter. På denne måten oppnås kompatibilitet mellom programvareprodukter og utstyr fra forskjellige selskaper, noe som gjør World Wide Web mer avansert, universelt og praktisk. Alle anbefalinger fra World Wide Web-konsortiet er åpne, det vil si at de ikke er beskyttet av patenter og kan implementeres av hvem som helst uten økonomiske bidrag til konsortiet.

Struktur og prinsipper for World Wide Web

World Wide Web består av millioner av Internett-webservere rundt om i verden. En webserver er et program som kjører på en datamaskin koblet til et nettverk og bruker HTTP-protokollen til å overføre data. I sin enkleste form mottar et slikt program en HTTP-forespørsel om en spesifikk ressurs over nettverket, finner den tilsvarende filen på den lokale harddisken og sender den over nettverket til den anmodende datamaskinen. Mer sofistikerte webservere er i stand til dynamisk å generere dokumenter som svar på en HTTP-forespørsel ved å bruke maler og skript.

For å se informasjon mottatt fra webserveren, brukes et spesielt program på klientdatamaskinen - nettleser. Hovedfunksjonen til en nettleser er å vise hypertekst. World Wide Web er uløselig knyttet til konseptene hypertekst og hyperkoblinger. Mesteparten av informasjonen på Internett er hypertekst.

For å lette oppretting, lagring og visning av hypertekst på World Wide Web, brukes tradisjonelt HTML (HyperText Markup Language). Arbeidet med å lage (merke opp) hypertekstdokumenter kalles layout, det gjøres av en webmaster eller en egen markup-spesialist - en layoutdesigner. Etter HTML-oppmerking blir det resulterende dokumentet lagret i en fil, og slike HTML-filer er hovedtypen ressurser på World Wide Web. Når en HTML-fil er gjort tilgjengelig for en webserver, kalles den en "webside". En samling nettsider utgjør et nettsted.

Hyperteksten på nettsider inneholder hyperkoblinger. Hyperkoblinger hjelper World Wide Web-brukere med å enkelt navigere mellom ressurser (filer), uavhengig av om ressursene er plassert på den lokale datamaskinen eller på en ekstern server. For å bestemme plasseringen av ressurser på World Wide Web, brukes Uniform Resource Locators (URL-er). For eksempel ser den fullstendige URL-en til hovedsiden til den russiske delen av Wikipedia slik ut: http://ru.wikipedia.org/wiki/Main_page. Slike URL-lokaliser kombinerer URI-identifikasjonsteknologi (Uniform Resource Identifier) ​​og DNS-domenenavnsystemet (Domain Name System). Domenenavnet (i dette tilfellet ru.wikipedia.org) som en del av URL-en angir datamaskinen (nærmere bestemt et av nettverksgrensesnittene) som kjører koden til den ønskede webserveren. Nettadressen til den gjeldende siden kan vanligvis sees i nettleserens adresselinje, selv om mange moderne nettlesere foretrekker å vise bare domenenavnet til det gjeldende nettstedet som standard.

World Wide Web-teknologier

For å forbedre den visuelle oppfatningen av nettet, har CSS-teknologi blitt mye brukt, som lar deg sette enhetlige designstiler for mange nettsider. En annen innovasjon det er verdt å ta hensyn til er ressursnavnesystemet URN (Uniform Resource Name).

Et populært konsept for utviklingen av World Wide Web er etableringen av Semantic Web. The Semantic Web er et tillegg til det eksisterende World Wide Web, som er designet for å gjøre informasjon som legges ut på nettverket mer forståelig for datamaskiner. The Semantic Web er et konsept av et nettverk der hver ressurs på menneskelig språk vil bli utstyrt med en beskrivelse som en datamaskin kan forstå. The Semantic Web åpner tilgang til tydelig strukturert informasjon for enhver applikasjon, uavhengig av plattform og uavhengig av programmeringsspråk. Programmer vil selv kunne finne de nødvendige ressursene, behandle informasjon, klassifisere data, identifisere logiske sammenhenger, trekke konklusjoner og til og med ta beslutninger basert på disse konklusjonene. Hvis det er bredt adoptert og implementert med omhu, har Semantic Web potensialet til å utløse en revolusjon på Internett. For å lage en maskinlesbar beskrivelse av en ressurs på Semantic Web, brukes RDF-formatet (Resource Description Framework), som er basert på XML-syntaks og bruker URIer for å identifisere ressurser. Nytt på dette området er RDFS (RDF Schema) og SPARQL (Protocol And RDF Query Language), et nytt spørringsspråk for rask tilgang til RDF-data.

Grunnleggende termer brukt på World Wide Web

Jobber med nettleseren

I dag, ti år etter oppfinnelsen av HTTP-protokollen, som dannet grunnlaget for World Wide Web, er nettleseren en svært kompleks programvare som kombinerer brukervennlighet og et vell av muligheter.
Nettleseren åpner ikke bare brukeren for en verden av hypertekstressurser på World Wide Web. Det kan også fungere med andre webtjenester som FTP, Gopher, WAIS. Sammen med nettleseren er det vanligvis installert et program for bruk av e-post og nyhetstjenester på datamaskinen. I hovedsak er nettleseren hovedprogrammet for tilgang til Internett-tjenester. Gjennom den kan du få tilgang til nesten hvilken som helst Internett-tjeneste, selv om nettleseren ikke støtter arbeid med denne tjenesten. Til dette formålet brukes spesialprogrammerte webservere som kobler World Wide Web med denne nettverkstjenesten. Et eksempel på denne typen webservere er mange gratis e-postservere med et nettgrensesnitt (se http://www.mail.ru)
I dag er det mange nettleserprogrammer laget av ulike selskaper. De mest brukte og anerkjente nettleserne er Netscape Navigator og Internet Explorer. Det er disse nettleserne som utgjør hovedkonkurransen med hverandre, selv om det er verdt å merke seg at disse programmene ligner på mange måter. Dette er forståelig, fordi de fungerer i henhold til de samme standardene - Internett-standarder.
Arbeid med nettleseren begynner med at brukeren skriver inn URL-en til ressursen han vil ha tilgang til i adressefeltet (adressen) og trykker Enter-tasten.

Nettleseren sender en forespørsel til den angitte Internett-serveren. Etter hvert som elementer av den brukerspesifiserte nettsiden kommer fra serveren, vises den gradvis i nettleservinduet som fungerer. Prosessen med å motta sideelementer fra serveren vises i den nederste "status"-linjen i nettleseren.

Teksthyperkoblinger på den resulterende nettsiden er vanligvis uthevet i en annen farge enn resten av dokumentteksten og er understreket. Lenker som peker til ressurser som brukeren ennå ikke har sett og lenker til ressurser som allerede er besøkt har vanligvis forskjellige farger. Bilder kan også fungere som hyperlenker. Uansett om lenken er en tekstlenke eller en grafisk lenke, vil formen endres hvis du holder musen over den. Samtidig vil adressen som koblingen peker til vises i nettleserens statuslinje.

Når du klikker på en hyperkobling, åpner nettleseren ressursen som den peker til i arbeidsvinduet, og den forrige ressursen lastes ut fra den. Nettleseren fører en liste over viste sider, og brukeren kan om nødvendig gå tilbake langs kjeden av viste sider. For å gjøre dette, klikk på "Tilbake"-knappen i nettlesermenyen - og den vil gå tilbake til siden du så på før du åpnet gjeldende dokument.
Hver gang du klikker på denne knappen, vil nettleseren gå tilbake ett dokument i listen over besøkte dokumenter. Hvis du plutselig går for langt tilbake, bruker du "Forover"-knappen i nettlesermenyen. Det vil hjelpe deg å gå videre gjennom listen over dokumenter.
"Stopp"-knappen vil stoppe innlasting av dokumentet. "Reload"-knappen lar deg laste inn gjeldende dokument på nytt fra serveren.
Nettleseren kan bare vise ett dokument i vinduet sitt: for å vise et annet dokument, laster den ut det forrige. Det er mye mer praktisk å jobbe i flere nettleservinduer samtidig. Åpning av et nytt vindu gjøres ved å bruke menyen: Fil – Ny – Vindu (eller tastekombinasjonen Ctrl+N).

Arbeide med et dokument

Nettleseren lar deg utføre et sett med standardoperasjoner på et dokument. Nettsiden som er lastet inn i den kan skrives ut (i Internet Explorer gjøres dette ved å bruke "Skriv ut"-knappen eller fra menyen: Fil – Skriv ut...), lagres på disk (meny: Fil – Lagre som...). Du kan finne teksten du er interessert i på den nedlastede siden. For å gjøre dette, bruk menyen: Rediger – Finn på denne siden.... Og hvis du er interessert i hvordan dette dokumentet ser ut i den originale hyperteksten som nettleseren behandlet, velg fra menyen: Vis - Som HTML.
Når en bruker, mens han surfer på Internett, finner en side som er spesielt interessant for ham, bruker han muligheten som tilbys i nettlesere til å sette bokmerker (i likhet med bokmerker som markerer interessante deler av en bok).
Dette gjøres gjennom menyen: Favoritter – Legg til i favoritter. Etter dette vises det nye bokmerket i listen over bokmerker, som kan vises ved å klikke på "Favoritter"-knappen på nettleserpanelet eller gjennom Favoritter-menyen.
Eksisterende bokmerker kan slettes, redigeres eller organiseres i mapper ved hjelp av menyen: Favoritter – Organiser favoritter.

Arbeider gjennom en proxy-server

Netscape Navigator og Microsoft Internet Explorer gir også en mekanisme for tredjepartsleverandører til å bygge inn tilleggsfunksjonalitet. Moduler som utvider funksjonene til nettleseren kalles plug-ins.
Nettlesere kjører på datamaskiner som kjører et bredt utvalg av operativsystemer. Dette gir grunnlag for å snakke om uavhengigheten til World Wide Web fra typen datamaskin og operativsystem som brukes av brukeren.

Søker etter informasjon på Internett

Nylig har World Wide Web blitt sett på som et nytt kraftig massemedie, hvis publikum er den mest aktive og utdannede delen av planetens befolkning. Denne visjonen tilsvarer den virkelige tilstanden. På dager med betydelige hendelser og omveltninger øker belastningen på nettverksnyhetsnoder kraftig; som svar på lesernes etterspørsel, vises ressurser dedikert til hendelsen som nettopp skjedde umiddelbart. Under augustkrisen i 1998 dukket derfor nyheter opp på Internett-siden til TV- og radioselskapet CNN (http://www.cnn.com) mye tidligere enn russiske medier rapporterte om dem. Samtidig ble RIA RosBusinessConsulting-serveren (http://www.rbc.ru), som gir den siste informasjonen fra finansmarkedene og de siste nyhetene, viden kjent. Mange amerikanere så avstemningen om å stille USAs president Bill Clinton på nettet i stedet for på TV-skjermene. Utviklingen av krigen i Jugoslavia ble også umiddelbart reflektert i en rekke publikasjoner som reflekterte en rekke synspunkter på denne konflikten.
Mange mennesker som er mer kjent med internett ved hørsel, tror at du kan finne all informasjon på Internett. Dette er sant i den forstand at der kan du komme over de mest uventede ressursene i form og innhold. Faktisk er det moderne nettet i stand til å tilby brukeren mye informasjon fra en rekke profiler. Her kan du bli kjent med nyhetene, ha det interessant og få tilgang til en rekke referanse-, leksikon- og pedagogisk informasjon. Det er bare å understreke at selv om den samlede informasjonsverdien til Internett er svært stor, er selve informasjonsrommet kvalitetsmessig heterogent, siden ressurser ofte skapes i hast. Hvis teksten vanligvis leses av flere anmeldere når du forbereder en papirpublikasjon, og det gjøres justeringer av den, er denne fasen av publiseringsprosessen vanligvis fraværende på Internett. Så generelt bør informasjon hentet fra Internett behandles med litt mer forsiktighet enn informasjon som finnes i en trykt publikasjon.
Men overfloden av informasjon har også en negativ side: ettersom informasjonsmengden vokser, blir det vanskeligere og vanskeligere å finne den informasjonen som trengs for øyeblikket. Derfor er det viktigste problemet som oppstår når du arbeider med nettverket å raskt finne den nødvendige informasjonen og forstå den, for å evaluere informasjonsverdien til en bestemt ressurs for dine formål.

For å løse problemet med å finne nødvendig informasjon på Internett, er det en egen type nettverkstjeneste. Vi snakker om søkeservere, eller søkemotorer.
Søkeservere er ganske mange og varierte. Det er vanlig å skille mellom søkeindekser og kataloger.
Indeksservere De fungerer som følger: de leser regelmessig innholdet på de fleste nettsider på Internett («indekserer» dem), og plasserer dem helt eller delvis i en felles database. Søkemotorbrukere har muligheten til å søke i denne databasen ved å bruke nøkkelord relatert til emnet som er av interesse for dem. Søkeresultatene består vanligvis av utdrag av sider anbefalt for brukerens oppmerksomhet og deres adresser (URL), formatert som hyperkoblinger. Det er praktisk å jobbe med søkeservere av denne typen hvis du har en klar ide om emnet for søket.
Katalogservere I hovedsak representerer de en klassifisering av koblinger på flere nivåer, bygget på prinsippet om "fra generelt til spesifikt." Noen ganger er lenker ledsaget av en kort beskrivelse av ressursen. Som regel kan du søke i navn på overskrifter (kategorier) og beskrivelser av ressurser ved hjelp av nøkkelord. Kataloger brukes når de ikke vet nøyaktig hva de leter etter. Går du fra de mest generelle kategoriene til mer spesifikke, kan du bestemme hvilken bestemt Internett-ressurs du bør gjøre deg kjent med. Det er hensiktsmessig å sammenligne søkekataloger med tematiske bibliotekskataloger eller klassifiserere. Vedlikeholdet av søkekataloger er delvis automatisert, men til nå er klassifiseringen av ressurser hovedsakelig utført manuelt.
Søkekataloger er vanlige avtaler Og spesialisert. Generelle søkekataloger inkluderer ressurser for en rekke profiler. Spesialiserte kataloger kombinerer kun ressurser som er viet til et bestemt emne. De klarer ofte å oppnå bedre dekning av ressurser på sitt felt og bygger mer adekvate kategorier.
Nylig har generelle søkekataloger og indekseringssøkeservere blitt intensivt integrert, og har lykkes med å kombinere fordelene deres. Søketeknologier står heller ikke stille. Tradisjonelle indekseringsservere søker i en database etter dokumenter som inneholder nøkkelord fra søket. Med denne tilnærmingen er det svært vanskelig å vurdere verdien og kvaliteten på ressursen som gis til brukeren. En alternativ tilnærming er å se etter nettsider som er lenket til av andre ressurser om emnet. Jo flere lenker til en side det er på nettet, jo mer sannsynlig er det at du finner den. Denne typen metasøk utføres av Googles søkemotor ( http://www.google.com/), som dukket opp ganske nylig, men som allerede har vist seg å være utmerket.

Jobber med søkeservere

Å jobbe med søkeservere er ikke vanskelig. I adressefeltet til nettleseren skriver du inn adressen, i søkelinjen, skriv inn søkeordene eller uttrykket som tilsvarer ressursen eller ressursene til nettverket du vil finne på ønsket språk. Klikk deretter på "Søk"-knappen og den første siden med søkeresultater lastes inn i nettleservinduet som fungerer.

Vanligvis produserer en søkeserver søkeresultater i små porsjoner, for eksempel 10 per søkeside. Derfor tar de ofte opp mer enn én side. Så under listen over anbefalte lenker vil det være en lenke som tilbyr å flytte til neste "del" av søkeresultatene (se figur).

Ideelt sett vil søkeserveren plassere ressursen du leter etter på den første siden med søkeresultater, og du vil umiddelbart gjenkjenne ønsket lenke fra den korte beskrivelsen. Imidlertid må du ofte se gjennom flere ressurser før du finner den rette. Vanligvis ser brukeren dem i nye nettleservinduer uten å lukke nettleservinduet med søkeresultatene. Noen ganger utføres søk og visning av funnet ressurser i samme nettleservindu.
Suksessen med å søke etter informasjon avhenger direkte av hvor kompetent du har laget søket ditt.
La oss se på et enkelt eksempel. La oss si at du vil kjøpe en datamaskin, men du vet ikke hvilke modifikasjoner som finnes i dag og hva deres egenskaper er. For å få den nødvendige informasjonen kan du bruke Internett ved å spørre en søkemotor. Hvis vi skriver inn ordet "datamaskin" i søkefeltet, vil søkeresultatet være mer enn 6 millioner (!) lenker. Blant dem er det naturligvis sider som oppfyller kravene våre, men det er ikke mulig å finne dem blant et så stort antall.
Hvis du skriver "hvilke modifikasjoner av datamaskiner finnes i dag", vil søkeserveren tilby deg å se rundt to hundre sider, men ingen av dem vil strengt tatt samsvare med forespørselen. Med andre ord, de inneholder individuelle ord fra forespørselen din, men de snakker kanskje ikke om datamaskiner i det hele tatt, men for eksempel om eksisterende modifikasjoner av vaskemaskiner eller om antall datamaskiner som er tilgjengelig på et selskaps lager den dagen.
Generelt er det ikke alltid mulig å stille et spørsmål til en søkeserver første gang. Hvis spørringen er kort og kun inneholder ofte brukte ord, kan mange dokumenter bli funnet, hundretusener og millioner. Tvert imot, hvis forespørselen din viser seg å være for detaljert eller svært sjeldne ord brukes, vil du se en melding som sier at ingen ressurser som samsvarer med forespørselen ble funnet i serverdatabasen.
Gradvis innsnevring eller utvidelse av søkets fokus ved å øke eller redusere listen over søkeord, erstatte mislykkede søkeord med mer vellykkede, vil hjelpe deg med å forbedre søkeresultatene.
I tillegg til antall ord, spiller innholdet deres en viktig rolle i spørringen. Nøkkelordene som utgjør et søk er vanligvis bare atskilt med mellomrom. Det er viktig å huske at ulike søkemotorer tolker dette forskjellig. Noen av dem velger kun dokumenter som inneholder alle nøkkelord for en slik forespørsel, det vil si at de oppfatter plassen i forespørselen som et logisk bindende "og". Noen tolker rommet som et logisk «eller» og søker etter dokumenter som inneholder minst ett av nøkkelordene.
Når du oppretter et søk, lar de fleste servere deg eksplisitt spesifisere logiske koblinger som kombinerer nøkkelord og angir noen andre søkeparametere. Logiske koblinger er vanligvis betegnet med de engelske ordene "AND", "OR", "NOT". Ulike søkeservere bruker forskjellig syntaks når de danner et utvidet søkeord - det såkalte søkespråket. Ved å bruke et spørringsspråk kan du spesifisere hvilke ord som må vises i dokumentet, hvilke ord som ikke skal være til stede, og hvilke som er ønskelige (det vil si at de kan eksistere eller ikke eksisterer).
Som regel bruker moderne søkemotorer alle mulige ordformer av ordene som brukes ved søk. Det vil si, uansett i hvilken form du brukte ordet i søket, tar søket hensyn til alle dets former i henhold til reglene for det russiske språket: for eksempel hvis søket er "go", vil søkeresultatet finne lenker til dokumenter som inneholder ordene «gå», «går», «gikk», «gikk» osv.
På tittelsiden til en søkeserver er det vanligvis en "Hjelp"-kobling, ved å klikke på som brukeren kan gjøre seg kjent med søkereglene og søkespråket som brukes på denne serveren.
Et annet veldig viktig poeng er å velge en søkeserver som passer for dine oppgaver. Hvis du leter etter en bestemt fil, er det bedre å bruke en spesialisert søkeserver som ikke indekserer nettsider, men filarkiver på Internett. Et eksempel på slike søkeservere er FTP-søk (http://ftpsearch.lycos.com), og for å søke etter filer i russiske arkiver er det bedre å bruke den russiske analogen - http://www.filesearch.ru.
For å søke etter programvare, bruk programvarearkiver som http://www.tucows.com/, http://www.windows95.com, http://www.freeware.ru.
Hvis nettsiden du leter etter ligger på den russiske delen av Internett, kan det være verdt å bruke russiske søkemotorer. De fungerer bedre med russiskspråklige søk og er utstyrt med et grensesnitt på russisk.
Tabell 1 gir en liste over noen av de mest kjente søkemotorene for generell bruk. Alle disse serverne tilbyr for tiden både fulltekst- og kategorisøk, og kombinerer dermed fordelene med en indekseringsserver og en katalogserver.

Http, som lar deg støtte en langsiktig tilkobling, dataoverføring i flere strømmer, distribusjon av dataoverføringskanaler og deres administrasjon. Hvis den er implementert og støttet av standard WWW-programvare, vil den eliminere de ovennevnte ulempene. En annen måte er å bruke navigatorer som lokalt kan kjøre programmer på tolkede språk, for eksempel Sun Microsystems sitt Java-prosjekt. En annen løsning på dette problemet er å bruke AJAX-teknologi, basert på XML og JavaScript. Dette lar deg motta tilleggsdata fra serveren når WWW-siden allerede er lastet inn fra serveren.

For tiden er det to trender i utviklingen av World Wide Web: det semantiske nettet og

Det er også et populært konsept Web 2.0, som oppsummerer flere retninger for utviklingen av World Wide Web.

Web 2.0

Utviklingen av WWW har nylig blitt betydelig utført gjennom aktiv introduksjon av nye prinsipper og teknologier, samlet kalt Web 2.0 (Web 2.0). Selve begrepet Web 2.0 dukket opp første gang i 2004 og er ment å illustrere de kvalitative endringene i WWW i det andre tiåret av dets eksistens. Web 2.0 er en logisk forbedring av nettet. Hovedfunksjonen er forbedring og akselerasjon av interaksjonen mellom nettsider og brukere, noe som har ført til en rask økning i brukeraktivitet. Dette dukket opp i:

  • deltakelse i Internett-samfunn (spesielt i fora);
  • legge ut kommentarer på nettsteder;
  • vedlikeholde personlige journaler (blogger);
  • plassere lenker på WWW.

Web 2.0 introduserte aktiv datautveksling, spesielt:

  • eksportere nyheter mellom nettsteder;
  • aktiv aggregering av informasjon fra nettsider.
  • bruke et API for å skille nettstedsdata fra selve nettstedet

Fra synspunkt av nettsideimplementering øker Web 2.0 kravene til enkelhet og bekvemmelighet til nettsider for vanlige brukere og er rettet mot en rask nedgang i brukerkvalifikasjoner i nær fremtid. Overholdelse av listen over standarder og konsensus (W3C) blir aktualisert. Dette er spesielt:

  • standarder for visuell design og funksjonalitet til nettsteder;
  • standardkrav (SEO) for søkemotorer;
  • XML og åpne standarder for informasjonsutveksling.

På den annen side har Web 2.0 falt:

  • krav til "lysstyrke" og "kreativitet" i design og innhold;
  • behov for omfattende nettsteder ([http://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1 %82 -%D0%BF%D0%BE%D1%80%D1%82%D0%B0%D0%BB ]);
  • viktigheten av offline annonsering;
  • næringsinteresse i store prosjekter.

Dermed registrerte Web 2.0 overgangen til WWW fra enkle, dyre komplekse løsninger til svært maskinskrevne, billige, brukervennlige nettsteder med muligheten til å effektivt utveksle informasjon. Hovedårsakene til denne overgangen var:

  • kritisk mangel på kvalitetsinformasjonsinnhold;
  • behovet for aktiv selvuttrykk av brukeren på WWW;
  • utvikling av teknologier for å søke og samle informasjon på WWW.

Overgangen til et sett med Web 2.0-teknologier har følgende konsekvenser for det globale WWW-informasjonsrommet, for eksempel:

  • suksessen til prosjektet bestemmes av nivået på aktiv kommunikasjon mellom prosjektbrukere og nivået på kvaliteten på informasjonsinnholdet;
  • nettsteder kan oppnå høy ytelse og lønnsomhet uten store investeringer på grunn av vellykket posisjonering på WWW;
  • individuelle WWW-brukere kan oppnå betydelig suksess med å implementere sine forretningsplaner og kreative planer på WWW uten å ha egne nettsider;
  • konseptet med et personlig nettsted er dårligere enn konseptet "blogg", "forfatters spalte";
  • fundamentalt nye roller for en aktiv WWW-bruker dukker opp (forummoderator, autoritativ forumdeltaker, blogger).

Web 2.0-eksempler
Her er noen eksempler på nettsteder som illustrerer Web 2.0-teknologier og som faktisk har endret WWW-miljøet. Dette er spesielt:

I tillegg til disse prosjektene er det andre prosjekter som former det moderne globale miljøet og er basert på aktiviteten til brukerne deres. Nettsteder, hvis innhold og popularitet er dannet, for det første, ikke av innsatsen og ressursene til eierne deres, men av et fellesskap av brukere som er interessert i utviklingen av nettstedet, utgjør en ny klasse tjenester som bestemmer reglene for det globale WWW-miljøet.

Hei, kjære lesere av bloggsiden. Vi lever alle i det globale Internetts tid og bruker begrepene nettsted, web, www (World Wide Web - World Wide Web, globalt nettverk) ganske ofte og uten å gå spesielt inn på hva det er.

Jeg observerer det samme fra andre forfattere, og til og med vanlige samtalepartnere. "Site", "Internett", "nettverk" eller forkortelsen "WWW" har blitt så vanlige begreper for oss at det ikke en gang faller oss inn å tenke på essensen deres. Den første nettsiden ble imidlertid født for bare rundt tjue år siden. Hva er Internett?

Tross alt har det en ganske lang historie, men før ankomsten av det globale nettverket (WWW), mistenkte 99,9% av planetens innbyggere ikke engang dens eksistens, fordi det var partiet til spesialister og entusiaster. Nå vet til og med eskimoene om World Wide Web, på hvis språk dette ordet er identifisert med sjamanenes evne til å finne svar i universets lag. Så la oss finne ut selv hva Internett, nettside, World Wide Web og alt annet er.

Hva er Internett og hvordan det skiller seg fra World Wide Web

Det mest bemerkelsesverdige faktum som nå kan sies er det Internett har ingen eier. I hovedsak er dette en sammenslutning av individuelle lokale nettverk (takket være de vanlige standardene en gang vedtatt, nemlig TCP/IP-protokollen), som vedlikeholdes i fungerende stand av nettverksleverandører.

Det antas at på grunn av den stadig økende medietrafikken (video og annet tungt innhold som beveger seg i tonnevis på nettverket), vil Internett snart kollapse på grunn av dets begrensede båndbredde. Hovedproblemet i denne forbindelse er å oppdatere nettverksutstyret som utgjør det globale nettet til en høyere hastighet, som først og fremst hindres av de ekstra kostnadene som kreves. Men jeg tror at problemet vil bli løst etter hvert som kollapsen modnes, og det er allerede separate segmenter av nettverket som opererer i høye hastigheter.

Generelt, i lys av det faktum at Internett i hovedsak ikke er noens, bør det nevnes at mange stater, som prøver å innføre sensur på det globale nettverket, ønsker å identifisere det (nemlig den for tiden mest populære komponenten WWW) med.

Men det er faktisk ikke grunnlag for dette ønsket, pga Internett er bare et kommunikasjonsmiddel eller, med andre ord, et lagringsmedium som kan sammenlignes med en telefon eller til og med vanlig papir. Prøv å iverksette sanksjoner på papir eller dets distribusjon rundt om på planeten. Faktisk kan individuelle stater bruke visse sanksjoner bare på nettsteder (øyer med informasjon på nettverket) som blir tilgjengelig for brukere via World Wide Web.

De første forutsetningene for etableringen av det globale nettet og Internett ble gjennomført... Hvilket år tror du? Overraskende nok, tilbake i ville dager av 1957. Naturligvis trengte militæret (og, naturligvis, USA, hvor ville vi vært uten dem) et slikt nettverk for kommunikasjon i tilfelle militære operasjoner som involverer bruk av atomvåpen. Det tok ganske lang tid å opprette nettverket (ca. 12 år), men dette kan forklares med at datamaskiner på den tiden var i startfasen.

Men ikke desto mindre var deres makt ganske nok til å skape en mulighet mellom militæravdelingene og ledende amerikanske universiteter innen 1971. Dermed ble e-postoverføringsprotokollen første måten å bruke Internett på for brukerbehov. Etter et par til visste utenlandske folk allerede hva Internett var. Ved begynnelsen av 80x ble de viktigste dataoverføringsprotokollene standardisert (mail, ), og protokollen til de såkalte Usenet-nyhetskonferansene dukket opp, som lignet på post, men gjorde det mulig å organisere noe som ligner på fora.

Og noen år senere dukket ideen om å lage et domenenavnsystem (DNS - vil spille en avgjørende rolle i dannelsen av WWW) opp og verdens første protokoll for kommunikasjon via Internett i sanntid - IRC (i samtale russisk - irka) dukket opp. Det tillot deg å chatte på nettet. Science fiction som var tilgjengelig og interessant for et veldig, veldig lite antall innbyggere på planeten Jorden. Men det er bare for nå.

I krysset mellom 80- og 90-tallet fant det sted så viktige hendelser i infrastrukturutviklingens historie at de faktisk forutbestemte dens fremtidige skjebne. Generelt skyldes en slik spredning av det globale nettverket i hodet til moderne innbyggere på planeten nesten en enkelt person - Tim Berners-Lee:

Berners-Lee er en engelskmann, født inn i en familie på to matematikere som viet livet til å lage en av verdens første datamaskiner. Det var takket være ham at verden lærte hva Internett, nettside, e-post osv. er. Opprinnelig opprettet han World Wide Web (WWW) for behovene til kjernefysisk forskning ved Cern (de har samme kolliderer). Oppgaven var å hensiktsmessig plassere all vitenskapelig informasjon som var tilgjengelig for bedriften i deres eget nettverk.

For å løse dette problemet kom han opp med alt som nå er de grunnleggende elementene i WWW (det vi anser som Internett, uten å forstå essensen litt). Han tok som grunnlag prinsippet om å organisere informasjon kalt. Hva det er? Dette prinsippet ble oppfunnet lenge før og bestod i å organisere teksten på en slik måte at lineariteten i fortellingen ble erstattet av evnen til å navigere gjennom ulike lenker (forbindelser).

Internett er hypertekst, hyperlenker, URL-er og maskinvare

Takket være dette kan hypertekst leses i forskjellige sekvenser, og derved få forskjellige versjoner av lineær tekst (vel, dette burde være klart og tydelig for deg, som erfarne Internett-brukere, nå, men da var det en revolusjon). Rollen til hypertekstnoder burde vært, som vi nå bare kaller lenker.

Som et resultat kan all informasjonen som nå finnes på datamaskiner, representeres som én stor hypertekst, som inkluderer utallige noder (hyperkoblinger). Alt utviklet av Tim Berners-Lee ble overført fra det lokale CERN-nettet til det vi nå kaller Internett, hvoretter nettet begynte å bli populært i et forrykende tempo (de første femti millioner brukerne av World Wide Web ble registrert i første omgang fem års eksistens).

Men for å implementere prinsippet om hypertekst og hyperkoblinger, var det nødvendig å lage og utvikle flere ting fra bunnen av på en gang. For det første trengte vi en ny dataoverføringsprotokoll, som nå er kjent for dere alle HTTP-protokoll(i begynnelsen av alle nettstedsadresser vil du finne en omtale av den eller dens sikre HTTPs-versjon).

For det andre ble den utviklet fra bunnen av, hvis forkortelse nå er kjent for alle webmastere i verden. Så vi har mottatt verktøy for å overføre data og lage nettsteder (et sett med nettsider eller nettdokumenter). Men hvordan kan man referere til de samme dokumentene?

Den første gjorde det mulig å identifisere et dokument på en separat server (side), og den andre gjorde det mulig å blande et domenenavn (innhentet og unikt som indikerer at dokumentet tilhører et nettsted som er vert på en bestemt server) eller en IP-adresse (en unik digital identifikator for absolutt alle enheter på et globalt eller lokalt nettverk) inn i URI. ). Les mer om det på lenken som er gitt.

Det er bare ett skritt igjen å ta for at World Wide Web endelig skal fungere og bli etterspurt av brukerne. Vet du hvilken?

Vel, selvfølgelig trengte vi et program som kunne vise innholdet på en hvilken som helst nettside på Internett på brukerens datamaskin (ved hjelp av en URL-adresse). Det ble et slikt program. Hvis vi snakker om i dag, er det ikke så mange hovedaktører i dette markedet, og jeg klarte å skrive om dem alle i en kort anmeldelse:

  1. (IE, MSIE) - den gamle garde er fortsatt i tjeneste
  2. (Mazila Firefox) - en annen veteran kommer ikke til å gi opp sin posisjon uten kamp
  3. (Google Chrome) - en ambisiøs nykommer som klarte å ta ledelsen på kortest mulig tid
  4. - en nettleser elsket av mange i RuNet, men som gradvis mister popularitet
  5. - en budbringer fra eplemøllen

Timothy John Berners-Lee skrev selvstendig programmet for verdens første nettleser og kalte det, uten videre, World Wide Web. Selv om dette ikke var grensen for perfeksjon, var det fra denne nettleseren at den seirende marsjen til World Wide Web WWW over planeten begynte.

Generelt sett er det selvfølgelig slående at alle nødvendige verktøy for det moderne Internett (som betyr den mest populære komponenten) var skapt av bare én person på så kort tid. Bravo.

Litt senere dukket den første grafiske nettleseren Mosaic opp, som mange av de moderne nettleserne (Mazila og Explorer) kommer fra. Det var Mosaikk som ble dråpen som manglet til det var en interesse for Internett(nemlig til World Wide Web) blant vanlige innbyggere på planeten Jorden. En grafisk nettleser er en helt annen sak enn en tekstleser. Alle elsker å se på bilder og bare noen få elsker å lese.

Det som er bemerkelsesverdig er at Berners-Lee ikke mottok noen fryktelig store pengesummer, som for eksempel som et resultat han mottok eller, selv om han sannsynligvis gjorde mer for det globale nettverket.

Ja, over tid, i tillegg til HTML-språket utviklet av Berners-Lee, . Takket være dette var det ikke lenger behov for noen av operatørene i Html, og de ble erstattet av mye mer fleksible verktøy for cascading stilark, noe som gjorde det mulig å øke attraktiviteten og designfleksibiliteten til nettstedene som lages i dag. Selv om CSS-regler selvfølgelig er mer komplekse å lære enn merkespråk. Skjønnhet krever imidlertid ofre.

Hvordan fungerer Internett og det globale nettverket fra innsiden?

Men la oss se hva er web (www) og hvordan informasjon legges ut på Internett. Her vil vi stå ansikt til ansikt med selve fenomenet som kalles nettside (nett er et rutenett, og nettsted er et sted). Så, hva er et "sted på nettverket" (analogt med et sted i solen i det virkelige liv) og hvordan du faktisk får det.

Hva er intet? Så den består av kanaldannende enheter (rutere, brytere) som er usynlige og av liten betydning for brukerne. WWW-nettverket (det vi kaller Web eller World Wide Web) består av millioner av webservere, som er programmer som kjører på litt modifiserte datamaskiner, som igjen må kobles (24/7) til det globale nettet og bruke HTTP-protokollen for datautveksling.

Nettserveren (programmet) mottar en forespørsel (oftest fra brukerens nettleser, som åpner lenken eller skrev inn URL-en i adressefeltet) om å åpne et dokument som ligger på denne serveren. I det enkleste tilfellet er et dokument en fysisk fil (for eksempel med html-utvidelsen), som ligger på serverens harddisk.

I et mer komplekst tilfelle (ved bruk), vil det forespurte dokumentet bli generert programmatisk umiddelbart.

For å se den forespurte siden på nettstedet, brukes spesiell programvare på klientsiden (brukersiden), kalt en nettleser, som kan tegne det nedlastede fragmentet av hypertekst i en fordøyelig form på informasjonsskjermen der den samme nettleseren er installert (PC, telefon, nettbrett osv.). Generelt er alt enkelt, hvis du ikke går inn i detaljer.

Tidligere var hver enkelt nettside fysisk hostet på en egen datamaskin. Dette skyldtes hovedsakelig den svake datakraften til de tilgjengelige PC-ene på den tiden. Men uansett må en datamaskin med et webserverprogram og en nettside på den være koblet til Internett hele døgnet. Å gjøre dette hjemme er ganske vanskelig og dyrt, så de bruker vanligvis tjenestene til vertsselskaper som spesialiserer seg på dette for å lagre nettsteder.

Vertstjeneste På grunn av populariteten til WWW, er det nå ganske etterspurt. Takket være den økende kraften til moderne PC-er over tid, har hostere muligheten til å hoste mange nettsteder på én fysisk datamaskin (virtuell hosting), og hosting av én nettside på én fysisk PC har blitt kalt en tjeneste.

Når du bruker virtuell hosting, kan alle nettsteder som er vert på en datamaskin (den som kalles en server) tildeles én IP-adresse, eller hver enkelt kan ha en separat. Dette endrer ikke essensen og kan bare indirekte påvirke nettstedet som ligger der (et dårlig nabolag på én IP kan ha en dårlig innvirkning - søkemotorer behandler noen ganger alle med samme børste).

La oss nå snakke litt om nettsteddomenenavn og deres betydning på World Wide Web. Hver ressurs på Internett har sitt eget domenenavn. Dessuten kan det oppstå en situasjon der samme nettsted kan ha flere domenenavn (resultatet er speil eller aliaser), og også, for eksempel, det samme domenenavnet kan brukes til mange ressurser.

Også for noen seriøse ressurser er det noe slikt som speil. I dette tilfellet kan nettstedfilene være plassert på forskjellige fysiske datamaskiner, og selve ressursene kan ha forskjellige domenenavn. Men dette er alle nyanser som bare forvirrer nybegynnere.