World Wide Web - World Wide Web. World Wide Web: hvorfor kaldes internettet det?

I dag når antallet af internetbrugere op på 3,5 milliarder mennesker, hvilket er næsten halvdelen af ​​verdens befolkning. Og det ved alle selvfølgelig World Wide Web fuldstændig indhyllet vores planet. Men det er stadig ikke alle, der kan sige, om der er forskel på begreberne Internet og World Wide Web. Mærkeligt nok er mange helt sikre på, at det er synonymer, men kyndige fyre kan give argumenter, der vil reducere denne tillid.

Hvad er internettet?

Uden at gå ind i komplekse tekniske detaljer, kan vi sige det Internettet er et system, der forbinder computernetværk over hele verden. Computere er opdelt i to grupper - klienter og servere.

Kunder kaldes almindelige brugerenheder, som bl.a personlige computere, og bærbare computere, og tablets, og selvfølgelig smartphones. De sender en anmodning, modtager og viser information.

Alle informationer gemmes på servere, som kan klassificeres efter forskellige formål:

  • webserver,
  • post,
  • chats,
  • radio- og tv-udsendelsessystemer,
  • fildeling.

Servere er kraftfulde computere, arbejder kontinuerligt. Ud over at gemme oplysninger modtager de forespørgsler fra kunder og sender det nødvendige svar. Samtidig behandler de hundredvis af sådanne anmodninger.

Også i vores korte uddannelsesprogram er det nødvendigt at nævne, at det er værd at nævne Internetudbydere, som sørger for kommunikation mellem klienten og serveren. En udbyder er en organisation med sin egen internetserver, som alle dens klienter er forbundet til. Udbydere leverer kommunikation via telefonkabel, dedikeret kanal eller trådløst netværk.


Sådan kommer du på internettet

Er det muligt at undvære en udbyder og oprette forbindelse direkte til internettet? Teoretisk er det muligt! Du bliver nødt til at blive din egen udbyder og bruge en enorm mængde penge for at komme til de centrale servere. Så giv ikke din internetudbyder for meget skylden for høje takster - disse fyre skal også betale for mange ting og bruge penge på vedligeholdelse af udstyr.

World Wide Web har viklet hele verden ind

Verden Wide Web eller blot web - "web". Faktisk det er repræsenteret af et stort antal sider, der er indbyrdes forbundne. Denne forbindelse leveres af links, hvorigennem du kan flytte fra en side til en anden, selvom den er placeret på en anden computer, der er tilsluttet.


World Wide Web er den mest populære og største internettjeneste.

World Wide Web bruger specielle webservere til at fungere. De gemmer websider (hvoraf en du ser nu). Sider forbundet med links, der har et fælles tema, udseende og normalt placeret på den samme server kaldes et websted.

For at se websider og dokumenter bruges specielle programmer - browsere.

Det er World Wide Web, der omfatter fora, blogs og sociale medier. Men dets arbejde og eksistens er direkte sikret af internettet...

Er der stor forskel?

Faktisk er forskellen mellem internettet og World Wide Web ret stor. Hvis internettet er kæmpe netværk, der forbinder millioner af computere rundt om på planeten for at dele information, World Wide Web er blot én måde at udveksle disse oplysninger på. Ud over at sikre driften af ​​World Wide Web giver internettet dig mulighed for at bruge e-mail og forskellige instant messengers samt overføre filer via FTP-protokollen,

Internettet er det, der forbinder adskillige computernetværk.

World Wide Web er alle de sider, der er gemt på specielle servere Internettet.

Konklusion

Nu ved du det World Wide Web Internettet og World Wide Web er forskellige ting. Og vigtigst af alt, vil du være i stand til at vise din intelligens og forklare dine venner, hvad denne forskel er.

Struktur og principper for World Wide Web

Grafisk repræsentation af information på World Wide Web

World Wide Web består af millioner af internet-webservere placeret rundt om i verden. En webserver er et program, der kører på en computer, der er tilsluttet et netværk og bruger harddiskprotokollen og sender den over netværket til den anmodende computer. Mere komplekse webservere er i stand til dynamisk at allokere ressourcer som svar på en HTTP-anmodning. For at identificere ressourcer (ofte filer eller dele heraf) på World Wide Web bruges ensartede engelske ressourceidentifikatorer. Ensartet ressourceidentifikator). For at bestemme placeringen af ​​ressourcer på netværket bruges ensartede engelske ressourcelokaliser. Uniform Resource Locator). Sådanne URL-locatorer kombinerer URI-identifikationsteknologi og det engelske domænenavnssystem. Domænenavnesystem) - domænenavn(eller direkte. En webbrowsers hovedfunktion er at vise hypertekst. World Wide Web er uløseligt forbundet med begreberne hypertekst og hyperlinks. Det meste af informationen på nettet er hypertekst. For at lette oprettelse, lagring og visning af hypertekst på World Wide Web, bruges det engelske sprog traditionelt. HyperText Markup Language), hypertekstmarkeringssprog. Arbejdet med at markere hypertekst kaldes layout. Markup-masteren kaldes en webmaster eller webmaster (uden bindestreg). Efter HTML-markering placeres den resulterende hypertekst i en fil. Sådan en HTML-fil er den mest almindelige ressource på World Wide Web. Når en HTML-fil er gjort tilgængelig for en webserver, kaldes den en "webside". En samling af websider udgør et websted. Hyperlinks føjes til hyperteksten på websider. Hyperlinks hjælper World Wide Web-brugere med nemt at navigere mellem ressourcer (filer), uanset om ressourcerne er placeret på lokal computer eller på en ekstern server. Webhyperlinks er baseret på URL-teknologi.

World Wide Web-teknologier

Generelt kan vi konkludere, at World Wide Web er baseret på "tre søjler": HTTP, HTML og URL. Selvom i på det seneste HTML begyndte at miste sin position noget og opgive det mere moderne teknologier markup: XML. XML eXtensible Markup Language) er placeret som et fundament for andre markup-sprog. At forbedre visuel perception CSS-teknologi er blevet meget brugt på nettet, hvilket giver dig mulighed for at specificere ensartede stilarter design til mange websider. En anden nyskabelse, der er værd at være opmærksom på, er det engelske ressourcebetegnelsessystem. Ensartet ressourcenavn).

Et populært koncept for udviklingen af ​​World Wide Web er skabelsen af ​​Semantic Web. The Semantic Web er en tilføjelse til det eksisterende World Wide Web, som er designet til at gøre informationer på netværket mere forståelige for computere. Det semantiske web er et koncept af et netværk, hvor hver ressource på menneskeligt sprog vil blive forsynet med en beskrivelse, der er forståelig for en computer.. Det Semantiske Web giver adgang til klart struktureret information til enhver applikation, uanset platform og uanset programmeringssprog. Programmer vil selv kunne finde de nødvendige ressourcer, behandle information, klassificere data, identificere logiske forbindelser, drage konklusioner og endda træffe beslutninger baseret på disse konklusioner. Hvis det er bredt vedtaget og implementeret klogt, har Semantic Web potentialet til at udløse en revolution på internettet. For at skabe en computervenlig beskrivelse af en ressource bruger Semantic Web formatet RDF (engelsk). Ressourcebeskrivelsesramme ), som er baseret på engelsk syntaks. RDF-skema) og engelsk Protokol og RDF-forespørgselssprog ) (udtales "gnistre"), et nyt forespørgselssprog til hurtig adgang til RDF-data.

Historien om World Wide Web

Tim Berners-Lee og Robert Cayo betragtes som opfinderne af World Wide Web. Tim Berners-Lee er ophavsmanden til HTTP-, URI/URL- og HTML-teknologier. I det år arbejdede han i Frankrig. Conseil Européen pour la Recherche Nucléaire, Genève (Schweiz), skrev han Inquire-programmet til sine egne behov. "Spørge", kan løst oversættes som "Interrogator"), som brugte tilfældige associationer til at lagre data og lagde det konceptuelle grundlag for World Wide Web.

Der er også et populært koncept Web 2.0, som opsummerer flere udviklingsretninger for World Wide Web.

Metoder til aktiv visning af information på World Wide Web

Information på nettet kan vises enten passivt (det vil sige, at brugeren kun kan læse den) eller aktivt - så kan brugeren tilføje information og redigere den. Metoder til aktivt at vise information på World Wide Web omfatter:

Det skal bemærkes, at denne opdeling er meget vilkårlig. Så f.eks. kan en blog eller gæstebog betragtes som et specialtilfælde af et forum, som igen er et særligt tilfælde af et indholdsstyringssystem. Normalt er forskellen i formålet, tilgangen og positionering et eller andet produkt.

Nogle oplysninger fra websteder kan også tilgås via tale. Indien er allerede begyndt at teste et system, der gør tekstindholdet på sider tilgængeligt selv for folk, der ikke kan læse og skrive.

Organisationer involveret i udviklingen af ​​World Wide Web og internettet generelt

Links

  • Berners-Lees berømte bog "Weaving the Web: The Origins and Future of the World Wide Web" online på engelsk

Litteratur

  • Fielding, R.; Gettys, J.; Mogul, J.; Fristik, G.; Mazinter, L.; Leach, P.; Berners-Lee, T. (juni 1999). " Hypertext Transfer Protocol - http://1.1". Anmodning om kommentarer 2616. Informationsvidenskabelige Institut.
  • Berners-Lee, Tim; Bray, Tim; Connolly, Dan; Cotton, Paul; Fielding, Roy; Jeckle, Mario; Lilly, Chris; Mendelsohn, Noah; Orcard, David; Walsh, Norman; Williams, Stuart (15. december 2004). " World Wide Webs arkitektur, bind 1". Version 20041215. W3C.
  • Polo, Luciano World Wide Web Technology Architecture: En konceptuel analyse. Nye enheder(2003). Hentet 31. juli 2005.

Noter

Wikimedia Foundation.

2010.

    Se, hvad "World Wide Web" er i andre ordbøger:

    World Wide Web World Wide Web

    - Ne doit pas être confondu avec Internet. Le World Wide Web, littéralement la "toile (d'araignée) mondiale", communément appelé le Web, parfois la Toile eller WWW, est un system hypertexte public fonctionnant sur Internet et qui … Wikipédia en Français World Wide Web

Struktur og principper for World Wide Web

- ˌWorld ˌWide ˈWeb skriftlig forkortelse WWW navneord the World Wide Web COMPUTING et system, der gør det muligt for computerbrugere nemt at finde information, der er tilgængelig på internettet, ved at give links fra et dokument til andre dokumenter og til filer... ... Økonomiske og forretningsmæssige vilkår

World Wide Web omkring Wikipedia Ensartet ressourceidentifikator World Wide Web består af millioner af internet-webservere placeret rundt om i verden. En webserver er et program, der kører på en computer, der er tilsluttet et netværk og bruger HTTP-protokollen til at overføre data. I sin enkleste form modtager et sådant program en HTTP-anmodning om en specifik ressource over netværket, finder den tilsvarende fil på den lokale harddisk og sender den over netværket til den anmodende computer. Mere komplekse webservere er i stand til dynamisk at allokere ressourcer som svar på en HTTP-anmodning. For at identificere ressourcer (ofte filer eller dele heraf) på World Wide Web bruges ensartede ressourceidentifikatorer (URI'er). Uniform Resource Locator). Ensartede URL-ressourcelokalisatorer bruges til at lokalisere ressourcer på nettet. Domænenavnesystem). Disse URL-locatorer kombinerer URI-identifikationsteknologi og DNS-domænenavnesystemet.

) - et domænenavn (eller direkte en adresse i numerisk notation) er en del af URL'en for at udpege en computer (mere præcist, en af ​​dens netværksgrænseflader), der udfører koden for den ønskede webserver. For at se oplysninger modtaget fra webserveren på klientcomputeren skal du bruge- webbrowser. En webbrowsers hovedfunktion er at vise hypertekst. World Wide Web er uløseligt forbundet med begreberne hypertekst og hyperlinks. Det meste af informationen på internettet er hypertekst. For at lette oprettelsen, lagringen og visningen af ​​hypertekst på World Wide Web, bruges HTML traditionelt. HyperText Markup Language), hypertekstmarkeringssprog. Arbejdet med at markere hypertekst kaldes layout. Markup-masteren kaldes en webmaster eller webmaster (uden bindestreg). Efter HTML-markering placeres den resulterende hypertekst i en fil. Sådan en HTML-fil er den vigtigste ressource på World Wide Web. Når en HTML-fil er gjort tilgængelig for en webserver, kaldes den en "webside". En samling af websider udgør et websted. Hyperlinks føjes til hyperteksten på websider. Hyperlinks hjælper World Wide Web-brugere med nemt at navigere mellem ressourcer (filer), uanset om ressourcerne er placeret på den lokale computer eller på en ekstern server. Webhyperlinks er baseret på URL-teknologi.

World Wide Web-teknologier

For at forbedre den visuelle opfattelse af nettet er CSS-teknologi blevet meget brugt, hvilket giver dig mulighed for at indstille ensartede designstile for mange websider. En anden innovation, der er værd at være opmærksom på, er URN-ressourcebetegnelsessystemet. Ensartet ressourcenavn).

Et populært koncept for udviklingen af ​​World Wide Web er skabelsen af ​​Semantic Web. The Semantic Web er en tilføjelse til det eksisterende World Wide Web, som er designet til at gøre informationer på netværket mere forståelige for computere. Det semantiske web er et koncept af et netværk, hvor hver ressource på menneskeligt sprog vil blive forsynet med en beskrivelse, som en computer kan forstå. Det Semantiske Web giver adgang til klart struktureret information til enhver applikation, uanset platform og uanset programmeringssprog. Programmer vil selv kunne finde de nødvendige ressourcer, behandle information, klassificere data, identificere logiske forbindelser, drage konklusioner og endda træffe beslutninger baseret på disse konklusioner. Hvis det er bredt vedtaget og implementeret klogt, har Semantic Web potentialet til at udløse en revolution på internettet. For at skabe en computervenlig beskrivelse af en ressource bruger Semantic Web formatet RDF (engelsk). Ressourcebeskrivelsesramme ), som er baseret på XML-syntaks og bruger URI'er til at identificere ressourcer. Nyt på dette område er RDFS (engelsk) russisk RDF-skema(engelsk) Protokol og RDF-forespørgselssprog ) (udtales "gnister"), et nyt forespørgselssprog for hurtig adgang til RDF-data.

Historien om World Wide Web

Tim Berners-Lee og i mindre grad Robert Cayo betragtes som opfinderne af World Wide Web. Tim Berners-Lee er ophavsmanden til HTTP-, URI/URL- og HTML-teknologier. I 1980 arbejdede han ved European Council for Nuclear Research (fransk). Conseil Européen pour la Recherche Nucléaire, CERN ) softwarekonsulent. Det var der, i Genève (Schweiz), han skrev Inquire-programmet til sine egne behov. Spørge, kan løst oversættes som "Interrogator"), som brugte tilfældige associationer til at lagre data og lagde det konceptuelle grundlag for World Wide Web.

Verdens første hjemmeside blev hostet af Berners-Lee den 6. august 1991 på den første webserver tilgængelig på http://info.cern.ch/, (). Ressource definerede konceptet World Wide Web, indeholdt instruktioner til opsætning af en webserver, brug af en browser osv. Dette websted var også verdens første internetmappe, fordi Tim Berners-Lee senere udsendte og vedligeholdt en liste over links til andre websteder der.

Det første fotografi på World Wide Web var af parodifilk-bandet Les Horribles Cernettes. Tim Bernes-Lee bad gruppelederen om scanninger af dem efter CERN Hardronic Festival.

Og dog teoretiske grundlag Nettet blev grundlagt meget tidligere end Berners-Lee. Tilbage i 1945 udviklede Vannaver Bush konceptet Memex. (engelsk) russisk - mekaniske hjælpemidler til at "udvide den menneskelige hukommelse". Memex er en enhed, hvor en person gemmer alle sine bøger og optegnelser (og ideelt set al sin viden, der kan beskrives formelt), og hvilke problemer nødvendige oplysninger med tilstrækkelig hastighed og fleksibilitet. Det er en forlængelse og tilføjelse til menneskets hukommelse. Bush forudsagde også omfattende indeksering af tekst- og multimedieressourcer med evnen hurtig søgning

  • nødvendige oplysninger. Det næste vigtige skridt hen imod World Wide Web var skabelsen af ​​hypertekst (et begreb opfundet af Ted Nelson i 1965).
  • Det sociale web er afhængig af arbejdet med at organisere den information, der er tilgængelig på nettet, udført af webbrugerne selv. I den anden retning bruges udviklinger, der er en del af det semantiske web, aktivt som værktøjer (RSS og andre webkanalformater, OPML, XHTML mikroformater). Delvist semantiserede sektioner af Wikipedia-kategoritræet hjælper brugerne med at navigere bevidst i informationsrummet, men meget bløde krav til underkategorier giver ikke anledning til at håbe på udvidelsen af ​​sådanne sektioner. I den forbindelse kan forsøg på at udarbejde vidensatlass være af interesse.

Der er også et populært koncept Web 2.0, som opsummerer flere udviklingsretninger for World Wide Web.

Metoder til aktiv visning af information på World Wide Web

Information på nettet kan vises enten passivt (det vil sige, at brugeren kun kan læse den) eller aktivt - så kan brugeren tilføje information og redigere den. Metoder til aktivt at vise information på World Wide Web omfatter:

Det skal bemærkes, at denne opdeling er meget vilkårlig. Så f.eks. kan en blog eller en gæstebog betragtes som et særligt tilfælde af et forum, som igen er et særligt tilfælde af et indholdsstyringssystem. Normalt kommer forskellen til udtryk i formålet, tilgangen og placeringen af ​​et bestemt produkt.

Nogle oplysninger fra websteder kan også tilgås via tale. Indien er allerede begyndt at teste et system, der gør tekstindholdet på sider tilgængeligt selv for folk, der ikke kan læse og skrive.

World Wide Web kaldes nogle gange ironisk nok for Wild Wild Web, med henvisning til titlen på filmen Wild Wild West.

Se også

Noter

Litteratur

  • Fielding, R.; Gettys, J.; Mogul, J.; Fristik, G.; Mazinter, L.; Leach, P.; Berners-Lee, T. (juni 1999). "Hypertext Transfer Protocol - http://1.1" (Information Sciences Institute).
  • Berners-Lee, Tim; Bray, Tim; Connolly, Dan; Cotton, Paul; Fielding, Roy; Jeckle, Mario; Lilly, Chris; Mendelsohn, Noah; Orcard, David; Walsh, Norman; Williams, Stuart (15. december 2004). "Arkitektur af World Wide Web, bind 1" (W3C).
  • Polo, Luciano World Wide Web Technology Architecture: En konceptuel analyse. Nye enheder(2003). Arkiveret fra originalen 24. august 2011. Hentet 31. juli 2005.

Links

  • Officiel hjemmeside for World Wide Web Consortium (W3C) (engelsk)
  • Tim Berners-Lee, Mark Fischetti. Vævning af nettet: World Wide Webs oprindelse og fremtid = Vævning af nettet: World Wide Webs oprindelige design og ultimative skæbne. - New York: HarperCollins Publishers (engelsk) russisk . - 256 s. - ISBN 0-06-251587-X, ISBN 978-0-06-251587-2(engelsk)
Andre organisationer involveret i udviklingen af ​​World Wide Web og internettet generelt

World Wide Web (forkortet World Wide Web eller WWW) er en enhed af informationsressourcer, der er indbyrdes forbundet ved hjælp af telekommunikation og er baseret på en hypertekstrepræsentation af data spredt over hele verden.

Fødselsåret for World Wide Web anses for at være 1989. Det var i år, at Tim Berners-Lee foreslog et fælles hypertekstprojekt, som senere blev kendt som World Wide Web.

Skaberen af ​​"nettet" Tim Bernes-Lee, der arbejdede i laboratoriet for elementær partikelfysik ved European Center for Nuclear Research "CERN" i Genève (Schweiz), arbejdede sammen med partneren Robert Caillot på problemerne med at bruge hypertekstideer til bygning informationsmiljø, hvilket ville forenkle udvekslingen af ​​information mellem fysikere.

Resultatet af dette arbejde var et dokument, der undersøgte begreber, der er grundlæggende for "nettet" i dets moderne form, og foreslåede URI'er, HTTP-protokollen og HTML-sproget. Uden disse teknologier er det ikke længere muligt at forestille sig det moderne internet.

Berners-Lee skabte verdens første webserver og verdens første hypertekst webbrowser. På verdens første hjemmeside beskrev han, hvad World Wide Web var, og hvordan man sætter en webserver op, hvordan man bruger en browser mv. Dette websted var også verdens første internetkatalog.

Siden 1994 er de vigtigste opgaver for udviklingen af ​​World Wide Web blevet overtaget af World Wide Web Consortium ( World Wide Web Consortium, WZS), som var organiseret og stadig ledet af Kim Bernes-Lee. Konsortiet udvikler og implementerer teknologistandarder for internettet og World Wide Web. WZS mission: "Slip det fulde potentiale af World Wide Web løs ved at skabe protokoller og principper, der garanterer den langsigtede udvikling af netværket." WZS udvikler "anbefalinger" for at opnå kompatibilitet mellem softwareprodukter og udstyr fra forskellige virksomheder, hvilket gør World Wide Web mere avanceret, universelt og bekvemt.

Søgemaskiner: sammensætning, funktioner, driftsprincipper.

Søgemaskine er et software- og hardwarekompleks designet til at søge på internettet og svare på en brugeranmodning, specificeret i form af en tekstsætning (søgeforespørgsel), ved at producere en liste over links til informationskilder i rækkefølge efter relevans (iht. anmodningen). De største internationale søgemaskiner: "Google", "Yahoo", "MSN". På det russiske internet er det - "Yandex", "Rambler", "Aport".

Lad os beskrive hovedkarakteristika søgemaskiner :

    Fuldstændighed

Fuldstændighed er en af ​​hovedkarakteristikaene ved et søgesystem, som er forholdet mellem antallet af dokumenter fundet ved anmodning og det samlede antal dokumenter på internettet, der opfylder den givne anmodning. For eksempel, hvis der er 100 sider på internettet, der indeholder sætningen "hvordan man vælger en bil", og kun 60 af dem blev fundet til den tilsvarende forespørgsel, vil fuldstændigheden af ​​søgningen være 0,6. Jo mere komplet søgningen er, jo mindre sandsynligt er det naturligvis, at brugeren ikke finder det dokument, han har brug for, forudsat at det overhovedet findes på internettet.

    Nøjagtighed

Nøjagtighed er en anden hovedegenskab ved en søgemaskine, som bestemmes af i hvilken grad de fundne dokumenter matcher brugerens forespørgsel. For eksempel, hvis forespørgslen "hvordan vælger du en bil" indeholder 100 dokumenter, indeholder 50 af dem sætningen "hvordan vælger du en bil", og resten indeholder blot disse ord ("hvordan vælger du den rigtige radio og installerer den i en bil"), så anses søgenøjagtigheden for at være lig med 50/100 (=0,5). Jo mere nøjagtig søgningen er, jo hurtigere vil brugeren finde de dokumenter, han har brug for, jo mindre forskellige slags "skrald" vil blive fundet blandt dem, jo ​​sjældnere svarer de fundne dokumenter ikke til anmodningen.

    Relevans

Relevans er en lige så vigtig komponent i søgning, som er kendetegnet ved den tid, der går fra det øjeblik, dokumenter offentliggøres på internettet, til de indtastes i søgemaskinens indeksdatabase. For eksempel, dagen efter interessante nyheder dukkede op, henvendte et stort antal brugere sig til søgemaskiner med relevante forespørgsler. Objektivt set er der gået mindre end en dag siden offentliggørelsen af ​​nyhedsoplysninger om dette emne, men hoveddokumenterne er allerede blevet indekseret og tilgængelige for søgning, takket være eksistensen af ​​den såkaldte "hurtige database" med store søgemaskiner, som opdateres flere gange dagligt.

    Søgehastighed

Søgehastighed er tæt forbundet med dens belastningsmodstand. For eksempel, ifølge Rambler Internet Holding LLC, modtager Rambler-søgemaskinen i dag i åbningstiden omkring 60 anmodninger i sekundet. En sådan arbejdsbyrde kræver, at behandlingstiden for en individuel anmodning reduceres. Her er brugerens og søgemaskinens interesser sammenfaldende: Den besøgende ønsker at få resultater så hurtigt som muligt, og søgemaskinen skal behandle anmodningen så hurtigt som muligt, for ikke at bremse udregningen af ​​efterfølgende forespørgsler.

    Sigtbarhed

Klarheden af ​​præsentationen af ​​resultaterne er en vigtig komponent praktisk søgning. For de fleste forespørgsler finder søgemaskinen hundredvis eller endda tusindvis af dokumenter. På grund af uklare forespørgsler eller unøjagtige søgninger, indeholder selv de første sider med søgeresultater ikke altid kun den nødvendige information. Det betyder, at brugeren ofte skal lave sin egen søgning indenfor fundlisten. Forskellige elementer på søgemaskinens resultatside hjælper dig med at navigere gennem søgeresultaterne. Detaljerede forklaringer af søgeresultatsiden, for eksempel for Yandex, kan findes på linket http://help.yandex.ru/search/?id=481937.

En kort historie om udviklingen af ​​søgemaskiner

I den indledende periode med internetudvikling var antallet af brugere lille, og mængden af ​​tilgængelig information var relativt lille. For det meste var det kun forskningspersonale, der havde adgang til internettet. På dette tidspunkt var opgaven med at søge information på internettet ikke så presserende, som den er nu.

En af de første måder at organisere adgangen til netværksinformationsressourcer på var oprettelsen af ​​åbne mapper over websteder, links til ressourcer, som var grupperet efter emne. Det første sådan projekt var Yahoo.com-webstedet, som åbnede i foråret 1994. Efter at antallet af websteder i Yahoo-biblioteket steg markant, blev muligheden for at søge efter de nødvendige oplysninger i biblioteket tilføjet. I fuld forstand var det endnu ikke en søgemaskine, da søgeområdet kun var begrænset til ressourcerne i kataloget og ikke til alle internetressourcer.

Link-mapper blev meget brugt i fortiden, men har næsten fuldstændig mistet deres popularitet i dag. Da selv moderne kataloger, store i volumen, kun indeholder information om en ubetydelig del af internettet. Den største mappe på DMOZ-netværket (også kaldet Open Directory Project) indeholder oplysninger om 5 millioner ressourcer, mens Googles søgemaskinedatabase består af mere end 8 milliarder dokumenter.

Den første fuldgyldige søgemaskine var WebCrawler-projektet, udgivet i 1994.

I 1995 dukkede søgemaskinerne Lycos og AltaVista op. Sidstnævnte har i mange år været førende inden for informationssøgning på internettet.

I 1997 oprettede Sergey Brin og Larry Page Google-søgemaskinen som en del af et forskningsprojekt ved Stanford University. Google er i øjeblikket den mest populære søgemaskine i verden!

I september 1997 blev Yandex-søgemaskinen, som er den mest populære på det russisksprogede internet, officielt annonceret.

I øjeblikket er der tre internationale søgemaskiner – Google, Yahoo og MSN, som har deres egne databaser og søgealgoritmer. De fleste andre søgemaskiner (som der er et stort antal af) bruger i en eller anden form resultaterne af de tre anførte. For eksempel bruger AOL-søgning (search.aol.com) Google-databasen, mens AltaVista, Lycos og AllTheWeb bruger Yahoo-databasen.

Sammensætning og principper for drift af søgesystemet

I Rusland er hovedsøgemaskinen Yandex, efterfulgt af Rambler.ru, Google.ru, Aport.ru, Mail.ru. Desuden på i øjeblikket, Mail.ru bruger Yandex søgemaskine og database.

Næsten alle større søgemaskiner har deres egen struktur, der er forskellig fra andre. Det er dog muligt at identificere fælles for alle søgemaskiner hovedkomponenter. Forskelle i struktur kan kun være i form af implementering af mekanismerne for interaktion mellem disse komponenter.

Indekseringsmodul

Indekseringsmodulet består af tre hjælpeprogrammer (robotter):

Edderkop – et program designet til at downloade websider. Edderkoppen downloader siden og henter alle interne links fra den side. HTML-koden for hver side downloades. Robotter bruger HTTP-protokoller til at downloade sider. Edderkoppen fungerer som følger. Robotten sender anmodningen "get/sti/dokument" og nogle andre HTTP-anmodningskommandoer til serveren. Som svar modtager robotten en tekststrøm, der indeholder serviceoplysninger og selve dokumentet.

    Side URL

    dato siden blev downloadet

    Serversvar http-header

    sidetekst (html-kode)

Crawler ("rejsende" edderkop) – et program, der automatisk følger alle links fundet på siden. Vælger alle links på siden. Dens opgave er at bestemme, hvor edderkoppen skal gå næste gang, baseret på links eller baseret på en forudbestemt liste over adresser. Crawler søger efter de fundne links efter nye dokumenter, der stadig er ukendte for søgemaskinen.

Indekser (robotindekser) - et program, der analyserer websider downloadet af edderkopper. Indekseringsværktøjet analyserer siden i dens bestanddele og analyserer dem ved hjælp af sine egne leksikalske og morfologiske algoritmer. Forskellige sideelementer analyseres, såsom tekst, overskrifter, links, struktur- og stilfunktioner, specielle HTML-tags for service osv.

Således giver indekseringsmodulet dig mulighed for at gennemgå et givet sæt ressourcer ved hjælp af links, downloade stødte sider, udtrække links til nye sider fra modtagne dokumenter og udføre en komplet analyse af disse dokumenter.

Database

En database eller søgemaskineindeks er et datalagringssystem, et informationsarray, hvori specielt konverterede parametre for alle dokumenter, der downloades og behandles af indekseringsmodulet, gemmes.

Søgeserver

Søgeserveren er det vigtigste element hele systemet, da søgningens kvalitet og hastighed direkte afhænger af de algoritmer, der ligger til grund for dets funktion.

Søgeserveren fungerer som følger:

    Anmodningen modtaget fra brugeren underkastes morfologisk analyse. Informationsmiljøet for hvert dokument indeholdt i databasen genereres (som efterfølgende vil blive vist i form af et uddrag, dvs. svarende til anmodningen tekstoplysninger på søgeresultatsiden).

    De modtagne data sendes som input parametre særligt rangeringsmodul.

    Data behandles for alle dokumenter, som et resultat af, at hvert dokument har sin egen vurdering, der karakteriserer relevansen af ​​den forespørgsel, som brugeren har indtastet, og de forskellige komponenter i dette dokument, der er gemt i søgemaskinens indeks.

    Afhængigt af brugerens valg kan denne vurdering justeres af yderligere betingelser (for eksempel den såkaldte "avanceret søgning").

    Dernæst genereres et uddrag, det vil sige for hvert dokument, der er fundet, udtrækkes titlen, et kort sammendrag, der passer bedst til forespørgslen, og et link til selve dokumentet, og de fundne ord fremhæves.

De resulterende søgeresultater overføres til brugeren i form af en SERP (Search Engine Result Page) - en søgeresultatside.

Som du kan se, er alle disse komponenter tæt beslægtede med hinanden og arbejder i samspil og danner en klar, ret kompleks mekanisme til driften af ​​søgesystemet, som kræver enorme mængder ressourcer.

Ingen søgemaskine dækker alle internetressourcer.

Hver søgemaskine indsamler information om internetressourcer ved hjælp af sine egne unikke metoder og danner sin egen periodisk opdaterede database. Adgang til denne database gives til brugeren.

til brugeren en liste over ressourcer fundet efter anmodning.

De fleste søgemaskiner kombinerer begge søgemetoder.

Søgemaskiner kan være lokale, globale, regionale og specialiserede.

I den russiske del af internettet (Runet) er de mest populære generelle søgemaskiner Rambler (www.rambler.ru), Yandex (www.yandex.ru), Aport (www.aport.ru), Google (www. google.ru).De fleste søgemaskiner

implementeret i form af portaler.Portal (fra engelsk. - portal, gate) er et websted, der integrerer forskellige internettjenester: søgeværktøjer, mail, nyheder, ordbøger osv.

Portaler kan være specialiserede (som f.eks.www. museum. ru) og generelt (f.eks.www. km. ru).

Søg efter nøgleord

Sættet af søgeord, der bruges til at søge, kaldes også søgekriteriet eller søgeemnet.

En anmodning kan bestå af enten et ord eller en kombination af ord kombineret af operatører - symboler, hvormed systemet bestemmer, hvilken handling det skal udføre. For eksempel: anmodningen "Moskva St. Petersborg" indeholder AND-operatoren (sådan opfattes et mellemrum), som angiver, at man skal søge efter dokumenter, der indeholder begge ord - Moskva og St. Petersborg.

For at søgningen skal være relevant (fra engelsk relevant - relevant, relevant), bør der tages hensyn til flere generelle regler:

    Uanset hvilken form ordet bruges i forespørgslen, tager søgningen hensyn til alle dets ordformer i henhold til reglerne for det russiske sprog.

    For eksempel vil forespørgslen "billet" også finde ordene "billet", "billet" osv.

    Store bogstaver bør kun bruges i egennavne for at undgå at se unødvendige referencer. På anmodning fra "smede" vil for eksempel blive fundet dokumenter, der taler om både smede og Kuznetsovs.

    Det er tilrådeligt at indsnævre din søgning med nogle få søgeord.

Hvis den påkrævede adresse ikke er blandt de første tyve adresser fundet, bør du ændre anmodningen.

Hver søgemaskine bruger sit eget søgesprog. For at blive bekendt med det, brug søgemaskinens indbyggede hjælp

Store websteder kan have indbygget informationssøgningssystemer på deres websider.

Forespørgsler i sådanne søgesystemer er som regel bygget efter de samme regler som i globale søgemaskiner, men kendskab til hjælpen her vil ikke være overflødig.

Avanceret søgning Søgemaskiner kan give en mekanisme, som brugeren kan oprette kompleks forespørgsel Forespørgsler i sådanne søgesystemer er som regel bygget efter de samme regler som i globale søgemaskiner, men kendskab til hjælpen her vil ikke være overflødig.. Følg linket

gør det muligt at redigere søgeparametre, angive yderligere parametre og vælge den mest bekvemme formular til visning af søgeresultater. Det følgende beskriver de parametre, der kan specificeres under en avanceret søgning i Yanex- og Rambler-systemerne.

Parameterbeskrivelse

Navn i YandexNavn i

Rambler Hvor skal man lede søgeord

(dokumenttitel, brødtekst osv.)

Ordbogsfilter

Søg på tekst...

(dokumenttitel, brødtekst osv.)

Søg efter søgeord... Ekskluder dokumenter, der indeholder følgende ord...

Hvor langt fra hinanden skal søgeord placeres?

(dokumenttitel, brødtekst osv.)

Afstand mellem søgeord...

Begrænsning af dokumentdato

Dokumentdato...

Begræns din søgning til et eller flere websteder

Site/Top

Søg kun i dokumenter på følgende websteder...

Begrænsning af søgning efter dokumentsprog

Dokumentsprog...

Søg i dokumenter indeholdende et billede med et bestemt navn eller billedtekst

Billede

Søg på sider indeholdende genstande

Særlige genstande

Præsentationsformular til søgeresultater

Udgaveformat

Viser søgeresultater

Nogle søgemaskiner (for eksempel Yandex) giver dig mulighed for at indtaste forespørgsler på naturligt sprog. Du skriver, hvad du skal finde (for eksempel: bestilling af togbilletter fra Moskva til St. Petersborg). Systemet analyserer anmodningen og producerer resultatet. Hvis du ikke er tilfreds med det, skal du skifte til forespørgselssproget.

World Wide Web (www)

Efterhånden som internettet udviklede sig, blev mere og mere information involveret i dets cirkulation, og det blev stadig vanskeligere at navigere på internettet. Så opstod opgaven med at skabe en enkel og forståelig måde at organisere informationer på internetsider på. Den nye www (world wide web)-tjeneste har klaret denne opgave fuldt ud.

World Wide Web er et system af dokumenter med tekst og grafisk information, placeret på internetsider og forbundet med hyperlinks. Måske netop denne tjeneste er den mest populære, og for mange brugere er den synonym med ordet INTErNET selv. Ofte forveksler nybegyndere to begreber - Internettet og WWW (eller Web). Det skal erindres, at WWW blot er en af ​​de mange tjenester, der tilbydes internetbrugere.

Hovedideen der blev brugt i udviklingen af ​​www-systemet var er ideen om at få adgang til information ved hjælp af hypertekstlinks. Dens essens er at inkludere links til andre dokumenter i dokumentets tekst, som kan være placeret enten på samme eller på fjerninformationsservere.

Historien om www begynder fra det øjeblik, hvor en medarbejder i den berømte videnskabelige organisation CErN Berners-Lee i 1989 foreslog sin ledelse at oprette en database i form af et informationsnetværk, der ville bestå af dokumenter, der indeholdt både selve informationen og links til andre dokumenter. Sådanne dokumenter er intet andet end hypertekst.

En anden mulighed, der adskiller www fra andre typer tjenester, er, at du gennem dette system kan få adgang til næsten alle andre typer Internet service såsom FTP, Gopher, Telnet.

WWW er et multimediesystem. Det betyder, at med ved hjælp af www Du kan for eksempel se en video om historiske monumenter eller finde information om VM. Det er muligt at få adgang til biblioteksinformation og nyere fotografier af kloden taget for fem minutter siden af ​​meteorologiske satellitter, sammen med.

Ideen om at organisere information i form af hypertekst er ikke ny. Hypertekst levede længe før fremkomsten af ​​computere. Det enkleste eksempel på ikke-computer hypertekst er encyklopædier. Nogle ord i artikler er markeret med kursiv. Det betyder, at du kan henvise til den relaterede artikel og få mere detaljerede oplysninger. Men hvis du i en ikke-computerhypertekst skal vende sider, er det øjeblikkeligt at følge et hypertekstlink på monitorskærmen. Du skal blot klikke på linkordet.

Den primære fordel ved ovennævnte Tim Berners-Lee er, at han ikke kun fremsatte ideen om at skabe et informationssystem baseret på hypertekst, men også foreslog en række metoder, der dannede grundlaget for den fremtidige www-tjeneste .

I 1991 begyndte de ideer, der opstod i CErN, at blive aktivt udviklet af Center for Supercomputing Applications (NCSA). Det er NCSA, der skaber hypertekstsproget html dokumenter, samt Mosaic-programmet designet til at se dem. Mosaic, udviklet af Mark Andersen, blev den første browser og åbnede ny klasse software produkter.

I 1994 begyndte antallet af www-servere at vokse hurtigt, og den nye internettjeneste modtog ikke kun verdensomspændende anerkendelse, men tiltrak også folk til internettet kæmpe beløb nye brugere.

Lad os nu give de grundlæggende definitioner.

www– dette er et sæt websider placeret på internetsider og forbundet med hyperlinks (eller blot links).

webside er en strukturel enhed af www, som omfatter de faktiske oplysninger (tekst og grafik) og links til andre sider.

hjemmeside– disse er websider fysisk placeret på én internetknude.

www-hyperlinksystemet er baseret på, at nogle udvalgte dele af et dokument (som kan være dele af tekst eller illustrationer) fungerer som links til andre dokumenter, der er logisk relateret til dem.

I dette tilfælde kan de dokumenter, som der linkes til, findes både lokalt og på fjerncomputer. Derudover er traditionelle hypertekstlinks også mulige - det er links inden for samme dokument.

Tilknyttede dokumenter kan til gengæld indeholde krydshenvisninger til hinanden og til andre informationsressourcer. Det er således muligt at samle til en enkelt informationsrum dokumenter om lignende emner. (For eksempel dokumenter, der indeholder medicinske oplysninger.)

Arkitektur www

Arkitekturen i www, ligesom arkitekturen i mange andre typer internettjenester, er bygget på princippet klient-server.

Serverprogrammets hovedopgave er organiseringen af ​​adgangen til oplysninger, der er gemt på den computer, som dette program kører på. Efter opstart fungerer serverprogrammet i tilstanden at vente på anmodninger fra klientprogrammer. Typisk bruges webbrowsere som klientprogrammer, som bruges af almindelige www-brugere. Når et sådant program skal indhente nogle oplysninger fra serveren (normalt er disse dokumenter gemt der), sender det en tilsvarende anmodning til serveren. Med tilstrækkelige adgangsrettigheder etableres en forbindelse mellem programmerne, og serverprogrammet sender et svar på anmodningen til klientprogrammet. Hvorefter forbindelsen mellem dem er brudt.

For at overføre information mellem programmer, bruges HTTP-protokollen (Hypertext Transfer Protocol).

www server funktioner

www-server er et program, der kører på værtscomputeren og behandler anmodninger, der kommer fra www-klienter. Ved modtagelse af en anmodning fra en www-klient etablerer dette program en forbindelse baseret på TCP/IP-transportprotokollen og udveksler information via HTTP protokol. Derudover bestemmer serveren adgangsrettigheder til de dokumenter, der er placeret på den.

For at få adgang til information, der ikke kan behandles af serveren direkte, bruges den låsesystem. Ved hjælp af en speciel CGI interface(Common Gateway Interface) til at udveksle information med gateways, har www-serveren mulighed for at modtage information fra kilder, der ville være utilgængelige for andre typer internettjenester. Samtidig er driften af ​​gateways for slutbrugeren "gennemsigtig", det vil sige, når en uerfaren bruger ser webressourcer i sin yndlingsbrowser, vil en uerfaren bruger ikke engang bemærke, at nogle oplysninger blev præsenteret for ham ved hjælp af gatewaysystemet



www klientfunktioner

Der er to hovedtyper af www-klienter: webbrowsere og hjælpeprogrammer.

webbrowsere bruges til direkte at arbejde med www og indhente information derfra.

Service webapplikationer kan kommunikere med serveren enten for at få nogle statistikker eller for at indeksere de oplysninger, der er indeholdt der. (Sådan kommer informationer ind i søgemaskinedatabaser.) Derudover er der også servicewebklienter, hvis arbejde er relateret til den tekniske side af lagring af information på en given server.