Eksempel på sitemap xml til Yandex. Detaljeret Sitemap Guide

God eftermiddag, kære læsere!

Indeksering af webressourcer af søgemaskiner er en kompleks sag. Og ikke kun for webmastere, men også for søgemaskinerne selv og deres robotter. For at gøre deres opgave lettere, blev sådan en ting som en sitemap.xml opfundet. Med dens hjælp vil robotter være i stand til at navigere på siderne i dit projekt. Se for eksempel kategorier, tags, sider med noget ikke-standardindhold osv.

Sitemap er vigtigt både for artikelskribenter og for andre projekter, såsom onlinebutikker, fotoaktier eller endda landingssider (især hvis de indeholder mere end én side). I dag vil vi tale om, hvordan netop dette sitemap kan oprettes, og vi vil også berøre emnet for den mest foretrukne mulighed for WordPress.

Jeg vil fortælle dig mere detaljeret om, hvorfor et sitemap er nødvendigt. Dette er en fil med links til blog/site-sider, der giver besked søgemaskiner om ressourcens nuværende struktur.

Det kan enten være statisk eller dynamisk. Den første er relevant for de samme statiske, ikke-opdaterende webressourcer.

Sådan et sitemap oprettes nemt ved hjælp af en automatisk generator og placeres i rodmappe ressource. Den anden mulighed er relevant for de fleste projekter - alle ændringer i indholdet tages i betragtning og indtastes automatisk i xml-filen.

Dette feed kan derefter føjes til Yandex.Webmaster og Search Console. Takket være dette vil søgemaskinerne vide om alle de ændringer, der sker på din ressource. Det være sig udgivelsen af ​​en ny artikel eller en simpel ændring af nummeret på kontaktsiden.

Naturligvis, i tilfælde af en statisk fil oprettet ved hjælp af generatoren, skal du uploade den til roden igen, manuelt. Ikke den bedste praktisk mulighed, men hvis dit websted er skrevet i ren html+css og opdateres en gang om året, så er dette stadig acceptabelt.

Hvis du arbejder med et CMS, såsom WordPress, så kan denne proces forenkles og accelereres så meget som muligt. Ved hjælp af plugins kan du glemme alle manuelle manipulationer. Du skal bare organisere arbejdet med en sådan udvidelse, konfigurere alt og derefter sende linket til de ovennævnte tjenester. Det er enkelt, ingen smerte. Vi vil tale om, hvordan man gør dette senere.

Sådan opretter du Sitemap.xml til WordPress

Et sitemap, som jeg allerede sagde, kan skabes af de fleste forskellige veje. Til det punkt at skrive det manuelt. Men lad os ikke dvæle ved dette, lad os gå videre til at overveje mere passende metoder.

Du kan oprette et sitemap ved hjælp af:

  • online generator;
  • programmer (den samme generator, bare ikke online);
  • plugins;
  • manuelt.

Lad os tale om alle disse muligheder mere detaljeret.

Online generatorer og programmer

Med deres hjælp vil du oprette en statisk version af sitemap.xml. Den vil ikke blive opdateret, så den er velegnet til projekter, hvor der ikke sker ændringer så ofte. Bemærk venligst, at hver gang for at holde dit kort opdateret, skal du genindtræde i tjenesten og generere den og derefter udskifte den gammel fil ny.

Hvis din webressource opdateres hver dag, så ser denne sitemapvariation ikke særlig attraktiv ud. Men i nogle tilfælde har du råd til denne metode. For eksempel hvis din hjemmeside er et visitkort eller landingsside med flere sider og information om virksomheden.

Det samme gælder for generatorprogrammer (normalt betalte). Du opretter blot en ikke-opdaterbar xml-fil og uploader den til værten med ved hjælp af FTP eller filhåndtering. I teorien kan du selvfølgelig bringe denne metode ud i livet ved at gøre den semi-automatisk. Men det er der ikke behov for, for med hjælpen særlige udvidelser du kan oprette et dynamisk sitemap og helt glemme sådanne problemer.

Så eksempler på onlinetjenester til oprettelse af sitemaps:

  • XML-sitemaps (op til 500 sider),
  • Gratis Sitemap Generator (op til 5.000 sider),

Hvordan det virker?

Det samme gælder for software produkter. Men jeg vil ikke tale om dem her, så du kan selv søge information om det.

Jeg vil også gerne bemærke her, at nogle onlinetjenester tilbyder betalt mulighed brug, som består af et ubegrænset antal sider eller bringer processen til semi-automatisering. Sitemap opdateres regelmæssigt ved hjælp af sådanne tjenesters indbyggede værktøjer. Alt du skal gøre er at konfigurere autoloading. Jeg tror, ​​dette er en krykke, især for CMS, inklusive WordPress.

Plugins

Det er her, vi går videre til hoveddelen af ​​dette materiale. Plugins er efter min mening den mest foretrukne måde at oprette et sitemap på. Takket være disse fantastiske udvidelser behøver du ikke at holde dig opdateret eller downloade mærkelige filer. Du skal bare klikke på knappen "Installer" direkte i admin panelet - og du er færdig.

Der er rigtig mange plugins, som du kan gøre dette med. Nedenfor vil jeg give en liste over de mest populære og populære og også kort fortælle om hver af dem.

Et multifunktionelt SEO-plugin, som blandt andet også indeholder et automatisk værktøj til oprettelse af sitemaps. Det er som standard aktiveret, så umiddelbart efter installationen vil du modtage et færdigt kort. Du kan finde det på: site.ru/sitemap_index.xml. Interessant nok opretter pluginnet separate sitemaps til indlæg, kategorier, tags og arkiver. I teorien vil det være endnu nemmere for søgemaskiner at navigere i alle disse elementer.

Der er også mulighed for at lave sitemaps. Det er en analog af det tidligere plugin og dets direkte konkurrent. Ligesom Yoast SEO genereres kortet automatisk og holdes hele tiden opdateret.

  • Google XML sitemaps

Men dette er en specialiseret løsning til automatisk generering af sitemap.xml. Google Sitemaps giver dig mulighed for at oprette et pænt sitemap, der vil blive understøttet af næsten alle søgemaskiner.

Det er bemærkelsesværdigt, at dette plugin har over en million installationer. De fleste af disse brugere har også installeret funktionsrige løsninger. De deaktiverer simpelthen disse funktioner og giver fortrinsret til Google XML-sitemaps.

Denne udvidelse er nem at installere og konfigurere. Support har været ydet i 9 år, så udviklerne kan helt sikkert stole på (et stort plus for millioner af installationer). Jeg anbefaler det helt klart som en af ​​de bedste måder.

  • XML-sitemap og Google Nyheder-feeds

To i en. Med denne tilføjelse kan du ikke kun oprette et xml-kort, men også et ekstra feed til Google News. Nu har pluginnet mere end 100.000 installationer, så jeg råder dig til også at være opmærksom på det. Som med resten af ​​variationerne er stemningen nem at gengive.

  • Google Sitemap af BestWebSoft

Et stadig mere populært plugin med understøttelse af det russiske sprog. Det er enkelt: Installer det på din WordPress-ressource, hvorefter filer i xml-format genereres til alle dine taksonomier.

Du kan finde et stort antal plugins i kataloget forskellige løsninger– godt og knap så godt. Under alle omstændigheder anbefaler jeg kun at installere dokumenterede produkter med gode anmeldelser og baggrund i form af tid eller antal installationer. Under andre omstændigheder risikerer du en fiasko på grund af et produkt af lav kvalitet.

Jeg bemærker også, at nogle af de præsenterede udvidelser kræver konfiguration. Tag denne kendsgerning i betragtning.

Manuelt

En metode, der kræver tid, viden og tålmodighed. Meget upraktisk i øvrigt. Generelt bliver du nødt til at finde ud af xml-markup-syntaksen, og derefter én efter én indtaste alle data på din portal der. Selvom din webressource kun har et par dusin sider, skal du stadig arbejde hårdt for at indtaste dataene for hver i et xml-dokument. Endsige hundreder og tusinder, når du simpelthen bliver skør, hvis du prøver at implementere det med dine hænder.

Du bliver nødt til manuelt at indtaste alt, fra url'en til ethvert billede indeholdt i artiklen eller på siden. Selvfølgelig skal du overvåge syntaksen og korrektheden af ​​at udfylde sådanne data. Hvis du laver fejl, vil søgemaskiner simpelthen ikke acceptere din fil. Vær ekstremt forsigtig, når du vælger denne metode. Mest sandsynligt er dette kun tilrådeligt for din egen udvikling og læring af xml-markup, men intet mere.

Hvad skal man så gøre med kortet

For at hjælpe søgemaskiner med at finde et kort over dit projekt kan du bruge tjenester som Yandex.Webmaster og Search Console. Hver af dem har værktøjer til at sende sitemaps, samt data om alle fejl, der kan være opstået under genereringen. Behov for at vide nøjagtigt link til kortet for at tilføje det. Som regel ligger den lige ved roden. Derfor behøver du kun at angive dens navn og format for at gå til xml-filen.

Tilføjelse til Yandex.Webmaster

Gå til Webmaster, og vælg derefter vores side (hvis der er flere af dem). Gå derefter til fanen Indeksering - Sitemapfiler. Det er her, vi vil administrere sitemap-filerne til vores projekt. Kopier sitemapadressen ind i feltet, og klik derefter på "Tilføj".

Når du har tilføjet filen til tjenesten, kan du klikke på pileikonet for at få søgemaskinen til at begynde at læse filen.

Search Console

Vi går til konsollen, hvorefter vi går til sektionen Scanning – Sitemapfiler. Ellers er alt det samme. Vi tilføjer filen og tjekker den for fejl.

Konklusion

Jeg håber, at du nu forstår, hvad et sitemap er, og hvorfor det er nødvendigt. Som du kan se, er der ikke noget kompliceret i at skabe det. Du skal blot vide, hvordan du kan implementere denne sag.

Hvordan man præcist genererer et sitemap er op til dig. Men jeg må bemærke, at til WordPress er den mest foretrukne metode plugins. Desuden har de fleste multifunktionelle SEO-plugins denne mulighed indbygget, men du skal stadig vælge et SEO-plugin.

Sitemap er ekstremt vigtigt for Søgemaskine optimering, og hvis du vil vide mere om det, så inviterer jeg dig til . I den vil du overveje alle aspekter af SEO-optimering af projekter.

Det var alt, tak for din opmærksomhed.

Brug vores sitemapgenerator til at oprette filer i XML-format, som kan sendes til Google, Yandex, Bing, Yahoo og andre søgemaskiner for at hjælpe dem med at indeksere dit websted.

Gør det i tre enkle trin:

  • Indtast den fulde websteds-URL i formularen.
  • Klik på knappen "Start" og vent, indtil webstedet er gennemgået helt. Samtidig vil du se det fulde antal af fungerende og ødelagte links.
  • Ved at klikke på knappen "Sitemap.xml" gemmes filen et passende sted.

  • Sitemap er et sitemap i XML-format, som I 2005 Google søgemaskine begyndte at blive brugt til at indeksere hjemmesider. En sitemap-fil er en måde at organisere et websted på, der identificerer adressen og dataene for hver sektion. Tidligere var sitemaps primært rettet mod sitebrugere. XML-formatet er udviklet til søgemaskiner, så de kan finde data hurtigere og mere effektivt.

    Den nye sitemap-protokol blev udviklet som reaktion på den stigende størrelse og kompleksitet af websteder. Virksomhedswebsteder indeholder ofte tusindvis af produkter i deres kataloger; populariteten af ​​blogs, fora og opslagstavler tvinger webmastere til at opdatere deres materialer, i det mindste En gang om dagen. Det bliver stadig sværere for søgemaskiner at spore alt materialet. Gennem XML-protokollen kan søgemaskiner spore adresser mere effektivt og optimere deres søgning ved at placere alle oplysningerne på én side. XML viser også, hvor ofte en bestemt hjemmeside opdateres og registrerer de seneste ændringer. XML-kort er ikke et søgemaskineoptimeringsværktøj. Dette påvirker ikke placeringer, men det gør det muligt for søgemaskiner at lave mere præcise placeringer og søgeforespørgsler. Dette sker ved at levere data, som er nemme at læse for søgemaskiner.

    Den generelle accept af XML-protokollen betyder, at webstedsudviklere ikke længere behøver at oprette Forskellige typer sitemaps til forskellige søgemaskiner. De kan oprette én fil til visningen og derefter opdatere den, når de foretager ændringer på webstedet. Det forenkler hele processen finjustering og webstedsudvidelser. Webmastere begyndte selv at se fordelene ved at bruge dette format. Søgemaskiner rangerer sider efter relevansen af ​​indholdet af specifikke søgeord, men før XML-formatet var sidernes indhold ofte ikke repræsenteret korrekt. Dette er ofte frustrerende for webmastere, der indser, at deres bestræbelser på at skabe en hjemmeside er gået ubemærket hen. Blogs, yderligere sider, tager det flere timer at tilføje multimediefiler. igennem XML-fil disse timer vil ikke blive spildt, de vil blive set af alle berømte søgemaskiner.

    For at oprette dit sitemap i XML-format og holde søgemaskinerne opdateret med alle ændringer på dit websted, prøv vores gratis generator site maps.

    Hej kære læsere af bloggen. Jeg besluttede at opsummere i en artikel alt, hvad jeg allerede har skrevet om sitemappet (Sitemap xml), som primært er nødvendigt for at indikere over for søgemaskiner de sider, som de skal indeksere først. Det er en meget vigtig og faktisk obligatorisk egenskab for ethvert webprojekt, men mange ved det enten ikke eller tillægger Sitemap ikke særlig stor betydning.

    Lad os prikke alle i'erne med det samme og prøve at adskille to begreber - sitemaps i xml-format og i HTML-format(der er også en geografisk fortolkning af dette ord, som jeg skrev om i artiklen ""). Den anden mulighed er almindelig liste alle materialer webressource, som vil være tilgængelig for alle ved at klikke på det tilsvarende menupunkt. Denne mulighed er også nyttig og hjælper med at fremskynde og forbedre indekseringen af ​​din ressource af søgemaskiner.

    Sitemap sitemap i xml-format - men jeg har brug for det

    Men hovedværktøjet designet til direkte at vise søgemaskinerne de ressourcesider, der skal indekseres, er en fil kaldet Sitemap.xml (dette er dets mest almindelige navn, men i teorien kan det hedde hvad som helst, det er ligegyldigt) , som ikke vil være synlig for besøgende på dit webprojekt.

    Den er kompileret under hensyntagen til en speciel syntaks, der er forståelig søgemaskiner, hvor alle sider, der skal indekseres, vil blive opført med angivelse af deres grad af vigtighed, dato sidste ændring og omtrentlig opdateringsfrekvens.

    Der er to hovedfiler, som ethvert webprojekt bør have - robots.txt og sitemap.xml. Hvis dit projekt ikke har dem, eller de ikke er udfyldt korrekt, så skader du med stor sandsynlighed din ressource alvorligt og lader den ikke afsløre sit fulde potentiale.

    Det kan selvfølgelig være, at du ikke lytter til mig (fordi jeg ikke er en autoritet på grund af det relativt lille ophobede faktuelle materiale), men jeg tror, ​​at du ikke vil argumentere vilkårligt med specialister, der har statistikker fra titusindvis af projekter ved hånden .

    Til denne lejlighed havde jeg et “flygel i buskene” på lager. Lige før jeg skrev denne artikel, stødte jeg på en publikation af eksperter fra hele verden. kendt system automatisk forfremmelse under usædvanligt navn"Hænder" (dette er en analog af MegaIndex, som jeg skrev om).

    Det er klart, at ethvert system, der ligner dem, er interesseret i at sikre, at deres kunders projekter skrider frem med succes, men de kan kun pumpe kundernes ressourcer op referencemasse, men påvirke fyldet og rette teknisk setup Sites kan de desværre ikke.

    Derfor blev der gennemført en meget interessant og afslørende undersøgelse, som var designet til at identificere de 10 mest populære årsager, der gør det svært at promovere projekter og pege disse data direkte til kunder...

    I første omgang var selvfølgelig "ikke unikt indhold" (enten kopierede du det, eller også har du det, hvilket ikke ændrer essensen). Men på andenpladsen var netop sitemap i xml-format, eller rettere dets fravær eller uoverensstemmelse med det anerkendte oprettelsesformat. Nå, på tredjepladsen var den tidligere nævnte robots.txt-fil (dens fravær eller forkert oprettelse):

    Når du ubegrundet hævder, at dit projekt skal have et kort (ellers er det spild), lyder det ikke så overbevisende, som om denne udtalelse er understøttet af reelle fakta fra en ret repræsentativ undersøgelse.

    Okay, lad os antage, at jeg har overbevist dig, og lad os se, hvordan du selv kan oprette et sitemap (formatsyntaks), hvordan du laver det til Joomla og WordPress, og også se, hvordan du kan oprette det ved hjælp af specielle online-generatorer.

    Men blot at oprette et sitemap er ikke nok til at være sikker på, at dit projekt bliver korrekt indekseret af søgemaskiner. Det vil også være nødvendigt at sørge for, at søgemaskiner (i vores tilfælde Google og Yandex) finder ud af netop dette sitemap. Dette kan gøres på to måder, men vi vil tale om dette lidt senere (der skal i det mindste være en form for intriger, der fanger læsernes opmærksomhed).

    Hvorfor har du brug for et kortwebsted og en robots.txt-fil?

    Lad os først prøve at retfærdiggøre den logiske nødvendighed af at bruge både en robots.txt-fil, der forbyder indeksering visse elementer dit webprojekt og site map-filen, der foreskriver indeksering visse sider. For at gøre dette, lad os gå tilbage for fem eller ti år siden, hvor de fleste ressourcer på internettet simpelthen var et sæt HTML-filer, som indeholdt teksten til alle artikler.

    En søgerobot fra Google eller Yandex gik simpelthen til sådan et HTML-projekt og begyndte at indeksere alt, hvad den kunne få fat i, fordi næsten overalt indeholdt projektets indhold. Men hvad sker der nu i forhold til den udbredte brug af CMS (content management systems)? Faktisk, selv umiddelbart efter at have installeret motoren, vil søgerobotten allerede finde flere tusinde filer på dig, og dette på trods af, at du måske endnu ikke har noget indhold (nå, du har ikke skrevet en eneste artikel endnu).

    Og generelt er indhold i moderne CMS'er som regel ikke gemt i filer, men i en database, som en søgerobot naturligvis ikke kan indeksere direkte (til at arbejde med databaser anbefaler jeg det gratis).

    Det er klart, at efter at have kikket rundt her og der, vil søgerobotterne fra Yandex og Google stadig finde dit indhold og indeksere det, men hvor hurtigt vil det ske, og Hvor fuldstændig vil indekseringen være? dit projekt er et meget stort spørgsmål.

    Det er netop for at forenkle og fremskynde søgemaskinernes indeksering af projekter i forbindelse med den udbredte brug af CMS, at man bør obligatorisk oprette robots.txt og sitemap.xml. Ved at bruge den første fil fortæller du søgemaskinerobotter, hvilke filer der ikke skal spilde tid på at indeksere (motorobjekter, f.eks.), og du kan også bruge den til at blokere nogle sider fra at indeksere for at eliminere effekten af ​​duplikering af indhold, som er iboende i mange CMS'er (læs mere om dette i artiklen om).

    Og ved hjælp af en sitemap-fil fortæller du tydeligt og tydeligt Yandex- og Google-robotterne, hvad netop dit projekt indeholder indhold, så de ikke pirker forgæves rundt i hjørnerne af filhåndteringen af ​​den anvendte motor. Glem ikke, at bots har visse begrænsninger på tid og antal dokumenter, der vises. Det vil vandre gennem dine motorfiler og forlade, og indholdet forbliver uindekseret i lang tid. Åh hvordan.

    Husk, hvordan en farverig karakter i en berømt komedie sagde: "Don't go there, you go here, ors...". Det er netop denne karakters funktion, der udføres af robots.txt og kortstedet med xml-udvidelse at regulere søgerobotternes bevægelser gennem afkroge af dit webprojekt. Det er klart, at bots kan sparke op, men højst sandsynligt vil de lydigt udføre dine velskrevne forbydende og præskriptive (på webstedskortet) instruktioner.

    Det er klart? Lad os derefter fortsætte direkte med at løse spørgsmålet om, hvordan man opretter et sitemap.xml på forskellige måder og hvordan man informerer om dets eksistens til de to søjler af søgning i RuNet - Google og Yandex, så de ikke fumler forgæves rundt i dit projekt, samtidig med at de skaber yderligere belastning på din hostingserver, men dette er dog en meget sekundær ting, det vigtigste er, at dette netop er indeksering (hurtig og omfattende).

    I modsætning til robots.txt, som du højst sandsynligt skal skrive selv, en sitemap-fil i xml-format, forsøger de som regel at oprette på en eller anden automatisk måde. Det er forståeligt, for hvornår store mængder sider på et ofte opdateret projekt, kan manuel oprettelse af det skade webmasterens sind.

    Ja, det er slet ikke nødvendigt, fordi... Til næsten hvert CMS er der en udvidelse, der giver dig mulighed for at oprette og, når der dukker nyt materiale op, genskabe en sitemap-fil. Nå, eller du kan altid bruge en online sitemap-generator som en færdig løsning.

    Men alligevel forekommer det mig, at det ville være nyttigt at sætte dig ind i den enkle (hvad kan jeg sige - den enkleste) syntaks oprettelse af et sitemap. Derudover kan du på små og sjældent opdaterede projekter skitsere det manuelt.

    Sådan opretter du Sitemap.xml selv i Joomla og WordPress

    Normalt er "Sitemap"-direktivet skrevet til allersidst. Næste gang søgerobotter besøger dit webprojekt, vil de helt sikkert se på indholdet af robots.txt og downloade dit kort til undersøgelse. Men på denne måde kan alle slags radiser finde ud af dens eksistens, som kortsiden vil hjælpe med at stjæle dit indhold.

    Men der er en anden måde at direkte overføre information om placeringen af ​​webstedskortet til søgemaskiner uden formidling af robots.txt. Dette gøres gennem Yandex Webmaster-grænsefladen og paneler Google værktøjer, selvom det kan bruges. Er du allerede bekendt med disse søgemaskineværktøjer?

    Hvis ikke, skal du sørge for at tilføje dit projekt til både , og til , og derefter angive stien til dit sitemap i Xml-format i de relevante faner.

    Sådan ser formularen til tilføjelse af et sitemap til Yandex Webmaster ud:

    Og sådan ser en lignende formular til at indtaste en sti ud i Googles værktøjslinje:

    Online generatorer Sitemap Generator og XML Sitemaps

    Hvis du ikke vil lede efter udvidelser til dit CMS, der giver dig mulighed for automatisk at oprette et kortwebsted, så kan du bruge online generator mi. Der er dog en ulempe her i forhold til automatisk oprettelse kort i selve CMS'et - efter at have tilføjet nye materialer, skal du gå til online service og genskab denne fil, og upload den derefter til din server.

    Sandsynligvis en af ​​de mest berømte online sitemap-generatorer er Sitemap Generator. Det har en hel del funktionalitet og giver dig mulighed for at generere et sitemap til 1500 sider gratis, hvilket er ret meget.

    Sitemap Generator vil tage hensyn til indholdet af din robots.txt-fil, så sider, der er forbudt at indeksere, ikke er inkluderet i kortet. Dette er i sig selv ikke skræmmende, for et forbud mod robotter vil under alle omstændigheder have en højere prioritet, men det vil spare dig for unødvendig information i oprettet fil Site map. For at lave et kort skal du blot angive URL'en hjemmeside og oplys din e-mail, hvorefter du bliver sat i kø til generation:

    Når det er din tur, vil du modtage en e-mail notifikation om dette, og ved at klikke på linket fra brevet vil du kunne downloade den fil, som Sitemap Generator har lavet til dig. Tilbage er bare at smide det ind Rigtigt sted på din server. Nå, du bliver nødt til at gentage denne procedure fra tid til anden for at holde dit sitemap opdateret.

    Der er en lignende engelsksproget online generatortjeneste, som du kan finde på dette link - XML ​​​​Sitemaps. Den har en grænse på 500 sider, men ellers er alt næsten det samme som beskrevet ovenfor.

    Held og lykke! Vi ses snart på bloggens sider

    Du kan se flere videoer ved at gå til
    ");">

    Du kan være interesseret

    Hvad er der sket URL-adresser Hvad er forskellen mellem absolutte og relative links til et websted?
    Hvad er Chmod, hvilke tilladelser der skal tildeles til filer og mapper (777, 755, 666) og hvordan man gør det via PHP
    Yandex søg efter websted og online butik
    OpenServer - moderne lokal server og et eksempel på dets brug til WordPress installationer på computer
    Webmaster og RuNet - hvem og hvad det er, samt til hvem Russisksproget internet at leve godt

    Vi løslod ny bog"Indholdsmarkedsføring i i sociale netværk: Sådan kommer du ind i dine abonnenters hoveder og får dem til at forelske sig i dit brand."

    Abonner

    Lad os sige, at du har en hjemmeside, der er tilstoppet unikt indhold, hvorpå den blev udført SEO optimering og du sidder og gnider dine håndflader og venter på, at dit idemand begynder at blive besøgt af en søgerobot, indekseret og bringer den eftertragtede trafik. Tiden går, og resultatet af din indsats er ikke særlig synligt. Hvad er der galt? Måske blev noget stadig overset, noget blev glemt i jagten på godter. Lad os antage, at siden stadig er unik, og der er masser af optimeringsværktøjer derude. Så skal du finde ud af, hvorfor søgemaskinen er så tilbageholdende med at besøge dig, og hvorfor alting sker så langsomt.

    Hvert webprojekt skal have to vigtige, og måske endda hovedfiler: robotter (robots.txt) og sitemap (). Hvis nogle af dem mangler eller er udfyldt forkert, er der stor sandsynlighed for, at ressourcen ikke giver det resultat, du forventede. Søgebots har trods alt sat grænser både for den tid, der bruges på ressourcen og på antallet af dokumenter, som de kan tjekke og indtaste i databasen. Og dette er alt for at sige, at hvis du ikke har angivet rejsestier for søgerobotten, så kommer den muligvis ikke til indholdet meget snart, efter først at have vandret gennem motorfilerne.

    For at undgå en sådan forvirring siger vi i robotfilen, hvad bots ikke skal spilde tid på, og ved hjælp af et webstedskort foreslår vi tværtimod, hvor de skal kigge, og hvor de skal vandre.

    Lad os antage, at alt er gået sammen for os, og søgemaskiner er begyndt at indeksere vores projekt, men fraværet af det andet kan forsinke opnåelsen af ​​vores mål. Og nu mere om at lave et sitemap.

    XML og HTML versioner af site map

    Sitemap.html fungerer som navigation for gæster af vores ressource, hvilket hjælper dem med at forstå strukturen på webstedet og finde den sektion, de er interesseret i.

    Sitemap.xml spørger og hjælper søgerobotter med at opdage og begynde at indeksere siderne i vores projekt. Hvis vi har et højt nesting-niveau og et stort antal websider på siden, sikrer XML, at bots ikke mister af syne, hvad der skal indekseres. Som en fin bonus får vi et plus til vores karma i form af øget tillid til ressourcen fra søgemaskiner.

    Positive aspekter ved at have et sitemap. xml på hjemmesiden

    • accelereret indeksering af nyligt oprettede sider;
    • hundrede procent sandsynlighed for, at søgemaskinen finder de nødvendige sider;
    • evnen til at specificere scanningsprioriteter, frekvens og dato for den sidste sideopdatering;
    • Tilliden til ressourcen stiger lidt.

    Vigtig!

    • brug UTF-8-kodning til dit sitemap;
    • Filens vægt bør ikke være mere end 10 MB, og dens indhold bør ikke overstige 50 tusind URL'er.

    Sådan opretter og tilføjer du et sitemap. xml til webstedet

    Vi tager evt tekst editor, for eksempel Notepad++, og begynd at oprette.

    Den første blok er standarddelen, hvor vi angiver:

    http://Наш сайт.ru/ 2016-05-23T23:45:36+00:00 daily 1.0

    Tag betydning:

    • "loc" - vi inkluderede adressen på siden på vores websted, som søgerobotter snart skal indeksere;
    • "lastmod" - vises sidste dato opdatering af siden angivet i det første tag;
    • "changefreq" - viser, hvor ofte indholdet vil blive opdateret (i vores tilfælde hver dag);
    • "prioritet" - indstiller prioriteten for indeksering af siden (fra 0 til 1)

    Vi gemmer den resulterende fil i XML-format og placerer den i . Angiv derefter stien til den i robotter. txt med denne linje:

    http://vores websted/sitemap.xml

    Eller vi kan bruge en af ​​online-generatorerne. For eksempel,, som er designet til at oprette højst 500 sider. Men ofte har du ikke brug for mere, så vi arbejder med det.

    I den første linje indtaster vi den fulde URL på vores side medhttp://Vores hjemmeside.

    Den anden linje, som hedder " Skift frekvens " viser søgerobotter, hvor ofte websider vil blive opdateret. Vi kan vælge:aldrig, ugentligt, dagligt, timetal, månedligt, årligt.

    Tredje linje "Sidste ændring" » viser hvornår sidste gang siden blev opdateret, kan vi enten vælge datoen, hvor vi besluttede at oprette et sitemap, eller vælge " Brug serverens svar " - så vil generatoren automatisk indtaste datoen sidste ændring.

    Og den fjerde linje" Prioritet ", som vi tidligere diskuterede giver dig mulighed for at vælge prioritet for indeksering, vælg "Automatisk beregnet prioritet».

    Tryk på "Start"-knappen og vent på, at den bliver genereretsitemap i XML-format, så udfører vi igen manipulationer med at placere den i roden og angive stien i robots.txt.

    Sådan rapporteres en sitemap-fil efter oprettelse til Google og Yandex

    Gå til Webmaster og fortsæt som følger.

    Vælg kontrol af sitemap:

    Og sæt stien til vores sitemap-fil.

    Lad os tjekke, hvad der skete:

    Sørg for at alt er okog gå til at bøje dig for Google.

    For at komme til Google Search Console, hvor du faktisk kan rapportere om vores kort, skal du gå til

    Opdater siden- vi har resultatet af kontrollen foran os, og hvis der er en streg i kolonnen "Problemer", betyder det, at vi gjorde alt korrekt.

    Lad os opsummere det

    Opret og placer en sitemap-fil. xml på ressourcen er faktisk et spørgsmål om minutter; til dette kan du bruge enhver teksteditor eller online generator. Hvis du har et sitemap på din ressource, fremskynder og forenkler du livet for søgerobotten, som følger angivet sti og indekser nødvendige sider. Det betyder, at resultatet af dit optimeringsarbejde har en chance for at blive mærkbar hurtigere. Men det er vigtigt ikke at glemme sitekortet og opdatere det med jævne mellemrum, fordi siden stopper muligvis med at deltage i kampagnen, og bots vil fortsætte med at besøge den, hvilket vil påvirke positioner. Vores XML-stifinder kan også tjene som assistent ikke kun for robotter, men også for indholdstyve, fordi vi i sitemap angiver de dokumenter, vi har brug for, hvilket i høj grad forenkler livet for kopipræster. Derfor anbefaler vi med jævne mellemrum at kontrollere indholdet af din ressource for unikhed. Ved at følge disse regler øger du tilliden til søgemaskinerne. Google systemer og Yandex til din ressource.

    Filerne robots.txt og sitemap.xml gør det muligt at organisere webstedsindeksering. Disse to filer supplerer hinanden godt, selvom de samtidig løser modsatte problemer. Hvis robots.txt tjener til at forbyde indeksering af hele sektioner eller individuelle sider, så fortæller sitemap.xml tværtimod søgerobotter, hvilke URL'er der skal indekseres. Lad os analysere hver af filerne separat.

    Robots.txt-fil

    robots.txt er en fil, hvori der er skrevet regler, der begrænser søgerobotters adgang til mapper og webstedsfiler for at undgå, at deres indhold inkluderes i søgemaskinens indeks. Filen skal være placeret i webstedets rodbibliotek og være tilgængelig på: site.ru/robots.txt.

    I robots.txt skal du blokere alle dublet- og servicesider på webstedet fra at indeksere. Ofte opretter offentlige CMS dubletter, artikler kan tilgås i flere URL'er på samme tid, for eksempel; i kategorierne site.ru/category/post-1/, tags site.ru/tag/post-1/ og archive site.ru/arhive/post-1/. For at undgå dubletter er det nødvendigt at forbyde indeksering af tags og arkivet, kun kategorier vil forblive i indekset. Med servicesider mener jeg siderne i den administrative del af siden og automatisk genererede sider, for eksempel: resultater ved søgning på siden.

    Det er simpelthen nødvendigt at slippe af med dubletter, da de fratager webstedets sider unikhed. Når alt kommer til alt, hvis indekset indeholder flere sider med det samme indhold, men tilgængelige på forskellige URL'er, vil indholdet af ingen af ​​dem blive betragtet som unikt. Som et resultat vil søgemaskiner kraftigt sænke positionerne af sådanne sider i søgeresultaterne.

    Robots.txt-direktiver

    Direktiver er regler, eller man kan også sige kommandoer for søgerobotter. Den vigtigste er User-agent, med dens hjælp kan du sætte regler for alle robotter eller for en specifik bot. Dette direktiv skrives først, og efter det er alle andre regler angivet.

    # For alle robotter Brugeragent: * # For Yandex-robot Brugeragent: Yandex

    Et andet obligatorisk direktiv er Disallow, med dets hjælpesektioner og sider på webstedet er lukket, og dets modsætning er Tillad-direktivet, som tværtimod med magt tillader de angivne sektioner og sider på webstedet at blive indekseret.

    # Forbyd indeksering af sektionen Disallow: /folder/ # Tillad indeksering af undersektionen med billeder Tillad: /folder/images/

    For at angive webstedets hovedspejle, for eksempel: med eller uden www, bruges værtsdirektivet. Det er værd at bemærke, at hovedspejlet er registreret uden at angive http://-protokollen, men https://-protokollen skal angives. Vært forstås kun af Yandex og Mail.ru bots, og du behøver kun at indtaste direktivet én gang.

    # Hvis hovedspejlet virker på http protokol uden www Host: site.ru # Hvis hovedspejlet fungerer iht https protokol fra www Host: https://www.site.ru

    Sitemap er et direktiv, der angiver stien til sitemap.xml-filen, stien skal angives fuldt ud med protokollen, dette direktiv kan skrives hvor som helst i filen.

    # Angiv fuld vej til filen sitemap.xml Sitemap: http://site.ru/sitemap.xml

    For at forenkle skrivereglerne er der specielle symbolske operatorer:

    • * - angiver et vilkårligt antal tegn, såvel som deres fravær;
    • $ - betyder, at symbolet før dollartegnet er det sidste;
    • # - angiver en kommentar, alt hvad der er på linjen efter af denne operatør vil blive ignoreret af søgerobotter.

    Efter at have gjort dig bekendt med de grundlæggende direktiver og specielle operatører, kan du allerede skitsere indholdet af en simpel robots.txt-fil.

    User-agent: * Disallow: /admin/ Disallow: /arhive/ Disallow: /tag/ Disallow: /modules/ Disallow: /search/ Disallow: *?s= Disallow: /login.php User-agent: Yandex Disallow: / admin/ Disallow: /arhive/ Disallow: /tag/ Disallow: /modules/ Disallow: /search/ Disallow: *?s= Disallow: /login.php # Tillad Yandex-robotten at indeksere billeder i modulsektionen Tillad: /modules /*. png Tillad: /modules/*.jpg Vært: site.ru Sitemap: http://site.ru/sitemap.xml

    Bekendt med Detaljeret beskrivelse Alle direktiver med eksempler på deres brug kan findes i publikationen på Yandex-webstedet i hjælpesektionen.

    Sitemap.xml-fil

    sitemap.xml er et såkaldt sitemap til søgemaskiner. Sitemap.xml-filen indeholder oplysninger til søgerobotter om de webstedssider, der skal indekseres. Indholdet af filen skal indeholde sidernes URL-adresser, men det er ikke nødvendigt at angive sidernes prioritet, hyppigheden af ​​sidens gencrawling og dato og klokkeslæt, hvor siderne sidst blev ændret.

    Det skal bemærkes, at sitemap.xml ikke er påkrævet, og søgemaskiner tager muligvis ikke højde for det, men samtidig siger alle søgemaskiner, at det er ønskeligt at have filen og hjælper med at indeksere webstedet korrekt, især hvis siderne er oprettet dynamisk eller på webstedet kompleks struktur indlejring.

    Der er kun én konklusion: at filerne robots.txt og sitemap.xml er nødvendige. Korrekt indstilling indeksering er en af ​​faktorerne til at placere webstedssider højere steder i Søgeresultater, og dette er målet for ethvert mere eller mindre seriøst websted.