Jak wykryć i wyeliminować ukryte przekierowania na urządzenia mobilne. Co dokładnie trzeba naprawić i jak to zrobić? Jak działa ponowna weryfikacja?

Ten błąd wyświetlane w raporcie po sprawdzeniu określone strony strona internetowa zapewniająca dostępność w wyszukiwarce Yandex. Odbywa się to poprzez usługi specjalne Yandex.Webmaster (Indeksowanie -> Narzędzie do sprawdzania adresów URL).

Jaki rodzaj błędu?

Oznacza to, że robot go odwiedził, ale nie zadał sobie trudu, aby uwzględnić go w wynikach wyszukiwania, uznając go za niskiej jakości i w ogóle - jesteś spamerem, masz dużo reklam, natychmiast wszystko popraw, a wtedy my 'Porozmawiam! Najbardziej zaskakujące jest to, że czasami uważa materiał zawierający 5 000–10 000 symboli praw autorskich za „niskiej jakości” i mający doskonałą pozycję u konkurencji w wyszukiwaniu ( moja strona nie jest zaindeksowana I znalazł się w TOP-3 w G)

Objawy:

  1. Liczba załadowanych stron witryny jest o rząd wielkości większa niż liczba stron w wyszukiwaniu.
  2. Niektóre strony uparcie odmawiają indeksowania, nawet po zamieszczeniu linków do przyjaznych zasoby tematyczne lub w sieciach społecznościowych
  3. Treść stron nieindeksowanych jest unikalna i wysokiej jakości
  4. Na stronie nie wyświetlają się reklamy banerowe lub ich ilość jest minimalna
  5. Strona nie podlega filtrom wyszukiwarek.

Eliminujemy błędy wskazane w dziale „Diagnostyka”.

Aby poprawić jakość witryny i stron w oczach Yandexa, co dziwne, musisz skorzystać z rady samego Yandexa. Rzecz w tym, że w Tak, webmasterze W rozdziale "Diagnostyka" istnieje lista bieżących błędów, które mogą mieć wpływ na wynik

Co dokładnie trzeba naprawić i jak to zrobić?

Użyj narzędzia Powracanie strony

W Yandexie. Webmaster ma specjalną usługę, która zmusza robota do ponownego odwiedzenia Twojej strony "Narzędzia"„Powrót strony”. Spraw, aby robot ponownie odwiedził Twoją stronę. Idealną opcją jest dodanie trochę treści lub przynajmniej zmiana gdzieś tekstu. Ogólnie rzecz biorąc, zmodyfikuj stronę, do której prowadzi link.

Usuń duplikaty, zabraniaj im indeksowania

Prawie najbardziej główny wróg dobre indeksowanie poszczególnych stron, które nie pojawiają się w wynikach to duplikaty. Duplikaty stron generowane przez sam CMS, czy to WP, czy DLE. Co więcej, duplikaty mogą wcale nie być oczywiste, tj. w związku z tym nie ma „drugich” stron o tej samej treści, ale są strony, które mają przekierowanie do głównego materiału. Można je śledzić I.Webmaster. Aby to zrobić, przejdź do menu „Indeksowanie” -> „Statystyki”. Następnie wybierz kategorię obok nazwy witryny „Kody HTTP 3xx”

Jak widać, stron z przekierowaniami jest mnóstwo:

Najciekawsze jest to, że jest coś jeszcze standardowa usługa Yandex nie może od razu usunąć duplikatów: zapisuje błąd „Nie ma podstaw do usunięcia”. Te. Yandex nie może po prostu usunąć strony z wyszukiwania, nawet jeśli tego chcesz. Potrzebuje powodów

Aby zaprzestać generowania duplikatów i aby można było je usunąć wyniki wyszukiwania musisz wykonać następujące kroki

  • Napisz linię kodu w plikufunctions.php (jeśli masz Word Press)

Zazwyczaj plik ten znajduje się w katalogu z nazwą Twojego motywu. Do edycji możesz użyć FTP lub wbudowanego edytora w panelu administracyjnym WP - według własnego uznania. Wklej poniższy kod

usuń_akcję('wp_head', 'wp_shortlink_wp_head');

  • Skonfiguruj plik robot.txt

Aby uniemożliwić indeksowanie duplikatów, należy utworzyć w pliku odpowiednią regułę robot.txt

Nie zezwalaj: /?p=*

Te. strony takie jak " site.ru/?p» mają zakaz indeksowania. Nawiasem mówiąc, w programie Word Press najłatwiejszym sposobem dodania tej reguły jest również użycie kodu w tym samym pliku funkcje.php. Wynik usuń adres URL za pośrednictwem Ya.Webmaster jest teraz pozytywny:

Utwórz mapę witryny (mapa witryny)

Mapa serwisu została stworzona specjalnie, aby uprościć nawigację nie tylko użytkownikom, ale także robotom wyszukującym. Dlatego jeśli uważasz, że Twoi odwiedzający tego nie potrzebują, zrób to przynajmniej dla wyszukiwarki. Udowodniono to od dawna - Plik mapy witryny poprawia indeksowanie stron i witryny jako całości! Aby utworzyć plik Sitemap.xml w CMS Word Press, użyj wtyczki „ XML-a Google'a Mapy witryn”.

Aby pokazać Yandexowi, że utworzyłeś plik i może on być używany przez robota w Y.Webmaster, przejdź do „Ustawienia indeksowania” - „ Mapy witryn» i wklej do niego link (zwróć uwagę, że status „Kolejka do przetworzenia będzie się zawieszać dość długo długi czas»)

Wypełnij metatag opisu nazwy

Dla każdej strony musisz ją wypełnić krótki opis, który jest zawarty w specjalnym metatagu . Algorytmy wyszukiwania użyje tego tagu do stworzenia opisu strony podczas wyświetlania wyników wyszukiwania (tzw. fragment)

Aby nie zawracać sobie głowy edycją kodu, możemy skorzystać z wtyczki do Word Pressa - Meta Menedżer tagów , który dodaje specjalny kontener na końcu edytora, w którym można go wprowadzić

Piszemy do pomocy technicznej Yandex

Jeśli masz pewność co do jakości swojej witryny, a zwłaszcza tych stron, które nie pojawiają się w wyszukiwaniu. Yandex ma dość obszerną instrukcję i ogromną listę „tego, co nie jest pożądane”, a nawet „niedozwolone”. Radzimy przeczytać zanim napiszesz oszczerstwo - https://yandex.ru/support/webmaster/yandex-indexing/webmaster-advice.xml

Co mogę napisać i gdzie napisać, aby uzyskać odpowiedź?

Masz więc pewność, że Twoja witryna jest biała i puszysta, więc pilnie musisz napisać do Yandex. Jeśli rzeczywiście tak jest, to:

  1. Idź do strony https://yandex.ru/support/webmaster-troubleshooting/site-indexing.xml
  2. Następnie w ankiecie wybierz „ Moja witryna nie jest dobrze zaindeksowana.”
  3. Następnie - " Niektóre strony witryny nie zostały znalezione podczas wyszukiwania”
  4. Na samym końcu musisz zaznaczyć checkbox „Brak stron w wyszukiwaniu z nieznanych powodów”

Następnie otworzy się formularz informacja zwrotna ze wsparciem technicznym:

W swojej wiadomości możesz napisać coś w rodzaju poniższego tekstu ( nie kopiuj go całkowicie, po prostu użyj go jako szablonu)

P.S. Odpowiedź Yandexa to po prostu błąd w narzędziu do sprawdzania adresów URL

Wsparcie techniczne Yandex odpowiedziało mi zaskakująco szybko. Okazało się, że mimo wszystko moje strony były wyszukiwane – winne było nieuczciwe narzędzie „Sprawdź URL”. Niedawno wdrożono usługę Ya.Webmaster Nowa wersja tej usługi - najwyraźniej na razie nie wszystko działa tak, jak powinno.

Te. Może są strony, a może nie? Aby mieć pewność co do tego lub innego założenia, musisz sprawdzić jego obecność w indeksie innych usług dla webmasterów.

Optymalizacja wyszukiwarki - wielka praca nad zestawem różne czynniki. Projekt, komponent techniczny, treść. Nawet pozornie nieistotne szczegóły są bardzo ważne w promocji. O najczęstszych błędach przy projektowaniu stron internetowych pisaliśmy już wcześniej. Dzisiaj przyjrzymy się 9 fatalnym błędom SEO, które mogą zrujnować każdą witrynę.

  1. Filtry i sankcje Wyszukiwarki

    Przynajmniej raz w tygodniu zalecam sprawdzanie webmasterów Yandex i Google pod kątem sankcji. W Yandex można to zrobić w sekcji Diagnostyka → Bezpieczeństwo i naruszenia. W Google - Wyszukaj ruch→ Pomiary ręczne.

    Jak pokazuje nasza praktyka, najczęściej właściciele witryn nie są nawet świadomi nakładanych ograniczeń. Niedawny przykład z naszej pracy:

    Duża ilość cudzych tekstów na stronie i otwartych linków wychodzących. Wynik jest na zrzucie ekranu.

    Dalsze promowanie nie ma sensu, dopóki nie zostaną zniesione wszystkie ograniczenia. Poprawiamy wszystkie błędy, informujemy wyszukiwarkę i czekamy na zniesienie sankcji.

  2. Treść

    Ciągle mówimy o tym, jak ważne są teksty. Treść jest powodem, dla którego użytkownicy odwiedzają strony internetowe. Nikt nie potrzebuje nieunikalnych i nieciekawych treści. Wyszukiwarki nie doceniają takich zasobów w wynikach wyszukiwania, a klienci mają dość czytania tych samych szablonów tekstów w setkach witryn. Dowód na to, że treść może wytrącić Cię z dobrych pozycji.

    Sprawdź niepowtarzalność tekstów przed opublikowaniem na text.ru.

    Jak pisać teksty, na jakich stronach i w ogóle o treści, na naszym blogu napisano już wiele. Oto duży wybór artykułów autorstwa naszej copywriterki Darii.

  3. Tagi tytułu i opisu, nagłówki H1-H3

    Podstawą promocji SEO są odpowiednio dobrane słowa kluczowe. Jest to bardzo ważny czynnik przy ocenie trafności Twojej witryny w stosunku do wyszukiwanego hasła.

    Najczęściej spotykamy się z dwoma błędami. Kompletna nieobecność słowa kluczowe w tagach:

    Tag Tytuł musi być wypełniony jako spójne zdanie i zawierać słowa kluczowe.

    Lub spamuj klucze w nagłówkach:

    Ważne jest, aby znaleźć złoty środek. Tagi powinny być przydatne nie tylko dla robotów wyszukujących, ale także dla zwykli ludzie. Nie zapomnij o przekazie informacyjnym. Jak pisać poprawnie tagi tytułowe, opis i nagłówki H1, nasza copywriterka Ekaterina dobrze wyjaśnia w swoim artykule.

  4. Przechodzę na https

    Od stycznia 2017 r. przeglądarka GoogleChrome(począwszy od wersji 56) zaczęto oznaczać wszystkie witryny HTTP zawierające dowolne formularze przesyłające osobiste dane użytkownika (e-mail, hasła, dane karty kredytowe itp.) jako „niebezpieczne”. Dostępność również Certyfikat SSL to niewielki wzrost w rankingach Google.

    Wszystkie sklepy internetowe powinny najpierw przejść na protokół https. Jednocześnie bardzo ważne jest przestrzeganie poprawny algorytm działania.

    Najbardziej częsty błąd- po prostu skonfiguruj przekierowanie 301 za pomocą stara wersja http na https po zakupie certyfikatu SSL. Właściciele witryn zapominają o pliku robots.txt, dyrektywie Host i ustawieniach webmastera. Strona z http wypada z indeksu, nowa strona na https nie została jeszcze zaindeksowana. Wszystkie pozycje natychmiast idą w błoto.

    Na naszym blogu znajdziesz szczegółowe instrukcje jak poprawnie przenieść stronę z http na https. Jeśli masz jakieś pytania napisz do nas, na pewno pomożemy.

  5. Plik robots.txt

    Plik tekstowy umieszczany na stronie internetowej i przeznaczony dla robotów wyszukiwarek. W tym pliku należy określić parametry indeksowania witryny dla robotów wyszukujących.

    Czasami w ogóle brakuje pliku robots.txt.

    Świeży przykład z naszej pracy. Sklep internetowy z obrabiarkami, prace zostały zrealizowane w ramach usługi promocji w wyszukiwarce. Strona była całkowicie otwarta do indeksowania wyszukiwanie robotów i w ogóle nie miał pliku robots.txt.

    Ustawiliśmy do tego roboty, teraz wszystko jest w porządku:

    Co dokładnie zrobiliśmy?

    Panel administracyjny serwisu, strony serwisowe 404 i 403, strona wyszukiwania oraz koszyk zostały wyłączone z indeksowania. Określono adres mapy witryny i skonfigurowano dyrektywę Host.

    Wraz z innymi pracami optymalizacyjnymi pomogło to osiągnąć następujące wyniki:

    Inny poważny błąd- strona jest całkowicie wyłączona z indeksowania. Odbywa się to za pomocą dyrektyw Disallow i Enable, które zabraniają lub zezwalają na indeksowanie odpowiednio sekcji, poszczególnych stron witryny lub plików. Aby sprawdzić plik, wyszukiwarki mają specjalne narzędzia: Yandex i Google.

    Sprawdź, czy Twoja witryna zawiera plik robots.txt i czy jest on poprawnie wypełniony. Należy zablokować indeksowanie wszystkich stron usług, stron wyszukiwania i filtrów. Strony duplikatów, rejestracja, autoryzacja. Strona koszyka i kasy dla sklepów internetowych. .

  6. Zduplikowana treść (zduplikowane strony)

    Zduplikowana treść, czyli po prostu duplikat, to strony w Twojej witrynie, które są całkowicie (wyraźne duplikaty) lub częściowo (niejasne duplikaty) takie same, ale każda z nich ma inny adres URL.

    Jedna strona może mieć jeden lub kilka duplikatów:

    Roboty wyszukiwawcze mają negatywny stosunek do duplikatów treści i mogą obniżyć swoją pozycję w wynikach wyszukiwania ze względu na brak unikalności, a co za tym idzie przydatności dla klienta. Nie ma sensu czytać tego samego różne strony strona.

    Odpowiednia strona może ulec zmianie. Robot może zwrócić zduplikowaną stronę, jeśli uzna, że ​​jej treść jest bardziej adekwatna do żądania. Strona straci pozycję i spadnie w wynikach wyszukiwania. W 90% przypadków duplikaty zakłócają promocję, a po ich wyeliminowaniu pozycja witryny poprawia się.

    Jak znaleźć i usunąć duplikaty w witrynie, mówimy w tym artykule.

  7. Lustra witryny

    Lustra to witryny, które są pełne egzemplarze siebie nawzajem, dostępne przez różne adresy. Ważne jest, aby połączyć wszystkie serwery lustrzane stron internetowych za pomocą przekierowań 301.

    Wskaźniki TCI, waga Linki zewnętrzne nie powinny się rozprzestrzeniać, ale tak się stanie, ponieważ... Wyszukiwarki uważają witryny znajdujące się pod różnymi adresami za różne zasoby. Możliwość zamiany odpowiednia strona w wynikach wyszukiwania, powielanie treści. W 100% zakłóca wzrost witryny w wynikach wyszukiwania.

    Witryna nie powinna otwierać się pod różnymi adresami, z www i bez, tylko site.ru i site.ru/index.php, pod adresem http i https itp.:

    Lista kontrolna do sprawdzenia:

    • Strona powinna być dostępna tylko pojedynczo w danym momencie protokół http lub https.
    • Wybrano główne lustro witryny, z www lub bez www, wskazane w webmasterze.
    • Skonfigurowano przekierowania 301 ze wszystkich serwerów lustrzanych.
    • Strona główna serwisu dostępna jest pod jednym adresem, bez /index.php, /index.html itp.
  8. Układ adaptacyjny (wersja serwisu dla urządzenia mobilne)

    100% Must-have dla wszystkich witryn w 2017 roku. Dzisiejszy wzrost ruch mobilny przed komputerem. Liczba użytkowników korzystających ze smartfonów do dokonywania zakupów na świecie rośnie z każdym dniem. Algorytmy wyszukiwarek uwzględniają możliwości adaptacji podczas rankingu witryny w wynikach wyszukiwania na urządzeniach mobilnych.

    Google korzysta z algorytmu Google przyjaznego dla urządzeń mobilnych od 2015 roku.

  9. Szybkość ładowania witryny

    Tutaj wszystko jest proste. Użytkownicy nie lubią powolnych stron internetowych. Wyszukiwarki również preferują szybkie, zoptymalizowane witryny. Szybkość ładowania swojej witryny możesz sprawdzić za pomocą narzędzia Google. Czerwony - wolny, ważne jest, aby pilnie zwiększyć prędkość, żółty - normalny, ale można go zoptymalizować, zielony - doskonały.

    Spójrzmy na konkretny przykład

    Pamiętajcie, że na początku artykułu wspominaliśmy o sklepie internetowym z maszynami. Co naprawiliśmy w przypadku błędów krytycznych:

    • Nieunikalna treść

    Napisaliśmy dobrze sprzedający się, unikalny tekst na stronę główną serwisu.

    • Błędy optymalizacji

    Dostosowano tagi tytułu i opisu oraz nagłówki H1.

    Utworzono i skonfigurowano plik robots.txt. Teraz strona jest poprawnie indeksowana przez wyszukiwarki. Wcześniej, jak stwierdzono powyżej, ten plik w ogóle nie było na stronie.

    • Obecność nieklejonych lusterek

    Skleiliśmy ze sobą lustra witryny. Strona była dostępna pod dwoma adresami z www i bez www.

    • Nieprawidłowa odpowiedź serwera dla nieistniejących stron

    Utworzony osobna strona 404 i skonfigurowałem poprawną odpowiedź serwera dla nieistniejących stron.

    Przed zakończeniem pracy nieistniejące strony Poprzez przekierowanie 302 użytkownik został przekierowany na stronę główną serwisu.

    Wyniki:

    Pozytywna dynamika wzrostu ruchu z wyszukiwarek:

    Ruch z Google wzrósł dwukrotnie:

    Wynik po 3 miesiącach:

    +8 prośby od Yandex, +6 Google jest w pierwszej piątce

    +19 prośby od Yandex, +9 w pierwszej dziesiątce Google

    +25 prośby od Yandex, +11 Google jest w pierwszej dwudziestce

    +14 prośby od Yandex, +4 Google znajduje się w pierwszej pięćdziesiątce

    Czy chcesz tego samego? Sprawdź, czy te błędy występują również w Twojej witrynie. Jeśli nie masz czasu lub ochoty się nad tym zastanawiać, zamów u nas promocję w wyszukiwarkach, chętnie Ci w tym pomożemy.

Artykuł został zredagowany 27.01.2017 i jest aktualny w tej chwili

Dzisiaj porozmawiamy o skanowaniu błędów. Znajdziemy je i usuniemy z indeksu wyszukiwarki. W tym celu skorzystamy z narzędzi kreatora internetowego firmy Google.

Najpierw porozmawiajmy o tym, jakie są te błędy.

Być może każdemu przydarzyła się sytuacja, w której nagle podjąłeś decyzję o usunięciu wcześniej napisanego wpisu na blogu. Usunęli, ale nie wiesz, jakie są konsekwencje? Faktem jest, że wyszukiwarki już zaindeksowały Twój artykuł.

Nawet jeśli we wtyczce na blogu uniemożliwiasz robotowi indeksowanie usuniętego adresu URL. Nie odniesiesz sukcesu, ponieważ robot wyszukiwania będzie nadal indeksował nieistniejące strony.

Za każdym razem, gdy odwiedza Twojego bloga, indeksuje nowe strony, ale nie zapomina o starych. Aby skrócić czas spędzony na każdym blogu, wykorzystuje on „pamięć podręczną”, w której przechowywane są wcześniejsze informacje o Twoich stronach.

Okazuje się, że korzysta stara pamięć plus dodaje nowy artykuł do indeksu.

Usunięta strona również będzie nadal indeksowana. Tym samym znajduje się w wynikach wyszukiwania dla Zapytania. A użytkownik wpisując kolejne żądanie „klika” w nie i trafia na stronę, która nie istnieje.

Co robi w takiej sytuacji, gdy nie znajduje tego, czego szuka? Jak się domyślacie, po prostu opuszcza witrynę.

A co jeśli sytuacja będzie się powtarzać dzień po dniu? Ma to bardzo zły wpływ na promocję bloga. Roboty nie lubią tej sytuacji. Twoje artykuły spadają w rankingu, ponieważ jest zbyt wiele odrzuceń z Twojego bloga.

Takie sygnały alarmowe wysyłane są do robota wyszukiwarki. A wszystko to jest uwzględniane przez wyszukiwarki. Systemy Yandex i Google’a.

Jest wyjście - umieść na takiej stronie błąd 404, przekierowanie 301. Lub w prostych słowach dokonać „przekierowania” na stronę główną serwisu.

Zwracam uwagę na fakt, że strony te nigdy nie opuszczą indeksu Google. Należy je usunąć ręcznie. Ale w Yandex robot robi to dobrze.

Ale możesz je również usunąć w Yandex. Wystarczy wybrać tę samą pozycję w narzędziach kreatora po prawej stronie (usuń adres).

A dzisiaj pokażę Ci jak znaleźć nieistniejące strony 404 i wysłać prośbę o ich usunięcie.

W tym celu skorzystamy z narzędzi Google dla webmasterów.

Spełnijmy dwa warunki:

  • Konto Google+

Rejestracja jest dość prosta i bezpłatna.

  • Twoje prawa do witryny muszą zostać potwierdzone

W panelu webmastera włącz strona główna, po prawej stronie znajduje się czerwony przycisk „dodaj witrynę”. Kliknij na nią i postępuj zgodnie z dalszymi instrukcjami.

I przechodzimy do narzędzi dla webmasterów w Google według połączyć

I spójrz na moje zrzuty ekranu. Pomogą Ci nie zgubić się.









Wysyłamy prośbę o usunięcie strony.


Specjalnie dla gości, którzy nie mają ochoty czytać, sugeruję obejrzenie krótkiego filmu.

I tak to podsumujmy. Dzisiaj dowiedzieliśmy się, jak znaleźć błędy indeksowania i usunąć je z webmastera Google.

To wszystko. Do zobaczenia wkrótce. Subskrybuj aktualności. Życzę wszystkim zdrowia i powodzenia!

    Rito, dziękuję BARDZO! Zawsze praktyczne zalecenia o promocji i założeniu bloga.

    Pojawia się post od Rity i pojawia się kolejny trik.

    Dziękujemy za podzielenie się z czytelnikami 😛

    Rito, dziękuję! Teraz pójdę wszystko sprawdzić i usunąć! Mam takie rzeczy! Co oczywiście nie jest zbyt dobre.

    Oooch! Zastanawiałam się, co z nimi zrobić? Wielkie dzięki. Mam 15 „Nie znaleziono”. Jak rozumiem, będziesz musiał usuwać pojedynczo? Czy coś bardzo ważnego mogło się tam znaleźć przez przypadek?

    Dziękuję! Twój artykuł bardzo mi pomógł.

    Jeszcze raz dziękuję Rito za nieoczekiwany prezent.

    Pozdrawiam, Anatolij.

    Rita, mój schemat jest w przybliżeniu taki sam. Za każdym razem, gdy wchodzę do narzędzi dla webmasterów, sprawdzam, czy nie ma błędów. Dziękuję. 12 maja 2016 o godz

    Andrey, oznacza to, że uruchomiłeś swojego bloga. I trzeba zacząć od robotów. Zatrzymaj roboty przed indeksowaniem wszystkiego. I powoli, każdego wieczoru, usuwaj go. Kiedyś zajęło mi to tydzień. Teraz co jakiś czas tu zaglądam i przeglądam. Powodzenia. Nie denerwuj się.

    Odpowiedź Andrieja:
    12 maja 2016 o godz

    To nie jest do końca blog, to sklep, strony powstały w wyniku przeniesienia z jednej platformy na drugą i późniejszego wygenerowania nowych adresów URL (stare nie miały wówczas jeszcze dużej wagi).

    Być może pytanie brzmi nie tylko, jak usunąć je z indeksu, ale skąd Google bierze te linki? Ani w bazie danych, ani w mapie witryny, ani w kodzie, robots jest jedynie celem wymagane katalogi, którego kod również nie zawiera tych linków.

    Mam wrażenie, że witryna jest indeksowana przy użyciu starych map. Jak mam jej wytłumaczyć, że musi działać tylko z nowymi wersjami mapy witryny i robots? Czy to możliwe, że Google znajduje się na innym koncie? stara mapa witryna zawierająca wszystkie te stare linki?

    W jednym z postów przeczytałem, że nie trzeba nic robić, jeśli są to naprawdę stare, niepotrzebne linki i podobno on sam o nich zapomni. Ale znowu, jak długo ma pamięć)

    PS: tydzień to za mało, w ciągu 24 godzin zaindeksowano 1200 stron z 404

Złośliwy kod może zostać celowo lub przypadkowo dodany do witryny internetowej:

  • osoba atakująca, która uzyskała dostęp do serwerów lub systemu zarządzania witryną;
  • właściciel witryny (na przykład kod systemu banerów, licznik analityki internetowej) - zasoby stron trzecich może zostać zhakowany;
  • użytkownik serwisu, czy istnieje możliwość pozostawienia wiadomości lub przesłania plików.

Które strony internetowe są zainfekowane?

Listę stron, na których wykryto złośliwy kod, znajdziesz w Yandex.Webmaster, w sekcji Bezpieczeństwo i naruszenia .

Lista może być niekompletna, ponieważ strony są sprawdzane losowo. Należy także pamiętać, że zainfekowany może być kod zawarty na wszystkich stronach – np. nagłówek lub stopka witryny.

Jak często odbywają się kontrole?

Okresy przeglądu są różne, dlatego aktualizacja danych o infekcjach może nastąpić z opóźnieniem.

Strona, na której Yandex znalazł złośliwą treść, z pewnością zostanie ponownie sprawdzona. Jeśli podczas kolejnego skanowania okaże się, że witryna nadal jest zainfekowana, odstępy pomiędzy kolejnymi kontrolami zaczną się wydłużać. Im szybciej miejsce zostanie zdezynfekowane, tym szybszy Yandex dowie się o tym i usunie znak zagrożenia dla użytkowników.

Jak znaleźć złośliwy kod klienta w Twojej witrynie?

Wszystko naprawiłem. Jak mogę usunąć niebezpieczną flagę witryny?

Znak informujący o niebezpieczeństwie witryny w wynikach wyszukiwania zostanie usunięty, jeśli podczas następnego skanowania robot Yandex nie wykryje infekcji. Aby przyspieszyć ponowne sprawdzenie, w interfejsie Yandex.Webmaster, w sekcji Bezpieczeństwo i naruszenia kliknij przycisk Wszystko naprawiłem.

Dlaczego warto zarejestrować się w Yandex.Webmaster?

Yandex.Webmaster wyświetla listę stron, na których Yandex wykrył złośliwy kod, raportuje werdykt antywirusowy dla każdej strony i pokazuje łańcuchy infekcji. Usługa pozwala również poprosić o ponowne sprawdzenie infekcji, aby jak najszybciej usunąć niebezpieczną flagę witryny z wyników wyszukiwania.

Aby mieć pewność, że dane serwisu są dostępne tylko dla właściciela i jego upoważnionych przedstawicieli, należy zarejestrować się i potwierdzić uprawnienia do zarządzania serwisem.

Jak chronić swoją witrynę przed nowymi infekcjami?

Dlaczego witryna jest oznaczona w wynikach wyszukiwania jako zainfekowana, ale w webmasterze nie ma listy zainfekowanych stron?

Strony z różnych domen są sprawdzane pod kątem złośliwego kodu niezależnie od siebie. Jeśli różne domeny jedna witryna (na przykład www.example.com i example.com) nie jest sklejana przez Yandex jako kopie lustrzane, informacje w Yandex.Webmaster mogą być niekompletne. Domena zarejestrowana w Yandex.Webmaster nie może zostać oznaczona jako niebezpieczna, natomiast strony w niezarejestrowanej domenie zostaną zainfekowane.

Zarejestruj drugą domenę w serwisie. Będziesz wtedy mógł zobaczyć informacje o infekcji dla obu domen i poprosić o krzyżową kontrolę bezpieczeństwa dla każdej z nich.

Dlaczego jest tak wiele sprzecznych komunikatów na temat infekcji witryny?

Zwykle takie komunikaty wskazują na próbę złośliwy kod ukryj swoją aktywność przed systemem skanującym: kod może pojawiać się w określonych odstępach czasu lub po spełnieniu określonych warunków. Na przykład tylko podczas przechodzenia do witryny z wyszukiwarek lub tylko dla niektóre przeglądarki.

Sprawdź wszystkie pliki witryny pod kątem infekcji.

Google zamierza porzucić klasyczny adres internetowy w swojej przeglądarce. Firma planuje wzmocnić ochronę użytkowników w Internecie.

Oszustwa internetowe stają się prawdziwą plagą XXI wieku. Codziennie w świat wirtualny hakerzy kradną i sprzedają wszystko – począwszy od szczegółów karty bankowe po intymne fotografie gwiazd Hollywood.

Każda firma internetowa stara się wdrażać własne metody ochrony użytkowników, ale to wszystko nie jest jeszcze wystarczająco skuteczne. Według McAfee cyberataki kosztowały świat w zeszłym roku straty w wysokości 600 miliardów dolarów (mniej więcej połowa obecnego budżetu USA).

Twórcy jednego z najbardziej popularne przeglądarki- Korporacja Google.

Wczoraj przeglądarka Chrome skończyła 10 lat i oprócz znaczących zmian w , programiści planują poważnie wzmocnić niezawodność paska adresu.

Google zamierza stopniowo wycofywać się z tradycyjnych internetowych adresów URL, ponieważ są one zbyt skomplikowane i mylące dla użytkowników.

Często pomaga to hakerom i oszustom, którzy tworzą fałszywe strony dla instytucji finansowych i innych złośliwych witryn, rozpowszechniają fałszywe informacje lub oprogramowanie wirusowe.

Dlatego programiści firmy pracują nad systemem, który pomoże uprościć korzystanie ze stron internetowych w Chrome każdemu użytkownikowi.

„Nie wiem jeszcze, jak to dokładnie będzie wyglądać, ponieważ teraz aktywnie dyskutujemy o tym w zespole. Wiem, że cokolwiek zaproponujemy, będzie kontrowersyjne” – powiedziała WIRED Parisa Tabriz, dyrektor ds. technologii w Chrome. „To jedno z największych wyzwań związanych z pracą na starej, otwartej i rozpadającej się platformie. Niezależnie od tego, co się stanie, zmiany będą kontrowersyjne. To ważne, abyśmy to zrobili, ponieważ wszyscy są niezadowoleni z adresów URL. To trochę do bani.

Zasadniczo Google powinno się rozwijać nowy system, gdzie wszyscy uczestnicy mogą łatwo sprawdzić i zrozumieć, z czym mają do czynienia, czy odwiedzają prawdziwą witrynę internetową i z łatwością potrafią rozróżnić strony lub wiadomości, którym zdecydowanie nie można ufać.

Przedstawiciele korporacji wyjaśniają, że obecnie skupiają się na ustaleniu, w jaki sposób ludzie korzystają z adresów URL, aby znaleźć alternatywy o podwyższonych środkach bezpieczeństwa i identyfikacji tożsamości w Internecie.

Oczywiście Google jeszcze tego nie ma zdecydowana decyzja jak będą działać strony internetowe bez adresów URL.

Ale firma pracuje nad tym od 2014 roku. Kilka lat temu eksperymentowali z czymś, co nazywa się „cechą autentyczności”. Przeglądarka wyświetliła jedynie nazwę domeny podstawowej witryny, aby upewnić się, że połączenie z tą domeną jest autentyczne. Aby zobaczyć pełny adres URL, należało kliknąć w przycisk odpowiedzialny za tę funkcję.

Później Google przeszło na inny system szyfrowania sieci, HTTPS, który do dziś działa w przeglądarce Chrome.

Pamiętajmy, że URL to pojedynczy wskaźnik do zasobu internetowego, który został wymyślony jako uniwersalny identyfikator przebywania w sieci przez jednego z twórców Sieć WWW Tima Bernersa-Lee w 1990 r.