Как обнаружить и устранить скрытую переадресацию для мобильных устройств. Что конкретно нужно исправить и как это сделать? Как происходит повторная проверка

Данная ошибка выводится в отчете после проверки определенных страниц сайта на доступность в поисковой системе Яндекс. Делается это через специальный сервис Яндекс.Вебмастер (инструмент «Индексирование» -> «Проверка URL»).

Что за ошибка?

Это означает, что робот посетил её, но не удосужился внести её в поисковую выдачу, сочтя её некачественной и вообще — вы спамер, у вас много рекламы, исправляйте всё немедленно, а потом поговорим! Самое удивительно то, что «некачественным» он иногда считает материал по 5000-10 000 знаков копирайта и отличным положением у конкурента в поиске (у меня не проиндексированная страница в Я была в ТОП-3 в G )

Симптомы:

  1. Количество загруженных страниц сайта на порядок больше, чем количество страниц в поиске
  2. Некоторые страницы упорно не хотят индексироваться, даже после размещения ссылки на дружественных тематических ресурсах или в социальных сетях
  3. Контент на не индексируемых страницах уникальный и качественный
  4. Сайт не показывает баннерную рекламу, либо её количество минимально
  5. Сайт не находится под фильтрами поисковой системы.

Устраняем ошибки, которые указаны в разделе «Диагностика»

Чтобы повысить качество сайта и страниц в глазах Яндекса, нужно, как это ни странно, воспользоваться советами его самого. Дело в том, что в Я.Вебмастере в разделе «Диагностика» есть список текущих ошибок, которые вполне могут повлиять на выдачу

Что конкретно нужно исправить и как это сделать?

Воспользоваться инструментом «Переобход страниц»

В Яндекс. Вебмастере есть специальный сервис, заставляющий робот заново посетить вашу страницу «Инструменты» «Переобход страниц» . Заставьте робота еще раз посетить вашу страницу. Идеальный вариант — немного добавить контента или хотя бы поменять где-то текст. В общем, видоизмените страницу, на которую будете ссылаться.

Удалить дубли, запретить их к индексации

Практически самый главный враг хорошей индексации отдельных страниц, которые не попадают в выдачу — это дубли. Дубли страниц, которые генерирует сама CMS, будь-то WP или DLE. Причем дубли могут быть совсем не явные, т.е. как таковых «вторых» страниц с таким же контентом нет, но есть страницы, у которых срабатывает редирект на основной материал. Их можно отследить в Я.Вебмастере. Для этого зайдите в меню «Индексирование» -> «Статистика». Далее выберитерядом с названием сайта категорию «HTTP-коды 3хх»

Как видите страниц с редиректом пруд пруди:

Самое интересно то, что еще одним стандартным сервисом «Яндекса» дубли не удалить сходу: Пишет ошибку «Нет основание для удаления». Т.е. яндекс не может просто убрать страницу с поиска, если даже вы этого хотите. Ему нужны основания

Для того, чтобы перестали генерироваться дубли и для того, чтобы их можно было удалить с поисковой выдаче нужно проделать следующие шаги

  • Прописать строчку кода в файле functions.php (если у вас Word Press)

Обычно этот файл находится в директории с названием вашей темы. Для редактирования можете использовать FTP ну или встроенный редактор в админке WP — это на ваше усмотрение. Вставляем следующий код

remove_action(‘wp_head’, ‘wp_shortlink_wp_head’);

  • Настроить файл robot.txt

Чтобы запретить индексацию дублей нужно создать соответствующее правило в файле robot.txt

Disallow: /?p=*

Т.е. страницы вида «site.ru/?p » запрещены к индексации. Кстати, на Word Press проще всего добавить это правило также через код в том же файле functions.php. Результат удаления URL через Я.Вебмастер теперь положительный:

Создать карту сайта (Sitemap)

Карта сайта создана специально для упрощения навигации не только пользователей, но и поисковых роботов. Поэтому, если вы считаете, что вашем посетителям она ни к чему, то сделайте её хотя бы для поисковой системы. Давно доказано — файл Sitemap улучшает индексацию страниц и сайта в целом! Для того, чтобы создать файл Sitemap.xml в CMS Word Press используйте плагин «Google XML Sitemaps».

Чтобы показать Яндексу, что файл у вас создан и может использоваться роботом в Я.Вебмастере зайдите в «Настройка индексирования» — «Файлы Sitemap» и вставьте ссылку на неё (учтите, что статус «Очередь на обработку будет висеть достаточно продолжительное время»)

Заполнить мета тэг name description

Для каждой странице нужно заполнить её краткое описание, которое содержится в специальном мета тэге . Поисковые алгоритмы будут использовать данный тэг для формирования описания страницы при выдаче результатов поиска (т.н. сниппет)

Чтобы не заморачиваться с правкой кода, мы можем использовать плагин для Word Press — Meta Tag Manager , который добавляет в конце редактора специальный контейнер, где можно его вписать

Пишем в техническую поддержку Яндекса

Если уверены в качестве своего сайта и конкретно тех страниц, которые не попадают в поиск. У Яндекса довольно большой мануал и огромные список того, «чего не желательно» или вовсе «нельзя». Советуем ознакомиться, перед тем, как строчить кляузу — https://yandex.ru/support/webmaster/yandex-indexing/webmaster-advice.xml

Что можно и где нужно писать, чтобы мне ответили?

Итак, вы уверены, что ваш сайт белый и пушистый, поэтому вам срочно нужно написать в Яндекс. Если это действительно так, то:

  1. Перейти на страницу https://yandex.ru/support/webmaster-troubleshooting/site-indexing.xml
  2. Далее в опросе выбираете — «Мой сайт плохо индексируется».
  3. Затем — «Некоторые страницы сайта отсутствуют в поиске»
  4. В самом конце нужно поставить галочку в чекбокс пункта «Страницы отсутствуют в поиске по непонятным причинам»

После чего откроется форма для обратной связи с техподдержкой:

В сообщении можете написать примерно следующий текст (не копируйте его полностью, просто используйте как шаблон )

P.S. Ответ от Яндекса — это просто ошибка инструмента «Проверка URL»

Техническая поддержка Яндекса ответила мне на удивление быстро. Оказалось, мои страницы-таки были в поиске — во всём виноват кривой инструмент «Проверить URL». Я.Вебмастер совсем недавно выкатил новую версию этого сервиса — видимо, пока что, не всё работает, как задумано.

Т.е. возможно страницы есть, а может и нет? Чтобы точно убедится в том или ином предположении, нужно проверить наличие в индексе на других сервисах для веб-мастеров.

Поисковая оптимизация - большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

  1. Фильтры и санкции поисковых систем

    Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения . В Google - Поисковый трафик → Меры, принятые вручную .

    Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

    Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

    До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

  2. Контент

    Мы постоянно говорим о том, как важны тексты. Контент - это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, .

    Проверяйте уникальность текстов перед размещением на text.ru .

    Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

  3. Теги Title и Description, заголовки H1-H3

    Основа SEO-продвижения - правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

    Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

    Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

    Либо переспам ключами в заголовках:

    Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье .

  4. Переезд на https

    C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

    Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

    Самая частая ошибка - просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

    В нашем Блоге есть подробная инструкция , как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам , обязательно поможем.

  5. Файл robots.txt

    Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

    Иногда файл robots.txt отсутствует вовсе.

    Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта . Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

    Настроили ему robots, теперь все в порядке:

    Что конкретно мы сделали?

    Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

    Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

    Еще одна серьезная ошибка - сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google .

    Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. .

  6. Дублирование контента (дубли страниц)

    Дублированный контент или просто дубли - это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

    Одна страница может иметь как один, так и несколько дублей:

    Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

    Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

    Как найти и убрать дубли на сайте, рассказываем в данной статье .

  7. Зеркала сайта

    Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

    Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

    Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

    Чек-лист для проверки:

    • Сайт должен быть доступен только по одному протоколу http или https.
    • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
    • Настроен 301 редирект со всех зеркал.
    • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  8. Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly .

  9. Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google . Красный - медленно, важно срочно увеличивать скорость, желтый - нормально, но можно оптимизировать, зеленый - отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    • Неуникальный контент

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    • Ошибки оптимизации

    Скорректировали теги title и description, заголовки H1.

    Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

    • Наличие не склеенных зеркал

    Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

    • Некорректный ответ сервера для несуществующих страниц

    Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

    До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

    Результаты:

    Положительная динамика роста посещаемости из поисковых систем:

    Трафик из Google вырос в два раза:

    Результат за 3 месяца:

    +8 запросов у Яндекса, +6 у Google в топ-5

    +19 запросов у Яндекса, +9 у Google в топ-10

    +25 запросов у Яндекса, +11 у Google в топ-20

    +14 запросов у Яндекса, +4 у Google в топ-50

    Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

Cтатья отредактирована 27.012017 и актуальна на данный момент

Сегодня поговорим о сканировании ошибок. Мы найдем их и удалим из индекса поисковой системы. Для этого воспользуемся инструментами вэб- мастера от google.

Сначала, о том, что это за ошибки.

Возможно у всех была такая ситуация, когда написанный ранее пост на блоге, вы вдруг решили удалить. Удалили, а чем это чревато не знаете? Дело в том, что поисковые системы уже ранее проиндексировали вашу статью.

Если даже в плагине на блоге, вы запретите роботу индексировать, тот url, что вы удалили. У вас ничего не получится, потому что робот поисковик будет продолжать индексировать несуществующие страницы.

Заходя, к вам на блог в каждое свое посещение он индексирует новые страницы, но и не забывает про старые. Чтобы сокращать время пребывания на каждом блоге, он пользуется «кешем» где хранится прошлая информация о ваших страницах.

Получается, что он пользуется старой памятью плюс в индекс добавляет новую статью.

Страница, которую вы удалили также продолжает сканироваться. Таким образом, она находится в выдаче по поисковым запросам. И пользователь, набирая очередной свой запрос «кликает» по ней и попадает на страницу, которой не существует.

Что он делает в таком случае, когда не находит, того чего ищет? Как вы догадались, он просто уходит с сайта.

А если это повторяется изо дня в день? Это очень плохо отражается на продвижении блога. Роботы такой расклад не приветствуют. Ваши статьи понижаются в ранжировании, потому, что слишком много отказов с вашего блога.

Такие тревожные сигналы поступают роботу поисковику. А это все учитывается поисковыми системами Yandex и Google.

Есть выход- поставить на такую страницу с ошибкой 404, редирект 301. Или простыми словами сделать «перенаправление» на главную страницу сайта.

Обращаю ваше внимание на то, что из google эти страницы никогда не уйдут из индекса. Их нужно удалять вручную. А вот в yandex с этим хорошо справляется robot.

Но можно также их удалять и в яндекс. Достаточно в инструментах для мастера справа выбрать тот же пункт(удалить адрес).

А сегодня я покажу вам, как найти несуществующие страницы 404 и послать запрос на их удаление.

Для этого воспользуемся инструментами google- webmaster.

Выполним два условия:

  • аккаунт в гугл+

Регистрация довольна проста и бесплатна.

  • ваши права на сайт должны быть подтверждены

В панеле webmaster, на главной странице, справа есть красная кнопка «добавить сайт». Кликните по ней и следуйте дальнейшим инструкциям.

А мы переходим в инструменты webmaster на Google по ссылке

И смотрим мои скриншоты. Они вам помогут не заблудиться.









Отправляем запрос на удаление страницы.


Специально для посетителей которым не до чтения, предлагаю посмотреть короткое видео.

И так подведем итог. Мы сегодня узнали, как найти ошибки сканирования и удалить их из google webmaster.

На этом все. До скорых встреч. Подписывайтесь на новости. Желаю всем здоровья и удачи!

    Рита, спасибо ОГРОМНОЕ! Всегда практические рекомендации по продвижению и настройке блога.

    Появляется пост от Риты и очередная фишка.

    Спасибо, за то, что делишься со своими читателями 😛

    Рита, спасибо! Сейчас же пойду проверять все и удалять! У меня такие вещи присутствуют! Что конечно не очень хорошо.

    Оооо! я голову ломала, что с ними делать? Огромное спасибо. У меня 15 «Не найдено». Как я поняла, по одному придется удалять? А там ничего очень важного не может оказаться случайно?

    Спасибо! Ваша статья мне очень помогла.

    Еще благодарность Вам Рита, за неожиданный подарок.

    С уважением Анатолий.

    Рита, у меня схема примерно такая же. Каждый раз, когда захожу в инструменты для вебмастеров, проверяю ошибки. Спасибо. Май 12th, 2016 at

    Андрей, а это значит, что подзапустили вы свой блог. И нужно начинать с файла robots. Запретить роботам индексировать все подряд. И по- тихоньку, каждый вечер удалять. У меня в свое время неделя ушла. Сейчас периодически захожу и просматриваю. Удачи. Не расстраивайтесь.

    Андрей Reply:
    Май 12th, 2016 at

    Это не совсем блог, это магазин, страницы возникли в результате переносов с одной платформы на другую и последующей генерации новых УРЛов (старые особого веса на тот момент не имели).

    Вопрос возможно даже не только в том, как их удалить из индекса, а откуда гугл берет эти ссылки? В базе нет, в sitemap нет, в коде нет, robots направлен только на нужные директории, в коде которых тоже этих ссылок нет.

    Такое ощущение, что сайт индексируется по каким то старым картам и как ему объяснить, что работать нужно только с новыми версиями sitemap и robots? И может ли такое быть, что в каком то еще аккаунте гугл находится старая карта сайта, которая приносит все эти старые линки?

    В одном из постов читал, что ничего делать не нужно, если это действительно старые, не нужные ссылки, и якобы он сам забудет про них. Только, опять же, на сколько у него длинная память)

    PS: недели не хватит, за сутки проиндексировались 1200 страниц с 404

Вредоносный код может быть добавлен на сайт умышленно или случайно:

  • злоумышленником, который получил доступ к серверам или системе управления сайтом;
  • владельцем сайта (например, код баннерной системы, счетчика веб-аналитики) - сторонние ресурсы могут быть взломаны;
  • пользователем сайта, если есть возможность оставлять сообщения или загружать файлы.

Какие именно страницы сайта заражены?

Перечень страниц, на которых обнаружен вредоносный код, можно найти в Яндекс.Вебмастере, в разделе Безопасность и нарушения .

Список может быть неполным, так как страницы проверяются выборочно. Также следует помнить, что зараженным может оказаться код, включенный во все страницы - например, заголовок или подвал сайта.

Как часто происходят проверки?

Период проверок варьируется, поэтому данные о заражении могут обновляться с задержкой.

Сайт, на котором Яндекс нашел вредоносное содержимое, обязательно будет перепроверен. Если в ходе следующей проверки окажется, что сайт все еще заражен, интервалы между перепроверками начнут увеличиваться. Чем раньше сайт будет обеззаражен, тем быстрее Яндекс узнает об этом и снимет пометку об опасности для пользователей.

Как найти вредоносный клиентский код на своём сайте?

Я все исправил, как убрать пометку об опасности сайта?

Пометка об опасности сайта в результатах поиска будет снята, если при очередной проверке робот Яндекса не обнаружит заражения. Чтобы ускорить перепроверку, в интерфейсе Яндекс.Вебмастера, в разделе Безопасность и нарушения , нажмите кнопку Я все исправил .

Зачем регистрироваться в Яндекс.Вебмастере?

Яндекс.Вебмастер перечисляет страницы, на которых Яндекс обнаружил вредоносный код, сообщает вердикт антивируса для каждой страницы и показывает цепочки заражения . Также сервис позволяет вам запросить перепроверку заражения, чтобы как можно скорее снять пометку об опасности сайта в результатах поиска.

Чтобы данные о сайте были доступны только владельцу и его доверенным лицам, необходимо зарегистрироваться и подтвердить права на управление сайтом .

Как защитить сайт от новых заражений?

Почему сайт в результатах поиска помечен как зараженный, но в Вебмастере списка зараженных страниц нет?

Страницы разных доменов проходят проверку на вредоносный код независимо друг от друга. Если разные домены одного сайта (например, www.example.com и example.com ), не склеены Яндексом как зеркала , в Яндекс.Вебмастере информация может быть неполная. Домен, зарегистрированный в Яндекс.Вебмастере, может не помечаться как опасный, в то время как страницы на незарегистрированном домене будут зараженными.

Зарегистрируйте второй домен на сервисе. После этого вы сможете видеть информацию о заражении для обоих доменов, и запрашивать перепроверки безопасности для каждого из них.

Почему приходит много противоречивых сообщений о заражении сайта?

Обычно такие сообщения говорят о попытке вредоносного кода скрыть свою активность от сканирующей системы: код может проявляться с определенной периодичностью либо при соблюдении определенных условий. Например, только при переходе на сайт из поисковых систем или только для определенных браузеров.

Проверьте на заражение все файлы сайта.

Google собирается отказаться от классического адреса интернет-страниц в своем браузере. Компания планирует укрепить средства защиты пользователей в сети.

Интернет-мошенничество становится настоящей чумой 21 столетия. Каждый день в виртуальном мире хакеры воруют и продают все, что угодно - от реквизитов банковских карт до интимных фотографий звезд Голливуда.

Каждая интернет-компания пытается внедрять свои способы защиты пользователей, но все это пока недостаточно эффективно. Согласно McAfee, кибератаки в прошлом году принесли миру убытков на $600 млрд (примерно половина действующего бюджета США).

Принять радикальные методы безопасности хотят создатели одного из самых популярных браузеров - корпорация Google.

Вчера браузеру Сhrome исполнилось 10 лет и, помимо существенных изменений в , разработчики планируют cерьезно укрепить надежность адресной строки.

Google намерен отказаться от использования традиционных интернет-адресов URL, поскольку они являются слишком сложными и непонятными для пользователей.

Это часто играет на руку хакерам и мошенникам, которые создают фейковые страницы финансовых учреждений и прочие вредоносные сайты, распространяют ложную информацию или вирусное программное обеспечение.

Поэтому, программисты компании работают над такой системой, которая поможет упростить пользование веб-страницами в Chrome для каждого пользователя.

“Я еще не знаю как точно это будет выглядеть, потому что сейчас мы активно обсуждаем это в команде. Я знаю: что бы мы не предложили - это будет спорным”, - рассказала в интервью WIRED директор технологий в Chrome Париса Табриз. “Это один из самых главных вызовов в работе со старой, открытой и разваливающейся платформой. Изменения в любом случае будут спорными, независимо от того, что произойдет. Важно, что мы делаем это, поскольку все недовольны URL. Это вроде как отстойно”.

По сути, Google должен разработать новую систему, все участники которой смогут легко проверять и понимать с чем они имеют дело, заходят ли они на подлинный веб-сайт и легко различать страницы или сообщения, которым точно нельзя доверять.

Представители корпорации объясняют, что сейчас они сосредоточены на определении того, как люди используют URL-адреса, чтобы найти альтернативу с повышенными мерами безопасности и определением личности в интернете.

Очевидно, что Google пока не имеет определенного решения того, как будут функционировать веб-страницы без URL-адресов.

Но компания работает над этим еще с 2014 года. Несколько лет назад они экспериментировали с так называемой “функцией подлинности”. Браузер показывал только основное имя домена сайта, чтобы гарантировать подлинность подключения именно к этому домену. Чтобы увидеть полный URL-адрес нужно было нажать на кнопку, которая отвечала за эту функцию.

Позже, Google перешел на другую систему веб-шифрования HTTPS, которая работает в Сhrome и по сей день.

Напомним, URL - это единый указатель интернет-ресурса, который был изобретен как универсальный определитель нахождения в сети одним из создателей Всемирной паутины Тимом Бернерсом-Ли в 1990 году.