Видеообзор программы Netpeak Spider. Программы Xenu’s Link Sleuth и Netpeak Spider

Всем привет! Сегодня расскажу об известном всем SEO-специалистам инструменте – . Я пользовался данной программой пару лет назад, но когда она стала платной я от неё отказался (жопошник 🙂) и перешёл на другой инструмент, так сказать аналог Netpeak Spider – Comparser. Несмотря на то, что Компарсер от Алаича также был платным, он на тот момент опережал по функционалу Непик Спайдер и поэтому выбор пал на него.

Но вот недавно я вновь наткнулся на Netpeak Spider и увидев, что программа стала намного более функциональной чем старая версия решил потестить и её, собственно из этого теста и родился данный пост.

Для тех кто не вдруг не в курсе, с помощью Нетпик Спайдера можно по сути провести и выявить основные косяки и недочёты. В новой версии программы определяется более 60 различных видов ошибок, а сам краулер проверяет и выдаёт более 50 параметров. Согласитесь, довольно не плохо, особенно учитывая, что такой аудит проводится буквально за считанные минуты. Т.е. за пару минут вы получите полный отчёт о ссылках внутри сайта, мета-тегах и их длине, дублях, ошибках, редиректах и так далее и так далее.

Для чего нужен разобрались, теперь перейдём к тому, как им пользоваться. А использовать программу до безобразия просто, нужно всего лишь вбить домен в соответствующее поле и всё остальное за вас сделает прога.

Порадовала возможность быстро отфлитровывать из результатов проверки нужные для анализа ошибки, буквально по одному нажатию.

Кроме того, на скриншоте видно, что также есть и отдельный блок – Необнаруженные ошибки. Туда попадают наиболее распространённые ошибки, по которым идёт проверка Нетпиком, но которые не были найдены на проверяемом сайте.

Стоит отметить, что любой отчёт с ошибками можно выгрузить в CSV или XLSX формат

Дополнительные инструменты

Кроме всего вышеперечисленного с помощью Нетпика можно также провести:

  1. Анализ исходного кода.
  2. Расчёт внутреннего PR страниц – как по мне, так очень годная функция (на скриншоте ниже). Крайне необходима для . Раньше, кстати, я пользовался отдельной программой Page Weight, теперь потребности в ней нет.
  3. Сгенерировать Sitemap. Т.к. я использую для всех своих проектов WordPress потребности в данном инструменте нет, но возможно кому-то будет полезна и эта функция.

Т.о. кроме стандартной задачи программы-краулера, Netpeak также имеет ещё и несколько других полезных инструментов.

Как я использую Нетпик Спайдер?

Лично я в повседневных целях использую этот SEO-инструмент так:

  1. Для обнаружения незаполненных мета-тегов, таких как Title, Description и Alt’ов у картинок (про важность мета-тегов в статьях и картинках я писал и ).
  2. Для выявления дубликатов мета-тегов.
  3. Для выявления битых ссылок.
  4. Кроме того, использую инструмент – расчёт PageRank при перелинковке на сайте.

Со всеми четырьмя задачами Netpeak Spider справляется на 5 и что немало важно делает это очень быстро.

Netpeak Spider – аналоги программы

Лично я знаю и использовал в той или иной степени два аналога:

  • Comparser;
  • Xenu.

О каждом из них вкратце расскажу ниже.

Comparser

В самом начале поста я упомянул аналог Netpeak Spider под названием . По сути это такой же краулер, робот которого обходит сайт и ищет ошибки на сайте, но у Спайдера есть одно положительное отличие – это фильтры.

С помощью фильтров легко убирать не нужные результаты и оставлять только те, ради которых и проводился анализ сайта. Это реально облегчает жизнь.

Однако, от Компарсера я всё равно не откажусь до конца, т.к. у него есть супер-мега-квадро-гипер-синхрофазотронически-крутая функция – вход в вебмастера Яндекса и Google и удаление мусора из выдачи в один клик из интерфейса программы! Вот этой фишке сильно не хватает Спайдеру.

Xenu

Старая как фекалии неандертальца программа, которая выполняет всё ту же функцию – обход сайта и выявление косяков.

В этом плане разработчики программы Netpeak Spider ничего нового не придумали, их заслуга только в превращении старой идеи в удобный инструмент благодаря интуитивно понятному и визуально приятному интерфейсу.

Плюсом Ксену, конечно же, является её бесплатность, хотя при этом программка сильно уступает в удобстве, но я сам бываю жопошником, так что пойму и прощу всех тех, кто решит не платить и будет пользоваться Xenu 🙂

Вывод

Netpeak Spider необходим в инструментарии любого сеошника. Те кто пользовался прогой раньше и потом отказался, рекомендую вернуться и потестить новую версию, она изменилась в лучшую сторону.

Программа хороша своей функциональностью и быстротой, с которой реализуется вся эта функциональность. Вкупе с удобным интуитивным интерфейсом Нетпик Спайдер реально занимает первую строчку среди перечисленных конкурентов (напоминаю, речь идёт о новой версии программы, старая была довольно унылой).

А скачать программу, если вы этого ещё не сделали, .

Здравствуйте уважаемые посетители моего блога. Сегодня я хочу представить вашему вниманию видеообзор программы Netpeak Spider с помощью, которой можно решать многие рутинные задачи, связанные с внутренней оптимизацией и подготовкой сайта к продвижению. Буквально несколько дней назад, я случайным образом наткнулся на эту программу и ее обсуждение. Все отзывы до единого о данной программе были только похвальные. Ну, конечно же, я решил испробовать на деле этот программный продукт и посмотреть, что она может. После теста на некоторых сайтах, я понял, сколько времени терял на те задачи, которые эта программа решает на протяжении нескольких минут.

Давайте рассмотрим основные функции этого полезного дополнения:

— Полное сканирование сайта и предоставление результата по основным SEO-параметрам страниц

— Поиск ошибок на странице, редиректов, дублирующихся заголовков, описаний и ключевых слов на странице

Полная информация по внутренним и внешним ссылкам на каждую страницу вашего сайта

— Приблизительный расчет внутреннего PR-страниц

— Экспорт всех полученных данных в формат Excel для последующей более удобной работе без участия программы.

Я думаю, что данная программа должна быть в арсенале каждого «Вебмастера», поэтому и посвятил целый пост о ней. Как вы уже в последнее время, я активно занимаюсь сайтами, которые попали под АГС и начинаю потихоньку вытаскивать их оттуда.

Уже есть определенные результаты, а если быть точным, то на данный момент удалось вытащить 4 сайта, 2 из которых, частично, благодаря использованию данной программы. Но сейчас речь не об этом. С помощью данной программы мне удалось получить общий анализ по внутренним проблемам моих сайтов и устранить их.

Это были проблемы дубляжа страниц, отсутствия нормальных мета-описаний и т.д. Благодаря программе Netpeak Spider в короткие сроки, удалось все это исправить и 2 сайта уже вышли из-под АГС. Кстати, если вы хотите экономить бюджет при своих запросов, сделайте анализ сайта и скрупулезно изучите проблемы связанные с внутренней оптимизацией.

Как правило, уже на этом этапе вы сможете существенно поднять свои позиции по запросам и .

Ну, вот вкратце, я вам и рассказал о программе. А более детально работоспособность, настройки программы и все ее остальные функции вы можете посмотреть на , которое я снял специально для вас.

Внимание!!! Друзья, я начинаю активно работать над свои каналом в Youtube: снимаю видео, буду записывать различные видеоуроки, обращения, конкурсы и т.д. Канал будет постоянно развиваться и много интересной и полезной информации вас ждет. Поэтому, приглашаю всех подписаться на мой канал в Youtube, чтобы не пропустить важных новостей и видеоуроков.

Важный момент: Так как я проводил установку программы на свой ПК уже второй раз, мне не нужно было указывать ключ регистрации. Вам же нужно будет при первом запуске программы указать свой e-mail, куда придет ключ активации продукта. После чего все функции программы будут доступны.

Все, на этом буду заканчивать статью. Если что-то не понятно обязательно спрашивайте в

Для MacOS позволила и мне прикоснуться к прекрасному, ощутить на себе всю мощь этого замечательного софта. Но в этот раз я не буду писать обзоры и подробное описание всех возможностей, я точно знаю, что у вас есть глаза и читать дважды одно и то же скучно и банально. Поэтому, если вы впервые видите Netpeak Spider, изучите описание на оф. сайте или используйте ссылки из этой статьи, а я пока опишу свой собственный опыт.

В сети на сегодняшний момент есть огромное количество постов о необычных возможностях Netpeak Spider . Особенно привлекательной выглядит тема парсинга цен с помощью Spider. Привожу примеры нескольких кейсов:

Но скачав его и установив на свой mac, я сначала удивился, насколько прост этот интерфейс и как же он может выполнять столь сложные задачи. Но я ошибся, и мне стыдно.

Простое сканирование на Netpeak Spider

Это обычное сканирование сайта и поиск SEO ошибок. Тут казалось бы ничего сложного, однако, если стоит более оригинальная задача, например, запустить сканирование с исключением… тут я погряз немного в документации и был вынужден обратиться в тех. поддержку на сайте. В онлайн чате этот вопрос тоже видимо вызвал ступор, так как ответа я ждал достаточно долго.

В целом решить вопрос мне так и не помогли. Поэтому я пошел по пути топорному — спарсил все необходимые ссылки и провел проверку по заданным url.

** Через время исключения нужные мне заработали для конкретного пути, но перестали работать для следующего. Но позже программа все равно обошла правила и провела проверку исключенных страниц…

Через долгое время опытов и общения с тех.поддержкой проблема была решена, все оказалось просто — в настройках исключений нужно было задать «ИЛИ» вместо «И».

Сам же софт работает достаточно быстро, если сайт не имеет большое количество страниц. Если же страниц пару сотен тысяч, то тут возникает трудность, и работа занимает сильно больше времени. В моем случае сканирование длилось больше 3 часов. Конечно, это может быть связано с мощностью компьютера.

Сканирование небольших сайтов, типа этого блога, проходит достаточно быстро и реально помогает разобраться с SEO показателями. Я нашел проблемы в работе своих проектов, которые другие программы или сервисы вообще не показывали, что очень здорово.

Вторая проблема, которая показалась мне важной, это совершенно неудобное формирование отчетов. Уверен, простому пользователю будет сложно разобраться с файлами.csv в экспорте отчетов.

Вывод

Да, я не перебрал все возможные варианты функций, но первое знакомство, откровенно говоря, оставляет меня в некотором смятение. Не всегда есть задача парсить цены или что-то другое, что тут, без сомнения, весьма удобно. Так же удобна и очень быстра работа с небольшими сайтами. Инструмент действительно помогает найти ошибки и устранить их. В общем, программа крута, но пока несколько неудобна. Хотя я продолжу изучение и описание того, что у меня получается.

Меня очень радует во всех продухах Netpeak Software их отношение к клиенту. Через некоторое время после публикации этой статьи, мне пришел email с комментариями от тех. поддержки инструмента.

1. Сложность настройки правил сканирования для исключения определённых страниц.

В ближайшем глобальном обновлении мы исправим этот недостаток и сделаем интерфейс более понятным для использования.

2. Сканирование занимает большое количество времени.

Мы постоянно работаем над ускорением работы наших продуктов, но тут есть много факторов, которые на это влияют: кол-во собираемой информации, время ответа сервера, количество потоков, которые задействованы во время сканирования, опять же мощность вашего компьютера и скорость интернет-соединения. Другими словами, включив сканирование со 100 потоками, вы получите большую скорость, но ваш сервер её не выдержит. Подведя итог, можно сказать, что скорость достигается совместными усилиями 😉

3. Неудобство работы с отчётами в.csv.
Вот скриншот 2х отчётов (.csv из программы для Mac OS и.xlsx из Windows версии):


Скажите, пожалуйста, вы пробовали открывать.csv файл через программу Numbers? Что именно вызвало у вас неудобство?

— У меня это работает иначе. Но в целом я разобрался и просто переконвертировал в нужный формат. Но я не открывал через Numbers, стоит признаться.

4. Скорость ответов технической поддержки.
Вы получили 13 ответов от меня, суммарное время ожидания составило 78 минут, т.е в среднем 6 минут на ответ. Мы работаем над тем, чтобы среднее время ответа составляло менее 3х минут, улучшим показатели 😉

— Все же это быстрее, чем во многих местах 😉

Доброго времени суток! На прошлой неделе вернулась из деревни, где провела незабываемое время полного релакса! Погода выстояла отличная, дни напролет мы проводили в реках, озерах, лесах, полях. Свежий воздух и ни души вокруг - вот это настоящий отдых!

Продолжаем изучать тему оптимизации блога на WordPress. Ранее мы детально рассмотрели вопрос проверки сайта на и вручную и с помощью плагина. Сегодня мы подробно остановимся на 2х десктопных программах, выполняющих эти задачи автоматически, разберем их основные настройки и параметры технического аудита. Это - Xenu’s Link Sleuth и Netpeak Spider, бесплатные инструменты для seo-анализа блога.

Как пользоваться программой Xenu.

Работать с этой программой не сложно, а в результате получается подробный и обстоятельный отчет обо всех имеющихся на сайте ссылках. Помимо своего основного предназначения, проверки битых ссылок, Xenu может выполнять и другие задачи:

  • составление карты сайта;
  • определение времени загрузки страниц;
  • поиск неуникальных тайтлов;
  • выявление страниц со значительным уровнем вложенности;
  • определение количества внешних и внутренних ссылок на сайте;
  • выявление картинок без атрибута alt.

Обозначенные моменты весьма немаловажны для развития ресурса. Решение данных задач послужит для оптимизации вашего вордпресс-блога. Поэтому предлагаю вам внимательно изучить инструкцию по работе с Xenu Link Sleuth. Начнем.

Данное приложение является бесплатным. Скачать программу Xenu можно по ссылке: xenus-link-sleuth.en.softonic.com .

Разархивируем файл и запускаем Setup.exe. После установки программы можно приступать к настройке её основных параметров. Следует отметить, что Xenu написана для Windows и не работает с другими операционными системами.

Интерфейс приложения англоязычный, но он лаконичен и достаточно прост. Чтобы создать новую проверку, нужно кликнуть по первой пиктограмме в левом верхнем углу окна программы или пройти по пути «File» - «Check URL». В результате откроется окно «Xenu’s starting point» с базовыми настройками:

Вверху вписываем адрес инспектируемого ресурса. Если вы хотите включить в проверку ссылки на внешние ресурсы, следует оставить галочку возле пункта « Check external links» . Кнопка « Local file» предназначена для выбора файла на вашем компьютере, если вы хотите проанализировать таковой.

В поле « Consider URLs beginning with this as ‘ internal’:» вы можете добавить такие страницы, которые относятся непосредственно к проверяемому сайту, но имеют отличный от главной страницы адрес. Например, https:// forum.ВашСайт. ru .

В поле же « Do not check any URLs beginning with this:» можно перечислить те линки, которые вы хотите исключить из проверки программой Xenu.

В нижней части расположена кнопка « e- mail» . Она потребуется вам в том случае, если вы захотите получить отчет о проделанном анализе блога на свой e-mail с помощью SMTP-Server:

« e- mail report and quit when done» - выберите этот пункт, если хотите получить весь отчет сразу по завершению работы приложения;

« e- mail only if there are broken links» - при выборе этого варианта отчет придёт, если будут найдены битые ссылки.

Помимо этого, в Xenu предусмотрено большое количество дополнительных настроек. Их можно вызвать, кликнув по кнопке « More options» .

Перед нами открывается вкладка «Basic Options». Первый параметр - « Parallel Threads» . Он регулирует количество параллельных синхронных запросов. Другими словами, какое число ссылок будет проверяться одновременно. Рекомендуется не превышать значение по умолчанию, чтобы не перегружать сервер и не влиять на корректность проводимого аудита. Пункт « Maximum Depth» устанавливает максимальную глубину вложенности страниц, на которой будет проводиться работа программы Xenu. Здесь тоже можно оставить дефолтное значение. Если поле « Treat redirections as error» отметить галочкой, редиректы будут рассматриваться приложением как ошибка.

Справа расположен блок чекбоксов « Report» . Он служит для того, чтобы настроить вывод отчета после сканирования сайта. Выберите те параметры, показатели которых вы хотите видеть в итоге:

« Broken links, ordered by links» - битые ссылки, сгруппированные по URL-адресам;

« Broken links, ordered by page» - аналогично, битые ссылки, но сгруппированные по страницам;

« Broken local links» - внутренние битые ссылки;

« Redirected URLs» - адреса с 301-ым и 302-ым редиректами;

« Ftp and gopher URLs» - URL с протоколами, отличными от http;

« Valid text URLs» - не битые (рабочие) ссылки;

« Site Map», « Statistics» - добавить в отчет карту сайта, статистику;

« Orphan files» - файлы-одиночки, т.е. те, на которые ссылок нет.

Если мы хотим применять данные настройки для всех проектов, нужно отметить галочкой поле « Apply to all jobs».

Сделав настройки Xenu, жмем «ОК». Программа начинает аудит сайта. Она проходит по всему блогу и определяет наличие ссылок. Если возникает необходимость приостановить работу приложения, на панели вверху есть кнопки «Pause» (приостановить), «Stop» (прервать), «Continue» (продолжить). Сколько будет длиться анализ ресурса, зависит от количества страниц, одновременных потоков, скорости соединения и загруженности сервера. По завершению работы, появляется диалоговое окно, сообщающее об этом и предлагающее вывести отчет.

Если соглашаемся, Xenu формирует htm-документ с результатами проделанного анализа в режиме реального времени.

Теперь разберем, как можно пользоваться данными, полученными с помощью Xenu Link Sleuth, в самой программе. Результаты seo-анализа сайта расположены в нескольких столбцах. « Address» содержит список всех найденных URL. Для того, чтобы получить более детальную информацию о какой-то конкретной ссылке, кликаем по ней правой кнопкой мыши, в появившемся контекстном меню выбираем пункт «URL properties». Открывается окно, в котором отображены следующие характеристики линка:

  • «Page URL» - страница, на которую ведет ссылка;
  • «Title or link text» - атрибут title или анкор ссылки в материале нашего блога;
  • «1 page linking to this one» - URL страницы, где находится ссылка.

Далее идет столбец « Status » , где указаны статусы всех ссылок. Если мы хотим отфильтровать битые ссылки, достаточно просто кликнуть по названию колонки. Нерабочие ссылки, выделенные красным цветом, будут сгруппированы программой Xenu в верхней части страницы.

  • not found - ссылка не найдена;
  • no such host – данный URL не существует;
  • no connection – сервер не отвечает. В данном случае следует уменьшить количество одновременных потоков в настройках и повторить проверку.

Закладка « Type» позволяет сортировать файлы по типу расширения: картинки, html/css-файлы и т.д.

Во вкладке « Size» собрана информация о весе файлов в Кб. Этими данными можно воспользоваться, чтобы найти и сжать самые тяжелые изображения на блоге.

В колонке « Title» можно отсортировать результаты по одноименному мета-тегу title. Это дает возможность найти дубли страниц по визуальному совпадению заголовков.

Также приложение предоставляет информацию по таким параметрам:

« Level» - глубина вложенности страницы, на которой находится URL;

« Out Links» - количество исходящих ссылок на конкретной странице;

« In Links» - входящие ссылки, ведущие на определенную страницу.

Воспользовавшись инструкцией по работе с Xenu Link Sleuth и проанализировав результаты seo-анализа, вы с легкостью сможете устранить все битые ссылки и большинство дублей на вашем блоге.

Netpeak Spider: определение основных сео-параметров сайта.

Данная программа является аналогом Xenu. Она позволяет просканировать сайт на наличие ошибок, связанных с внутренней оптимизацией. При этом приложение имеет русскоязычный интерфейс, что значительно упрощает работу с ним. И если вы уже знакомы с программой Xenu, выполнить настройки Netpeak Spider для вас не составит труда.

Вот список тех параметров, которые можно получить в результате аудита сайта с помощью данной программы:

  • « URL» — адрес просканированной страницы;
  • «Глубина» — уровень вложенности страницы;
  • « LinkCanonical» – наличие атрибута rel =”canonical” и адрес, на который он указывает;
  • «Ответ» — ответ сервера (3ХХ-5ХХ);
  • « Title», « Description», « Keywords» — содержание соответствующих мета-тегов;
  • « robots. txt» — разрешена или запрещена (allowed/disallowed) индексация страницы;
  • « MetaRobots» — наличие мета-тега «robots»;
  • «Редиректы» — количество перенаправлений со страницы;
  • «Заголовки (H1)» — количество заголовков первого уровня;
  • «Ссылки с этой страницы», «Ссылки на эту страницу» — количество всех ссылок, исходящих с этой страницы и ведущих на эту страницу соответственно;
  • «Внутренние ссылки» ;
  • «Внешние ссылки» ;
  • « PR», « PR (без сквозных ссылок) » — внутренний показатель Page Rank страницы, внутренний показатель Page Rank страницы без учета сквозных ссылок;
  • «Дубли по Title», «Дубли по Description», «Дубли по Keywords» — группы страниц с соответственным повторяющимся мета-тегом.

Скачать программу можно по ссылке — netpeak.ua/software/netpeak-spider . Приложение бесплатное, но необходимо пройти несложную регистрацию. После этого на электронную почту нам будет выслан ключ активации, которым надо воспользоваться при установке программы. Сам процесс установки стандартный: запускаем файл.exe и следуем инструкциям Netpeak Spider.

После запуска приложения, открываем окно с необходимыми настройками: «Настройки» — «Сканирование». Выбираем необходимые параметры, сохраняем.

В основном окне программы прописываем адрес проверяемого ресурса, указываем количество параллельных потоков и глубину вложенности страниц. Запускаем сканирование (пиктограмма справа от поля для вставки URL).

Полученные результаты можно фильтровать по такому же принципу, как и в программе Xenu. Для доступа к детальной информации об интересующем нас показателе достаточно вызвать контекстное меню кликом правой кнопки мыши. Так, к примеру, если мы хотим увидеть список всех исходящих ссылок на конкретной странице, кликаем по количеству и выбираем в появившемся окне пункт «Посмотреть все ссылки с этой страницы».

Для поиска дублей справа от основного размещено окно поменьше. Здесь предлагается кнопка «Найти дубли» и возможность выбрать критерий фильтрации – «По title», «По description» или «По keywords». Результаты аудита можно сохранить в виде файла Excel. Для этого следует кликнуть по основному меню в верхней области окна «Экспорт в Excel».

В заключение следует упомянуть, что и Xenu Link Sleuth, и Netpeak Spider зарекомендовали себя как отличные инструменты для проверки битых ссылок и имеют множество положительных отзывов среди веб-мастеров. Отмечу, что хотя функционал Netpeak Spider несколько шире, в отличии от Xenu, в ней нет возможности повторно открыть проверяемый файл.

Каждому вебмастеру приходится постоянно решать повседневные проблемы, касающиеся SEO-оптимизации и продвижения сайта. И одним из лучших инструментов, позволяющих это сделать, является программа Netpeak Spider. Благодаря ей можно сканировать и анализировать веб-ресурсы, сделав этот процесс простым и удобным.

Установка Нетпик Спайдер

Скачать программу можно на официальном сайте разработчика по ссылке https://netpeaksoftware.com/spider . Но перед этим необходимо зарегистрироваться, а также купить платную версию или запустить триал на 14 дней. После регистрации у вас появится возможность скачать установочный файл Нетпик Спайдер. Сам процесс инсталляции интуитивно понятен, и с ним справится даже начинающий вебмастер.

Установленный пакет содержит 2 программы – сам Netpeak Spider, и Netpeak Checker – сервис для массового Сео-анализа. Каждую из программ придется установить отдельно.


Возможности этой программы для seo анализа

С помощью Netpeak Spider Вы сможете:

    отследить свыше 50 главных характеристик, связанных с оптимизацией ресурса;

    получить перечень ссылок, как внешних, так и внутренних;

    обнаружить, есть на ли вашем сайте нерабочие линки и редиректы;

    узнать, содержит ли ресурс дубли страничек и мета-тегов title, description, h1;

    проверить, соответствуют ли файлы robots.txt и использованные теги canonical рекомендациям популярных поисковиков;

    проверить как весь ресурс, так и его часть;

Инструкция по использованию Нетпик Спайдер

Первое, что стоит сделать, это сменить язык программы для seo анализа с английского на русский. После этого работать с ней становится еще легче.

Чтобы запустить сканер, нужно ввести URL сайта в специальное поле ввода, и нажать кнопку «Старт». Программа выдаст перечень ошибок и проблем, которые при желании можно отфильтровать. Нажмите на любую из категорий для просмотра всех ошибок, входящих в нее.


Во вкладке «Инструменты» можно проанализировать исходный код ресурса, рассчитать внутренний Page Rank страниц, а также сгенерировать карту сайта – Sitemap.

Для получения списка проблем другого ресурса придется создать новый проект. Сделать это можно во вкладке «Проект». Здесь же можно сохранить результаты сканирования или открыть полученные ранее.