--

Блогs

Главная » Блог » Вопросы для собеседования на вакансию SEO-специалистаpost thumb

Вопросы для интервью соискателя - SEO-специалист

By: Roman Kondrashov

В данном посте опубликованы вопросы, которые можно задать соискателю позиции SEO-специалист или SEO-менеджер для понимания его квалификации. Охвачены основные темы, связанные с оптимизацией веб-сайтов под поисковые системы: техническим SEO, семантической релевантностью html-документов, знанием основ Google Analytics. Приводятся также вопросы на уровень выше среднего (это даже скорее небольшие задачки) и вопросы, связанные с сайтами на React. Каждый вопрос сопровождается кратким ответом, который может использовать интервьюер, не очень хорошо знакомый с SEO. Часть вопросов непосредственно связаны с сайтом https://bookmate.com.

Основные вопросы по SEO

Что такое SEO?

SEO - это оптимизация веб-сайтов под требования поисковиков для лучшего ранжирования сайтов в поиске, получения органического трафика и конверсий

- Что такое Crawling Budget? В каких ситуациях вообще имееет смысл о нём задумываться?

(Crawling Budget - это некий лимит на количество прохождений ваших страниц роботом ПС. Он напрямую влияет на количество страниц в индексе).

- Что такое rel-canonical?

(Это HTML-элемент, отвечающий за предотвращение появления дублей контента (страниц) в индексе ПС).

- Что такое "неполный дубль"?

(Неполными дублями называют страницы, контент которых незначительно различается между собой).

- Что такое тег robots-noindex?

(meta name="robots" content="noindex" - это тег, запрещающий индексацию страницы поисковиками).

- Что такое robots.txt?

(Это файл, содержащий инструкции для роботов о том, как сканировать сайт (или, по-другому, как ходить по сайту). Или “файл, ответственный за ограничение переходов краулера по заданным нами страницам”).

-- Что будет, если в robots.txt сразу после объявления юзер-агента добавить директиву "Disallow: /"?

(Таким образом мы полностью запретим ПС сканирование сайта. В перспективе весь сайт выпадет из индекса ПС).

-- В какой директории относительно корня сайта должен лежать файл robots.txt?

(В корне).

- Какие SEO требования применимы к URLам?

(ЧПУ (friendly URLs),минимальная вложенность и длина, желательно отсутствие диакретических символов).

- Какие элементы HTML-страницы особенно важны для релевантности в ПС?

(Важны, как минимум, мета-тайтлы, мета-дескрипшены и заголовки h1-h6).

-- Какие ещё элементы на странице с текстом могут увеличить привлекательность контента для роботов и пользователей?

(Форматирование: списки с вхождением ключевых слов, слова (в т.ч. ключевые) в тегах выделения (strong),изображения (в т.ч. с ключевыми словами) в атрибуте alt).

-- Что важного может быть или не быть в HTML-коде страницы относительно изображений?

(Атрибут alt. Часто желательно, чтобы он содержал ключевое слово).

- Кто больше любит длинные тексты - Яндекс или Google?

(Скорее Google).

- Какими инструментами вы пользуетесь для keyword research (сбора ключевых слов / семантического ядра)?

(Скорее всего, будут названы Google Keyword Planner и Yandex Wordstat, а также проги, использующие их как источник данных (в России чаще всего используют Key Collector). Ещё могут быть SEMrush, MOZ и др.).

- Какими инструментами вы пользуетесь для съема позиций сайта в ПС?

(Назвал какие-то? Хорошо!).

- Что такое BM25?

(Это принцип ранжирования страниц (формула) в зависимости от плотности ключевых слов в документах (или количества вхождений ключевых слов в текст). Один из первых алгоритмов ранжирования документов. Кандидат может и не знать такой аббревиатуры, но наверняка знает о существовании такого принципа ранжирования документов).

- Что такое ключевые слова?

(Это слова, раскрывающие суть бизнеса компании - фактически, её товары или услуги. По этим словам мы хотим быть в ТОПе).

- Мы определили ключевое слово. Сколько раз оно должно быть представлено на посадочной странице?

(Вопрос с подвохом. Важно скорее не количество слов, а плотность ключевых слов. Обычно 2-5% или “столько, сколько у конкурентов” или “ключевые слова должны быть самыми встречающимися словами в документе”).

- Что такое ссылочный вес?

(Это условный параметр гипер-ссылок или страниц, который показывает их “авторитетность”. В общем случае чем больше документов ссылаются на определенную страницу, тем больше её вес. И наоборот: чем больше ссылок на странице, тем меньше становится её вес).

- Что такое PageRank и Link Juice?

(Фактически стали синонимом ссылочного веса. Есть ещё так называемый барный PageRank, который раньше использовал Google для расчета ссылочного веса страницы - это величина от 1 до 10.)

- Зачем сеошнику доступ к файлу .htaccess?

(Для настройки редиректов www to non-www, http to https и настройки компрессии файлов и документов).

- Что такое CDN и зачем он нужен?

(Content Delivery Network - это сеть доставки контента (например, изображений). Преимуществом является расположение хранилищ с запрашиваемыми клиентом файлами ближе к клиенту, что дает бОльшую скорость загрузки контента).

- Что такое SSR?

(Вопрос скорее из области Wed Development Server. Side Rendering - построение HTML-документа на сервере. Применяется для отдачи документов ПС, т.к. у них есть проблемы с рендерингом страниц на JS/AJAX).

- Какую скорость загрузки сайта можно считать приемлемой в секундах?

(Вопрос с подвохом: смотря с какого устройства смотришь (для мобильных устройств требования ниже). Обобщая и упрощая: нужно быть в зеленой зоне PageSpeed Insights (или хотя бы в желтой),а также желательно быть быстрее конкурентов).

- Какие могут быть недостатки у сайтов со списками товаров/услуг, подгрузка которых происходит динамически при скролле?

(Краулер ПС не видит ссылок на товары на 2-ой и далее страницах. В результате страницы таких товаров могут не попадать в индекс ПС (или выпадать из него),а также недополучать ссылочный вес).

- Что такое sitemap и зачем он нужен? В каких случаях он не нужен?

(Должен упомянуть и HTML, и XML карты. Они не нужны, если у нас небольшой сайт с ясной структурой).

- Какова допустимая длина мета-тегов title и description?

(It depends, всё время меняется, сам не помню, но хорошо, если кандидат назовёт какие-то примерные цифры и скажет, почему это важно. Важно это потому что такие мета-теги - это самые важные элементы HTML-страниц, а ПС будут их обрезать в сниппетах поисковой выдачи, если они слишком длинные. Если же они слишком короткие, то это может отрицательно влиять на релевантность документа (если нет вхождения ключевых слов в тайтлы/дескрипшены)).

- Какие основные факторы ранжирования называют чаще всего или, может, группы факторов? Т.е. что должно быть у сайта преждего всего [т.н. 3 столпа SEO]?

(Скорость загрузки сайта, качественный контент, внешние ссылки (+ ПФ (поведенческие факторы) и коммерческие факторы для Яндекса)).

- Что такое hreflang, он же rel="alternate"?

(Это html-элемент, используемый для маркировки страниц с одинаковым содержанием, но на разных языках и для разных регионов. hreflang применяется, если есть региональные версии контента (en-us и en-gb),контент на разных языках и комбинация разных языков и региональных отличий. Hreglang призван решать проблему дублирующегося контента и поведения пользователей, приходящих из поиска ПС).

- Как разрешить индексацию страницы роботам Google, но запретить индексацию роботам Яндекс?

(Есть альтернативные тегу robots-noindex теги, которые отдаются только определенному роботу. Например, не общий meta name="robots" content="noindex" , а meta name="yandex" content="noindex" или meta name="googlebot" content="noindex" . Т.е. 1-ый тег запретит индексацию именно Яндексу, а 2-ой - Гуглу).

- Какие вы знаете CMS и с какими CMS вы работали. Вы работали с сайтами без CMS, в том числе на React?

(Обычно называют WordPress, Joomla, MODx Evolution, MODx Revolution, Drupal).

- Знаешь же, что такое Google Core Update? Как в Гугле объясняют падение позиций того или иного сайта после такого апдейта? Когда был последний Google Core Update?

- Что такое rel=nofollow и для чего он нужен? [Что происходит с ссылочным весом ссылки с атрибутом nofollow?]

Атрибут rel=nofollow тега «a» в HTML-коде страницы служит для запрета передачи ссылочного веса по ссылке. Вес не передается, но теряется, то есть если ссылка есть, но вес просто уходит вникуда.

- Каковы последние и самые важные алгоритмы Гугл?

Passage Ranking, 2021.

Relevant for English-language queries in the United States. Passage ranking (also referred to as passage indexing) means that Google can now rank individual passages of a web page.

BERT, 2019.

Neural network-based technique and helps better understand the nuances and context of words in searches.

RankBrain, 2015.

RankBrain is a machine learning-based search engine algorithm, the use of which was confirmed by Google on 26 October 2015. It helps Google to process search results and provide more relevant search results for users.e

Hummingbird, 2013

Summary

The most important things of all of them is that SERP becomes better. Google understands users' intents better. And we alway should look at SERPs to undestand what exactly should be on our websites. That's all - these changes effect wasn't as obvious as it was at the times of Panda and Pengiun when we knew for certain what to do and what not to fo.

- Core Web Vitals?

The Largest Contentful Paint (LCP) is a Core Web Vital metric and measures how long it takes for the largest element to become visible in the viewport. LCP is usually an image or a text block. However, it could also be a video or an animation. LCP accounts for 25% of the overall PageSpeed Insights score.

Usually three factors affect LCP: slow server response times, render-blocking JavaScript and CSS, and slow resource load time. To improve TTFB: have a faster server, use caching; use CDN that helps you reduce the length of time between the user request and the server response; defer JS; remove unused JS; Defer Non-Critical CSS and Inline Critical CSS; Minify CSS and JS Files; optimize images; compress HTML, CSS and JS files; preload (rel-preload prevents the browser from discovering and loading these critical files until much later). Taken here.

First Input Delay (FID) is a Core Web Vitals metric and measures how long it takes for the browser to respond to the first user’s interaction with a page — that is, clicking on a link, tapping on a button, or interacting with another element.

Quite often, the requests that keep the browser busy are related to processing JavaScript files. TBT (total blocking time),as a Lab Data substitute for FID, accounts for 25% of the overall PageSpeed Insights score.

Defer JS, remove unused JS, delay JS execution, minify JS, async or defer CSS, compress HTML, CSS and JS files, Break up Long Tasks (you should split long-running scripts into smaller chunks that can be run in less than 50ms). See here.

The Cumulative Layout Shift (CLS) is a Core Web Vital metric and measures how visually stable the page is. The visual stability is calculated by how many unexpected layout shifts occur without interacting with the page.

---

FCP measures how long it takes the browser to render the first piece of DOM content after a user navigates to your page.

Off-page и ПФ

- Где вы берете бэклинки в рунете? А не в рунете? Есть ли опыт общения непосредственно с хозяевами сайтов или теми, кто размещает рекламу на них?

- Какие метрики позволяют оценить качество ссылочного профиля?

Количество и качество страниц и сайтов доноров, анкоры ссылок, скорость прироста или убывания ссылок, количество внешних ссылок на странице и сайте донора, ссылочный профиль донора, тематика сайта и страницы донора.

- Что будет, если мы массово начнем закупать некачественные ссылки (например, на Sape)?

Можно попасть под санкции поисковиков, но не обязательно, т.к. они могут просто игнорировать такие ссылки.

- Какие есть 2 основных алгоритма Яндекса и Гугла, основной целью которых является пессимизация сайта?

Панда и Пингвин в Гугл. АГС (есть и поновее) и Минусинск в Яндекс.

- Как быстро избавиться от влияния некачественной ссылочной массы в Google?

Инструмент Disavow в GSC

- Вы занимались накруткой ПФ? Как давно? Каким образом?

- Google использует ПФ?........... А собирается?

- Где вы берете контент? Какие обычно требования содержатся в ТЗ для копирайтера?

Сложные вопросы (на "подумать")

- У нас есть страницы жанров, например, https://ru.bookmate.com/books/t-detektivy-i-trillery-ru/all. Как вы думаете, зачем в URL'е присутствуют "t"?

(При запросе такого URL'а система знает, что идет обращение к определенному типу контента (тут к жанру [топику]) и выводит именно его. [Правильный ответ означает опыт работы с React]).

- Сайт Букмейта имеет пользователей, которые говорят на разных языках и находятся в разных странах. Как вы думаете, каковы преимущества и недостатки расположения такого мультиязычного сайта(ов) именно на языковых поддоменах? Какие ещё есть варианты размещения языков на сайте и какие у них преимущества и недостатки?

(Есть: сайты на поддоменах, сайты на доменах 2-го уровня (bookmate.ru, bookmate.es и т.д.) и языковые папки (bookmate.com/ru/). Преимущество поддоменов - в удобстве и теоретической защищенности каждого поддомена от санкций ПС. Недостатки поддомена: субдомен - это как бы отдельный сайт, и поэтому весь ссылочный вес (PageRank) сосредоточен отдельно на поддоменах, а вот в случае подпапок весь вес аккумулируется на одном сайте, т.е. ссылки, полученные, например, из США и ведущие на bookmate.com/en/ будут работать и для российской поисковой выдачи. Сайты на национальных доменах 2-го уровня ранжируются лучше (в России bookmate.ru будет ранжироваться немного лучше, чем bookmate.com и намного лучше, чем ru.bookmate.com)).

- Каким образом можно непосредственно увеличить семантическую релевантность страницы какому-либо ключевому слову, не прибегая к увеличению количества ключевых слов на странице?

(Добавить не ключи, а их синонимы).

- Какие самые частые рекомендации PageSpeed Insights и других подобных сервисов к тестируемым сайтам - из того, что разработчики действительно могут относительно быстро поправить?

(Ответ: не всегда реально вспомнить их все, но основные - это:

  • Reduce server response times (TTFB) - Уменьшите время ответа сервера (TTFB)
  • Eliminate render-blocking resources - Устраните ресурсы, блокирующие отображение
  • Defer offscreen images - Отложите загрузку скрытых изображений
  • Serve images in next-gen formats - Используйте современные форматы изображений
  • Serve static assets with an efficient cache policy - Задайте правила эффективного использования кеша для статических объектов
  • Minify CSS/JS - Уменьшите размер кода CSS/JS
  • Remove unused CSS - Удалите неиспользуемый код CSS).

- Что такое HTML streaming?

(Вряд ли кто-то знает - это вопрос скорее к разработчику, а не сеошнику... HTML Streaming is to speed up the Time to First Byte (TTFB) by dynamically caching parts of the HTML document without touching the elements of the page that are unique to the user).

- Предположим, мы идем в GSC (Google Search Console) и видим в индексе страницы типа bookmate.com/impressions/page1...N. Это страницы, которые нам индексировать не нужно. Что нужно сделать, чтобы исключить их из индекса навсегда, чтобы робот больше не ходил по ним и мы не видели их в Search Console?

(Это вопрос с подвохом. Не совсем правильный ответ: добавить в файл robots.txt директиву типа "Disallow: /impressions/page". Но правильный ответ заключается в том, что нужно сначала на все такие страницы поместить robots-noindex tag, и лишь после того как такие страницы пропадут из GSC, добавлять директиву в robots.txt. В документации Гугла есть такая фраза "Keep in mind that these settings can be read and followed only if crawlers are allowed to access the pages that include these settings." Проверено на БМ).

- Вы используете Competitive Research в своей работе? Если да, то как - опишите [возможно, на каком-то кейсе]?

(Тут важно понять, что чувак в принципе использует анализ конкурентов и анализ SERP (ТОПа). В общем случае бывает важно посмотреть, как что-то делают конкуренты и попробовать сделать так же. Например, добавить отрывки текстов книг на страницы книг, как это у некоторых конкурентов).

- Что такое аффилиат?

(Аффилиаты - это пенализированные Яндексом сайты. Аффилиатами признаются все сайты одного владельца, которые (на 100% или около того) дублируют контент друг-друга и служат лишь для занятия компанией большего количества позиций в выдаче. В результате действия алгоритма (скорее всего не алгоритма, а ручных санкций) в выдаче остается только один сайт "сетки". Говорят, что Яндекс больше не использует его (и, кстати, никогда не признавал его использование)).

- Какие есть плюсы и минусы техники, когда на одном и том же URL'е мы отдаем разный контент для разных стран? Например, на странице ru.bookmate.com/books - разные книги для пользователей из США и России?

(It depends. С одной стороны нежелательно, т.к. боты ПС ходят из одной и той же страны (США для Google),и не увидят конте нт, предназначенный для РФ. Но если достаточно того, что будет проиндексирована только один вариант страницы (тот, что для США в случае Гугла),то норм).

Вопросы по Google Analytics и Tag Manager

- Что такое Goal?

([Чувак должен понять, что это - Цель - такой микро-тест на знание английской терминологии]. Цели позволяют узнать, как часто пользователи совершают нужное вам действие. Цели являются отличным индикатором эффективности работы вашего сайта. Целью может быть любое действие, в котором вы заинтересованы, называемое конверсией).

- Чем Цель отличается от События?

(Событие служит для отслеживания поведения пользователя на сайте. Целью обычно служит конверсионное действие (покупка, например). Сама Цель может быть основана на Событии. В таблицах GA Acquisition (Источники трафика) используются именно Цели).

- Что такое Bounce Rate?

(Показатель отказов в ГА - это процент посещений с просмотром только одной страницы. Он говорит о количестве визитов, во время которых пользователь покинул сайт сразу после просмотра посадочной страницы).

- Что если через ГА добавить какое-нибудь Событие, которое будет совершаться на страницах с высоким Bounce Rate, то это повлияет на Bounce Rate? Например, событие на клик по кнопке?

(Да, если эти события действительно будут совершаться).

- Что такое Отказ в Яндекс Метрике?

(Визит считается отказом, если для него одновременно выполнены следующие условия:

  • за время визита зафиксировано не больше одного просмотра страницы;
  • продолжительность визита меньше заданного для расчета отказов времени (по умолчанию 15 секунд);
  • не зафиксировано служебное событие «неотказ»).

- Какие типы Цели могут быть использованы для построения Воронки?

(Только тип “Целевая страница” (Destination). Тип “Событие” также может быть использован, но с добавлением виртуальных страниц).

- Что такое Тег и Триггер в Google Tag Manager?

(Тег - сущность (элемент кода),передающая данные в GA (или прочие системы аналитики),а Триггер - сущность, прослушивающая события).

- Какой есть нюанс при отслеживании события “загрузки” страниц в GTM для динамических сайтов? Наводящий вопрос (если нужен): какой тип триггера используется для отслеживания загрузки УРЛа на классическом сайте и какой - на динамическом?

(На классическом используется тип Триггера “Page View”, а на динамическом ещё и (в основном) “History Change”).

Общие вопросы для интервьюирования сеошника

- Вы смотрели сайт перед собеседованием? Есть ли какие-то вещи, которые сразу бросились в глаза из тех, что можно дополнить или исправить на ваш взгляд.

- Вы читаете профессиональную литературу в интернете? Если да, то какие SEO-блоги или сайты вы читаете?

- Назовите несколько имен из российского, украинского и западного SEO - известных блогеров.

- Расскажите о последнем месте работы - что делали, какие сайты продвигали?

- У вас есть опыт продвижения сайтов не в рунете / уанете? Например?

- Каковы основные отличия от продвижения сайта в рунете и в буржунете?

Рунет более терпим к веб-спаму

- Есть ли у вас опыт работы с мультиязычными сайтами?

- Назовите 5 запросов, по которым продвигаемые вами сайты - в ТОПе.

Хорошо, если это будут примеры с высочастотными и конкурентными запросами

- Вы читаете электронные книги или книги онлайн в браузере? Если да, то в каких приложениях или на каких сайтах?