Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
🚀 304
против 200
: хак краулингового бюджета, который ты упускаешь
Недавно внедрили заголовки Cache-Control
для сайта с более чем 150M `URL`ов — возвращаем 304
, если контент не изменился, и 200
, если есть изменения, делится Тайлер Гаргула.
Эффективность реально радует.
Цифры такие:
— Ответы 304
: в среднем 226.8 мс
— Ответы 200
: в среднем 285.6 мс
— 304
быстрее в 1.26х раз (экономия времени 20.6%)
Для крупных сайтов это критично, потому что даже небольшое снижение времени ответа напрямую влияет на эффективность краулинга.
Масштаб эффекта: если Googlebot
обходит 12M страниц в неделю с ответами 200
→ переход на 304
= 15.1М странц (+3.1M дополнительных страниц, рост на 26%)
Итог: правильная настройка Cache-Control
= больше краулингового бюджета для страниц, которые реально нуждаются во внимании.
Если ты не отдаешь 304
для неизмененного контента, ты теряешь в эффективности краулинга.
Но осторожно: слишком много 304
может намекать на проблему со свежестью контента.
Ищи баланс ✨
@MikeBlazerX
Для проверки гипотезы о более высоком пользовательском интенте с крупных языковых моделей (LLM
) в исследовании проанализировали краудсорсинговые данные за первый квартал 2025 года, сравнивая сессии и ключевые события по трафику с LLM
-рефералов и органического канала.
В качестве метрики вовлеченности использовался показатель Key Event Conversion Rate
(KECVR
).
Автор выделял источники LLM
-рефералов в Google Analytics 4
с помощью продвинутого RegEx
-фильтра, который не учитывает обзоры AI
от Google.
Для достоверности данных исключались датасеты с "раздуванием" ключевых событий (key event bloat), когда количество ключевых событий на сессию приводило к коэффициентам конверсии выше 100%.
Анализ сфокусирован на трендах по отраслям, чтобы сгладить вариативность в настройках ключевых событий.
Трафик с LLM
показывает рост с марта 2024 года, где доминирующим источником выступает ChatGPT
, а Perplexity
уверенно прибавляет.
Но в декабре был неожиданный спад.
Платформы Meta
дали минимальный реферальный трафик.
В исследовании учтено 671 694 LLM
-рефералов и 188 357 711 органических сессий по 40 категориям сайтов.
В большинстве отраслей органический KECVR
выше, чем у LLM
.
Исключения, где трафик с LLM
превосходит органику:
— Health — 13.24% LLM
vs. 12.88% органика
— Careers — 22.31% LLM
vs. 16.58% органика
— Catalog Website — 2.34% LLM
vs. 2.13% органика
Сайты в этих трёх категориях чаще всего показывали более высокий уровень ключевых событий от LLM
, чем от органического поиска.
В Consumer Ecommerce LLM
заметно отстаёт от органики (7.14% против 24.12%).
Юзеры в этом транзакционном сегменте ищут детальную инфу и отзывы, где органический поиск сильнее, а LLM
даёт более общий обзор.
В сегменте B2B Ecommerce трафик с LLM
не оказал заметного влияния (0%), в то время как органика обеспечила конверсию 2.68%.B2B
-покупатели ценят точные характеристики, кейсы и сигналы доверия, которые дают SEO-ориентированные материалы.
В индустрии Travel LLM
показывает хорошие результаты (24.45%), но всё же уступает органике (28.97%).
Юзеры доверяют богатому, тщательно отобранному контенту органического поиска для финальных решений по бронированию, хотя LLM
помогает с вдохновением.
Для SaaS показатели почти равны (6.69% LLM
против 6.71% органика), что говорит об эффективности LLM
в предоставлении персонализированных рекомендаций.
Тем не менее, небольшой перевес органики показывает, что пользователи всё ещё предпочитают авторитетные поисковые результаты для конверсий.
https://salt.agency/blog/do-users-really-show-higher-intent-when-they-click-through-from-an-llm-to-a-website/
@MikeBlazerX
Инсайты из антимонопольного суда: Google не использует косинусное сходство для определения семантической близости между запросами и документами!👇
Для определения семантической близости можно использовать различные методы измерения расстояния между векторами в семантическом пространстве.
Вот самые популярные из них:
1. Косинусное сходство (Cosine Similarity): Самый распространенный метод для определения семантической близости.
Измеряет косинус угла между двумя векторами.
2. Евклидово расстояние (Euclidean Distance): Измеряет прямое (геометрическое) расстояние между двумя векторами.
3. Скалярное произведение (Dot Product / Inner Product): Часто используется в нейросетях и механизмах внимания.
Измеряет одновременно и направление, и величину (магнитуду) векторов.Rankembed
— это система Google, которая определяет семантическое соответствие между запросами и документами для коротких запросов.
Многие сеошники используют косинусное сходство между поисковыми запросами и документами в качестве аналитического подхода.
Согласно информации из антимонопольного суда, для этого юзкейса Google использует dot.product
, а не косинусное сходство.
Поэтому, похоже, что ориентироваться на косинусное сходство при работе с короткими запросами — не лучший подход.
-BERT
использует косинусное сходство.
И BERT
применяется в системах ранжирования и для определения сходства.
Но если вы хотите ранжировать результаты не только по семантическому сходству, но и по степени уверенности, силе сигнала или силе совпадения.
Тогда лучше подходит скалярное произведение.
Если же вам нужно чистое семантическое сходство, независимо от того, насколько "длинный" или "сильный" документ.
Тогда лучше подходит косинусное сходство.
@MikeBlazerX
Как ChatGPT Search
выбирает источники для краулинга?
Тайтл и дескрипшен по-прежнему важны!
Последние пару месяцев я задавал вопросы команде поддержки ChatGPT
, пытаясь разобраться в процессе работы ChatGPT Search
, — пишет Жером Саломон.
Вчера я узнал кое-что новое :)
Я уже знал, что когда вы отправляете промпт с активированной функцией Поиска:
1) ChatGPT
преобразует промпт в один или несколько поисковых запросов к Bing
2) Bing
возвращает список результатов поиска
3) Бот ChatGPT-user
краулит подборку релевантных источников
4) ChatGPT
включает релевантный контент в ответ со встроенными ссылками на источники
При изучении JSON
-файла с диалогом ChatGPT
можно увидеть полный список результатов поиска (включая те, которые ChatGPT
не использовал в ответе).
Для каждого результата вы получаете:
— URL
— Тайтл
— Сниппет (обычно на основе мета-дескрипшена)
— Позицию в выдаче
— Метаданные (например, дата публикации)
Отвечая пользователю, ChatGPT
должен в реальном времени выбрать и прокраулить несколько источников, чтобы дать наилучший ответ.
Мне было интересно, как эти URL
выбираются из длинного списка результатов поиска.
Поэтому я снова спросил у команды поддержки :)
Вот их ответ:
"Решение о том, какие страницы краулить, в первую очередь зависит от релевантности тайтла, содержания сниппета, свежести информации и авторитета домена".
Тайтл и мета-дескрипшен играют важную роль.
Они помогают ChatGPT
предположить, сможет ли ваша страница предоставить релевантный контент для ответа на промпт.
Практический совет для ваших тайтлов и мета-дескрипшенов:
— Будьте описательными, конкретными и точными
— Используйте ключевые термины, которые четко отражают содержание
— Отдавайте предпочтение ясности, а не кликбейту
Возвращаемся к основам
P.S. Как полуить JSON
писалось тут.
@MikeBlazerX
🚨 Внимание: плагин Seraphinite Accelerator
для WordPress
просто УБИВАЕТ ваши позиции.
Как только мы удалили его с этого сайта, позиции сразу вернулись в топ Google, рассказывает Даррен Шоу 👇
Консультант, которого я нанял, выжал из Seraphinite Accelerator
показатель производительности Lighthouse
на уровне 98.
Вроде бы круто получить такие цифры, но честно говоря, с позициями стало только хуже.
Я понимаю, что скорость сайта — это не какой-то суперфактор ранжирования, но после этой оптимизации всё начало катиться в неправильную сторону.
И были еще другие звоночки, что что-то не так.
Через расширение SEO Pro
мы заметили, что страницы сначала отдают статус 503, а сразу после загрузки — 200.
Похоже, сервер сначала возвращал 503, а затем подгружал страницу и отдавал 200. Странно.
Наугад 2 июня мы просто снесли этот плагин и БАЦ — уже на следующий день позиции взлетели (см. скриншот).
Так что да, не используйте этот плагин.
@MikeBlazerX
Когда говоришь, что занимаешься "GEO", выглядишь так, будто понтуешься.
А все вокруг думают, что ты географ.
@MikeBlazerX
Если Google хотел отвлечь внимание SEO-сообщества от AI Overviews
, ему достаточно было бы объявить о новой функции "Rich Result
" с разметкой Schema
.
Мы бы на это купились на все 100%!
@MikeBlazerX
Model Context Protocol
(MCP) представляет собой трансформационный подход к техническому SEO, основанный на инновационной концепции MCP-сервера.
Этот сервер, центральный элемент открытого стандарта MCP
, служит динамическим интерфейсом, соединяя ИИ-модели с технической инфраструктурой сайта, включая данные краулинга, логи сервера, карты сайта и историю изменений.
Благодаря динамической интеграции, MCP
-сервер позволяет ИИ анализировать и работать с контекстом сайта, переходя от простых промптов к более цельному и информированному процессу.
Использование MCP
-сервера в техническом SEO дает ИИ доступ к постоянным, структурированным знаниям о сайте, обеспечивая точные аудиты, стратегические выводы и проактивное устранение проблем по сравнению с традиционными методами без сохранения состояния, где важные детали, такие как статус исправлений, откаты, логика редиректов или исключения из индексации, часто теряются.MCP
-сервер решает эту проблему, поддерживая создание и хранение структурированного контекста на постоянной основе.
Он выступает репозиторием для знаний с сохранением состояния: факты, правила, стратегии, решения и их взаимосвязи становятся машиночитаемыми и доступными.
Ключевые сценарии использования и преимущества включают:
1. Постоянная SEO-память: Каждый краул формирует версионируемый слой знаний, сохраняя данные, аннотации и стратегии, устраняя необходимость повторного изучения сайта при аудитах и удерживая исторический контекст.
2. SEO-операции на основе агентов: MCP
-сервер работает как контекстный движок для ИИ-агентов, предоставляя доступ к стекам памяти (например, правила hreflang, логика index/noindex), что снижает ложные срабатывания и делает агентов стратегическими партнерами.
3. Структурированная история изменений и намерений: *Интент* SEO-правил — "почему" — сохраняется вместе с ними. Например, каноникализация страниц к базовому SKU
для консолидации авторитета фиксируется как долговременное знание, важное при сбоях или обосновании правил.
4. Контекстное поведение краулера: Краулеры обращаются к MCP
-серверу перед запусками, учитывая изменения, выявляя риски или проверяя исправления, различая новые проблемы и регрессии для "краулинга со стратегией".
5. Отслеживание индексации во времени: Статус индексации интегрируется в контекстную модель, превращая URL
в сущности для анализа временных рядов, связывая отклонения с деплоями и фокусируясь на проактивном управлении.
6. Коллективные графы знаний: SEO-данные (структура сайта, шаблоны, редиректы, политики краулинга) становятся структурированными и доступными, создавая общую инфраструктуру против устаревания знаний и стратегического дрейфа.
Прорыв в SEO на базе ИИ кроется не в "лучших промптах", а в постоянном контексте.
Когда модели получают доступ к структурированным, долгосрочным знаниям о сайте, их выводы становятся стратегическими, расширяя человеческую память и поддерживая согласованность между аудитами или сменами команд, предлагая важное обновление протокола для технического SEO.
https://chrisleverseo.com/blog/exploring-mcp-servers-for-technical-seo-monitoring/
@MikeBlazerX
Захожу на страницу цен продукта, который меня интересует, рассказывает Андреа Бозони.
$19 в месяц.
Кажется справедливым.
Но потом замечаю, что переключатель стоит на годовом плане.
Я понимаю, почему они это делают.
Но я не готов платить за годовой план для продукта, которым никогда не пользовался.
Поэтому переключаюсь на месячный, и цена подскакивает до $29 в месяц.
У меня в голове всё ещё $19, поэтому теперь, даже если это дёшево по сравнению с другими альтернативами, мой мозг воспринимает это как невыгодную сделку.
Я вижу это практически каждый день.
Больше основателей должны понимать, как работает ценовой якорь.
@MikeBlazerX
47+ Regex
-фильтров для GSC
, которые РАСКРОЮТ скрытые возможности в ваших данных.
Большинство людей мельком глядят на Google Search Console
.
Видят позиции.
Может быть, клики.
Потом идут дальше.
Это пустая трата времени.
Там спрятаны деньги.
Нужно просто знать, где искать.
Этот плейбук решает эту проблему.
Эти фильтры вскрывают высокоинтентные запросы, неиспользованные хвосты и брендовые вопросы, которые вы ПОЛНОСТЬЮ ИГНОРИРУЕТЕ.
https://docs.google.com/document/d/1OS9ZYU_5O_us7cKZJTdeULJyws00-UdeIIfzvGqHEa4/edit?tab=t.0#heading=h.rqnq58299m5f
@MikeBlazerX
Боюсь браться за SEO для сайтов казино, потому что за годы наслушался историй от SEO-друзей о том, как они обгоняли конкурентов-казино в топах, а потом получали физические угрозы 😅😅 странная ниша, говорит Гэган Готра.
-
Пока твоего имени нет в импринте (выходных данных сайта) и ты не делаешь аутрич под настоящим именем, всё должно быть в порядке.
Моя любимая история про казино-SEO — когда люди отправляют поддельные результаты тестов на отцовство по домашним адресам конкурирующих (мужчин) SEO-шников, говорит Мальте Ландвер.
Рассчитывают время так, чтобы письмо пришло во время SEO-конференции и увеличить вероятность того, что супруга откроет его и устроит драму, которая отвлечет их от работы.
@MikeBlazerX
В 20-летнем патенте Гугла объясняется, как поисковик может использовать слова до и после ссылки для определения ее контекста и релевантности.
"Ranking based on reference contexts
" (ранжирование на основе ссылочных контекстов) US8577893B1
Вместо того чтобы анализировать только анкор, Гугл также рассматривает слова *вокруг* ссылки, выискивая наиболее редкие/необычные из них.
Если окружающие слова релевантны тематике страницы, на которую вы ссылаетесь, Гугл может счесть такую ссылку более весомой.
— Редкие + тематические слова ≈ больший вес для ссылки
— Общие или нетематические, "водянистые" фразы ≈ меньший вес для ссылки
— Шаблонные элементы (навигация, футеры, сайдбары) постоянно повторяют один и тот же "контекст", поэтому вес таких ссылок сильно обесценивается
Это означает, что шаблонные ссылки, в которых повторяется один и тот же текст, будут иметь незначительный вес, в то время как контекстные ссылки, окруженные уникальным, релевантным текстом, будут цениться гораздо выше.
Как это использовать для SEO:
1) Всегда размещайте важные ссылки внутри информативного текста, а не в баннерах или сайдбарах.
2) Окружайте ссылки фразами, специфичными для данной страницы и насыщенными ключами — не повторяйте шаблонные описания по всему сайту.
3) При гестпостинге или получении внешних ссылок просите размещать их в основном контенте статьи (а не просто свалку ссылок в блоке с биографией автора).
4) Не лепите ссылки "пачкой" одна за другой (Гугл даже упоминает это в своих SEO-руководствах!).
Добавляйте короткие описания до и после ссылок, чтобы предоставить Гуглу больше контекста.
5) Для автоматических виджетов (например, "Похожие статьи"), по возможности рандомизируйте отображаемые сниппеты, чтобы окружающий текст не был идентичным на сотнях страниц.
@MikeBlazerX
Оптимизируете свой сайт для SEO / LLM
'ов?
КРИТИЧЕСКИ важно, чтобы user-agent
'ы / боты действительно могли видеть отрендеренный результат.
Не все технологические стеки подходят из коробки - JS
стеки известны тем, что:
1. Их непросто рендерить даже для Гуглобота, который может рендерить JS
, но делает это не особо эффективно
2. Они не подходят для краулинга / обработки контента LLM
'ами
Хотите узнать, подходит ли ваш сайт?
1. Зайдите на страницу вашего сайта, нажмите F12
и откройте DevTools
2. Нажмите CTRL + SHIFT + P
3. Наберите Javascript
и кликните Disable Javascript
4. Кликните NETWORK
в верхнем меню devtools
5. Убедитесь, что включены Preserve Log
и Disable Cache
6. Теперь к URL
вашего сайта добавьте ?test и нажмите enter
7. На вкладке network
кликните DOC
(показано красной рамкой на изображении)
8. Где написано NAME
, вы должны увидеть ?test, кликните на него
9. Кликните на вкладку RESPONSE
(показано красной рамкой на изображении)
Это покажет вам РЕЗУЛЬТАТ того, что увидит LLM
.
Google МОЖЕТ рендерить Javascript
, но не все JS
стеки одинаковы - если хотите увидеть ЧИСТЫЙ ТЕКСТОВЫЙ ВЫВОД, делайте следующее:
В нижней части DevTools
вы увидите пункты меню "Console, Issues, Coverage
" и т.д. кликните на CONSOLE
(выбран по умолчанию).
Кликните иконку CLEAR
(круг с линией)
Скопируйте и вставьте эту команду в консоль и нажмите ENTER
:
const text = document.body.innerText;
for (let i = 0; i < text.length; i += 1000) {
console.log(text.slice(i, i + 1000));
}
JS
вывод вашего URL
.LLM
'ы, и потенциально Гугл/другие поисковики, если будут проблемы с SSR
.JS
-основанные технологические стеки, вам СТОИТ рассмотреть SSG
или пре-рендер.DOM
после обработки JS
, прежде чем этот результат документа будет отдан.JS
для веб-приложения / фреймворка сайта.Место размещения цены ИМЕЕТ ЗНАЧЕНИЕ.
👀 Как думаешь, что продаётся лучше?
Ценник сверху?
VS
Ценник снизу?
ПОБЕДИТЕЛЬ:
✅ Ценник снизу продаётся лучше.
Почему?
Исследование 2020 года показало, что размещение цены НИЖЕ товара (а не над ним) меняет восприятие потребителей из-за особенностей нашей психологии.
Наш мозг запрограммирован на ЭТОТ паттерн.
Мы подсознательно считаем:
⬇️ Вниз = меньше
⬆️ Вверх = больше
Научное обоснование основано на теории концептуальных метафор.
Наш мозг использует эту подсознательную ассоциацию.
Это часть распространённой эвристики принятия решений.
📈 Данные из ритейл-тестов:
— Продажи в магазине алкоголя выросли на 35.2% с ценниками снизу
— Зубная нить воспринималась на 9% дешевле с ценником снизу
— Многочисленные полевые и лабораторные тесты показали стабильный результат
Кстати, эффект сохранялся в различных DTC
-категориях
Фотоаппараты, кофе, батарейки и т.д.TLDR
Размещай ценники снизу.
В своей рекламе.
На страницах с ценами.
Конечно, не жертвуй юзабилити ради этого.
Но если можешь сделать это естественно, протестируй.
https://www.sciencedirect.com/science/article/abs/pii/S0022435920300130
@MikeBlazerX
Вакансии = CTR
.
Когда ты запускаешь объявление о вакансии, особенно в тяжелые времена, когда людям нужна работа, особенно в странах третьего мира, ты получаешь кучу откликов.
И если ты не в курсе, данные Google Chrome
на 100% передаются в поисковые алгоритмы.
Так что это значит?
Вакансия = CTR
, а CTR
= позиции в выдаче.
Даже если это просто поисковый объем по брендовым запросам, это реально помогает.
И как это использовать?
За 5-10 баксов в день на LinkedIn
ты можешь получить толпу соискателей.
Реально толпу.
И можно даже таргетировать по регионам.
Это значит, что тебе, возможно, и не нужен софт для накрутки CTR
, когда объявления о вакансиях на LinkedIn
пригоняют реальных юзеров для кликабельности.
У нас была открыта вакансия, получили около 10K откликов, кучу брендового трафика, и наши позиции в выдаче подросли, говорит Джеки Чоу.
Ненамного, потому что контента у нас мало, но все же подросли.
Количество подписчиков на нашей странице в LinkedIn
тоже выросло до 3.2K; мы ничего не покупали, просто запустили объявление о вакансии, и оно взлетело.
Так что это просто безумная ценность для CTR
и органики.
Попробуйте сами.
@MikeBlazerX
Модели кликов похожи на языковые модели — только для поведения.
Клик — это слово, которое выражает смысл.
Но не все клики хороши.
Для конвертера валют короткий клик = задача выполнена ✅
Для страницы оплаты в казино короткий клик = путаница или недоверие ❌
Значение клика зависит от намерения и отраслевых норм.
Системы безопасного просмотра и NavBoost
от Google используют клики, PageRank
и актуальность в качестве единого сигнала.
Нет кликов?
Нет RankBrain
.
Нет сложной обработки.
Страницы без кликов не заслуживают дорогих алгоритмов.
Некоторые сайты месяцами ждут обновления Core
или Phantom
, чтобы привлечь внимание Google.
Клики — это не просто метрики.
Они имеют значение.
Если вы хотите, чтобы Google использовал лучшие алгоритмы, заставьте пользователей заинтересоваться настолько, чтобы они кликнули — и остались.
@MikeBlazerX
SEO-команды знают, что тематический авторитет позволяет быстрее наращивать трафик, обеспечивает видимость в AI Overviews
и используется в ответах LLM
с дополненной генерацией (RAG
), — но до сих пор у нас не было надежной метрики, чтобы это доказать.
🔍 Новый скорер превращает это слепое пятно в конкретную метрику за счет того, что:
— Количественно оценивает долю в теме, чтобы вы могли защищать бюджеты, перераспределять ресурсы и демонстрировать прогресс из месяца в месяц.
— Выявляет пробелы в контенте, где дополнительный охват тем принесет максимальную отдачу.
— Заменяет голословные заявления об авторитетности на воспроизводимую оценку, нормализованную по конкурентам.
🏗 Как это работает:
1. Сбор и валидация данных: загружаем тему, домен и локаль; выгружаем все ранжирующиеся страницы; оставляем только релевантные теме URL
; добавляем метрики эффективности.
2. Анализ контента: выделяем выигрышные и отстающие ключевые слова, картируем охват подтем, рассчитываем сигналы авторитетности.
3. Анализ конкурентов: собираем тот же набор данных для трех главных доменов-конкурентов.
4. Сравнительный скоринг: сравниваем глубину, широту, бэклинки и долю по ключевым словам, чтобы присвоить оценку авторитетности каждому домену.
5. Генерация отчета: предоставляем сводку для руководства, подробный анализ пробелов и приоритезированные дальнейшие шаги.
Большие языковые модели, такие как Chat GPT, AI Overviews
или AI Mode
, отдают предпочтение актуальным, авторитетным источникам с тематической глубиной, чтобы на их основе обосновывать ответы и ссылаться на домены.
Измерение и устранение пробелов в авторитетности — это прямой рычаг для роста видимости как в классических синих ссылках, так и в ответах, сгенерированных ИИ.
Хотите заценить этот скорер? Вам сюда:
https://app.airops.com/public_apps/f52eafe1-1ec3-43ab-888f-31f5ec760bfe/run
@MikeBlazerX
Мы проанализировали более 1 миллиона Google AI Overviews
, — говорит Саманью Гарг.
И вот что мы выяснили 👇
📈 Ранжирование на первой позиции в Google по-прежнему имеет огромное значение.
Лидеры поисковой выдачи доминируют в цитированиях в AI Overviews
.
-> ТОП-1 цитируется в ~18.5% случаев
-> ТОП-2? 15.6%
-> ТОП-10? Всего 2%
А те, кто ниже?
Практически невидимы.
Чем выше ваши позиции, тем больше вероятность, что ИИ будет вам доверять и вас цитировать.
И хотя может показаться, что AI Overview
от Google "находит лучшие ответы",… на деле он часто просто вторит первым трем синим ссылкам.
Поэтому, если вас нет в топе, ИИ вас тоже не упомянет.
А это значит: никаких показов бренда.
Никакого трафика.
Никакого доверия.
@MikeBlazerX
Будьте осторожны с данными Google Search Console
.
Система будет врать вам.
Принимать решения только на основании этих данных — ошибка.
В данном случае URL
имеет самоканонический URL
, однако Google утверждает, что ПОЛЬЗОВАТЕЛЬ выбрал другой URL
в качестве канонического.
Что категорически неверно.
Причина №204, почему не стоит считать инструменты Google объективным отражением вашей видимости в поиске.
@MikeBlazerX
Я пробую первую попавшуюся возможность (батут был перевернут)
@MikeBlazerX
Если вы с горечью воспринимаете эти изменения в SEO и не хотите пробовать что-то новое, помните:
Сегодня на рынок труда выходят сеошники, которые не обременены нашим багажом.
Они будут воспринимать мир таким, каким он есть, и принимать решения, основываясь на том, что работает сейчас, а не на том, что они *хотели бы*, чтобы работало сейчас.
Вперед и вверх!
@MikeBlazerX
Никогда не недооценивайте тест тайтлов.
Я недавно провела супер простой #SEO эксперимент, пишет Эбби Глисон:
1️⃣ Взяла нашу статью с самым большим трафиком
2️⃣ Подкрутила тайтл, добавив зацепку в конце.
Всего несколько дополнительных слов, чтобы сделать его более цепляющим и заметным, раньше он был довольно скучным
Вот и все.
Никаких других обновлений контента или технических изменений.
Результаты через месяц:
✅ Клики: +35%
✅ Ранжирующиеся запросы: +59% (2.2K → 3.5K)
📌 Потратьте 15 минут на аудит ваших топовых тайтлов: соответствуют ли они ключам и достойны ли клика?
Могут ли они вызвать больше интереса в СЕРПе?
💡 Совет: Мне нравится использовать Reddit
, чтобы посмотреть, как люди обсуждают тему — как источник вдохновения.
Внесите изменения и отслеживайте результаты в таких инструментах, как SEOclarity
или SEOtesting
.
Эти инсайты также отлично подходят для платного поиска, контента и отчетности руководству.
Вперед тестировать!!
@MikeBlazerX
В будущих проектах по миграции, над которыми я буду работать, я внедрю нечто новое — до и после миграции, — говорит Крис Левер.
Сравнение векторных эмбеддингов для отслеживания сдвига контента.
Вот почему!
1. Причина, по которой вплоть до сих пор в SEO не широко использовался сдвиг эмбеддингов, проста: у нас не было легкого доступа к инструментам.
Но теперь все изменилось, и вы можете сделать это с помощью Screaming Frog
и простого скрипта на Python
.
2. Внедрения отражают суть страницы.
Они представляют ее в высокоразмерном пространстве на основе взаимосвязей между концепциями, фразами и контекстом.
Эти внедрения помогают Google сравнивать страницы, оценивать, насколько они соответствуют запросу пользователя, и группировать похожий контент по темам и авторитетности.
Таким образом, если мы сгенерируем эмбеддинги на существующих ключевых страницах и снова на новом сайте непосредственно перед запуском, а затем отследим семантическое сходство, используя оценочную карту, подобную этой.1.0
= нет изменения в значении0.95
= незначительное обновление, контент по-прежнему соответствует0.85
= умеренное изменение, вероятно, Google переоценит0.75
и ниже = значительное изменение, Google может рассматривать как новое
Вы можете запустить этот процесс на каждой ключевой странице или сгруппировать их по шаблонам, категориям или типам страниц для масштабирования.
Это не заменяет ваши проверки сравнения сканирования.
Это просто добавление новой проверки, которая соответствует тому, как Google на самом деле понимает ваш контент.
Это имеет смысл, это измеримо и будет включено в мой чек-лист для будущих миграций.
@MikeBlazerX
SEO миграции сайта
Предмиграционный анализ включает тщательное изучение домена, проверку падений трафика после обновлений Google (особенно у спамерских доменов) и анализ истории через WayBack Machine
и ссылочных профилей на спам.
Если домен выглядит скомпрометированным, пересмотрите его использование, несмотря на политику чистого листа Google.
Перед миграцией создайте полный бэкап сайта (файлы и базы данных) как страховку.
Затем составьте карту URL
: прокраулите текущий сайт (через Screaming Frog
или Sitebulb
) и сопоставьте старые URL
с новыми в таблице с колонками Original URL, New URL
и Redirect Status
.
Правильные 301
редиректы предотвращают потерю позиций.
Настройте постоянные 301
редиректы для каждой пары URL
и протестируйте их перед запуском для передачи PageRank
.
Упростите цепочки редиректов, заменив A > B > C > D
на A > D
, чтобы снизить задержки и потерю ссылочного веса.
Обновите внутренние ссылки, чтобы они вели к новым URL
напрямую, избегая 301
редиректов, вызывающих задержки.
Также проверьте каноникал теги и пути для CSS, JavaScript
, изображений и других ресурсов, связанных со старыми URL
.
Избегайте изменений на живом сайте.
Используйте тестовую среду, защищенную паролем с директивой запрета в robots.txt
(User-agent: * Disallow: /
), чтобы предотвратить раннюю индексацию.
Тестируйте скорость сайта, мобильную отрисовку, редиректы и ключевые сценарии пользователей.
Минимизируйте изменения, кроме обновления URL
и инфраструктуры.
Миграции часто ошибочно совмещают с радикальными переделками (тайтлы, контент, дизайн).
Это замедляет обработку Google, усиливает колебания позиций и усложняет диагностику.
Вносите крупные изменения за 3+ месяца до или после миграции, когда позиции стабилизируются.
После запуска снимите временные блокировки: убедитесь, что robots.txt
разрешает краулинг, удалите noindex
теги и отключите парольную защиту.
Держите старый домен с редиректами активным минимум 9 месяцев, а лучше дольше.
Быстро уведомите Google: отправьте новую XML
карту сайта через GSC
и используйте инструмент смены адреса GSC
для домена.
Запросите ручную индексацию важных страниц в GSC
для ускорения переоценки.
Обновляйте внешние ссылки, если возможно.
Обращайтесь к вебмастерам, ссылающимся на старые URL
, особенно для权威ных ссылок и ключевых страниц, с просьбой об обновлении.
Настройте рекламные кампании (например, Google Ads), ведущие на старые страницы.
Контролируйте Core Web Vitals
(LCP, CLS, FID) и производительность после миграции.
Оптимизируйте скорость загрузки (менее 2 секунд для ключевых страниц) и устраняйте проблемы; быстрые сайты краулятся эффективнее и ранжируются выше.
Внедрите постмиграционный мониторинг:
— Первые 24 часа: Проверяйте логи сервера ежечасно.
— Первая неделя: Анализируйте позиции и краулинг ежедневно.
— Первый месяц: Оценивайте трафик еженедельно.
— Первый квартал: Проводите SEO-аудиты ежемесячно.
Сфокусируйтесь на мониторинге ключевых страниц, приносящих доход.
Миграция платформ не всегда требует новых URL
-шаблонов; некоторые сохраняют старую структуру.
Серверные ReWrites
(контент нового URL
отдается под запросами старого, без 301
редиректов) полезны для срочных задач или поэтапных миграций.
Понимание HTTP
редиректов помогает в оптимизации.
Хотя 308
(Permanent) и 301
(Moved Permanently) схожи, 301
допускает смену методов запроса (POST на GET), в отличие от 308
.
Google обрабатывает оба типа одинаково для ранжирования, делая 301
проще и надежнее.
Если доступны только 302
(Temporary), не переживайте — Google со временем интерпретирует их как 301
. Meta refresh
и JavaScript
редиректы менее эффективны, но Google их обрабатывает, хоть и медленнее.
Если серверные редиректы невозможны, подойдут скриптовые решения (например, PHP header()
).
@MikeBlazerX
Wikimedia
выпустила структурированный датасет всех английских и французских статей в формате JSON
.
Он также включает инфо-боксы.
Для парсинга и структурирования статей требуется много усилий, и этот датасет упрощает использование и создание контента на основе Википедии.
Проект еще новый, но очень интересный:
https://www.kaggle.com/datasets/wikimedia-foundation/wikipedia-structured-contents
Версия 1 (113.58 ГБ)
@MikeBlazerX
E-E-A-T
превратился в SEO-обман, и проблему с Google можно увидеть, если поискать [Best] Italian Restaurants in [Vegas] [или любой город]
.
В топе синих ссылок обычно Trip Advisor
, что-то вроде Eater Vegas, Reddit
или другие крупные сайты.
Есть множество сайтов, которые демонстрируют реальный E-E-A-T
(вы понимаете — они были в ресторане, ели там и так далее), но они зарыты на 3, 4, 5, 6, 7 странице и далее.AIO
просто ворует рекомендации с Reddit, Trip Advisor
и крупных сайтов.
Поэтому вместо реальных рекомендаций люди получают советы по поводу того, что может оказаться даже не очень хорошим.
Для многих таких запросов видео тоже находятся глубоко в СЕРПе.
Например, Vegas Eater
ранжируется на 2 позиции.
Они используют стоковые изображения и описания выглядят сгенерированными ИИ.
Пища для размышлений.
-TripAdvisor
и Reddit
агрегируют мнения множества людей, которые были в ресторане.
Объективно это лучшие результаты поиска, чем отдельные статьи блогеров, которые представляют мнение только одного человека.
-
Мы могли бы спорить часами, но вот это #3 https://reddit.com/r/LasVegas/comments/13sdzve/best_italian_dining_on_the_strip/
В одном из топовых комментариев ресторан/отель уже закрылся.
Другие просто перечисляют рестораны, не вдаваясь в бюджет, блюда и прочее.TripAdvisor
#1 включает спонсорские объявления.
Если сортируешь по релевантности, то их 2-я рекомендация — буфет в Wynn
😅
Результат от фуд-блогера, который был во множестве ресторанов — лучший выбор.
Альтернативно, лучший и быстрый поиск — просто зайти в TikTok
и посмотреть рекомендации людей.
@MikeBlazerX
Что если опубликовать 700+ блогпостов за 12 месяцев без ИИ?
Лорен Фунаро, бывший руководитель контента в Scribe
, сделала это, и результаты были сумасшедшими.
✨Трафик вырос с 8К до 70К ежемесячных посетителей
✨Платные регистрации подскочили на 1,100%
✨Scribe
теперь владеет основными позициями в SEO по use-case
запросам
Этот эпизод The Cutting Room
от Томми Уокера обязателен к просмотру (ссылка в комментариях).
И она не следовала обычному плейбуку.
Вместо этого Лорен:
➡️ Сосредоточилась на use cases
, а не на персонажах
➡️ Приняла контент "достаточно хорошего" качества вместо превосходного контента
➡️ Создавала брифы, которые помогали райтерам пройти 60% пути
➡️ Использовала Letterdrop
для устранения трения в рабочем процессе
➡️ Ставила цели как для совершенно нового контента, так и для оптимизации
Контент — это живая штука.
Если не публикуешь его — не сможешь его улучшить.
Если бы вам нужно было увеличить свой контент в 4 раза в следующем квартале, что бы вы сделали в первую очередь?
https://www.youtube.com/watch?v=X3J5td7Lh5I
@MikeBlazerX
🧠 Не используй <head>
!
Я провёл много исследований, посвящённых тегам <head>
и их оптимальному порядку для обеспечения быстрой загрузки (fast experiences), пишет Гарри Робертс.
И один из не самых очевидных выводов: иногда для лучшей производительности полный отказ от <head>
— это более предпочтительный вариант.
Есть JS
с атрибутом defer
?
Он всё равно не выполнится до события domInteractive
(фактически, после парсинга всего HTML
до </html>
), так что нет смысла объявлять его слишком рано — помести его перед закрывающим тегом </body>
.preload
для шрифтов?
Не допускай, чтобы они конкурировали за пропускную способность на столь раннем этапе жизненного цикла загрузки страницы — помести их перед закрывающим тегом </body>
.
Критический CSS?
Не утруждай себя хаком media=print
для некритических стилей — помести их перед закрывающим тегом </body>
.
Закрывающий тег </body>
— это готовый и простой способ избавить <head>
от некритических ресурсов.
Используй его!
Риск?
Загрузка, к примеру, Google Fonts
таким образом действительно повышает вероятность FOUT
(Flash Of Unstyled Text — мелькание нестилизованного текста).
Убедись, что также используешь font-display: optional;
для защиты от этого.
Амбициозная цель?
Можно вообще не утруждаться написанием тегов <head>…</head>
или <body>…</body>
— они не обязательны!
@MikeBlazerX