mikeblazerx | Неотсортированное

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Подписаться на канал

Mike Blazer

Тим Фолсом рассказал, что команда веб-разработки забыла добавить тег noindex на стейджинг-сайт, из-за чего его страницы попали в индекс Google.

Это оставалось незамеченным до запуска продакшн-сайта; к тому времени стейджинг исчез, но его страницы остались в индексе, а в Google показывалась только главная страница продакшн-сайта.

Тим искал совет по решению проблемы, имея идеи, но желая услышать мнение сообщества.

— Тим отметил, что стейджинг был перезаписан и перенаправлен на продакшн-URL, без доступа к wp-admin и DNS-записям.
— Он рассматривал временное восстановление стейджинга для 301-редиректа на продакшн, поскольку подпапки и контент совпадали.
— Команда пояснила, что стейджинг использовал временный домен SiteGround, перенаправленный на продакшн, без доступа к DNS или wp-admin.
SiteGround мог переоформить временный домен как припаркованный для 301-редиректов, но Тим сомневался в настройке GSC при этом.

Советы и инсайты сообщества

1. Если стейджинг недоступен для Google и домен верифицирован в DNS, подайте запрос на временное удаление в GSC для быстрой деиндексации URL.

2. Верифицируйте стейджинг в GSC и используйте инструмент удаления URL для ускоренной деиндексации — это самый быстрый метод.

3. После временного удаления заблокируйте путь стейджинга через robots.txt, чтобы избежать повторной индексации без noindex.

4. Удаление в GSC действует шесть месяцев, как код 410, но для постоянной деиндексации нужны дополнительные шаги.

5. Для постоянного удаления:

— Верните коды 404 или 410, удалите не-HTML файлы с сервера.
— Используйте парольную защиту для блокировки доступа.
— Примените мета-тег noindex, хотя это менее надежно.
— Не полагайтесь только на robots.txt, он блокирует лишь краулинг, а не индексацию.

6. Код 410 не лучше 404; для крупных брендов 404 на стейджинг-поддоменах могут усилить краулинг.

Запрос в GSC с robots.txt или паролем — самый быстрый способ.

7. При запросе удаления в GSC установите напоминание на шесть месяцев для проверки; переиндексация маловероятна, если сайт недоступен и продакшн на него не ссылается.

8. Если стейджинг исчез, создайте Domain Property в GSC с TXT-записью в DNS для верификации основного домена (site.com) и управления поддоменами — полезный шаг для новых компаний.

9. Хотя Google не советует robots.txt для постоянного удаления, он помогает краткосрочно для несвязанных стейджинг-сайтов; при появлении ссылок используйте инструмент удаления или постоянные меры.

10. SEO и софт не дают полностью постоянных решений; нужен регулярный мониторинг, а поиск таких решений может быть неоправданным.

11. Используйте бюджетный хостинг вроде Netlify для настройки редиректов с поддомена стейджинга на продакшн, удалив проект после загрузки файла netlify.toml для экономии.

12. Верифицируйте старый стейджинг в GSC и Bing Webmaster Tools через DNS, настройте 301-редирект на продакшн на уровне DNS и используйте Change of Address (CoA) в обоих сервисах для ускорения удаления из SERP и исправления частичной индексации продакшн-сайта.

13. DNS-редирект с CoA — почти метод "настроил и забыл", хотя повторное использование стейджинг-домена невозможно; используйте новые домены для будущих стейджингов с контролем индексации.

14. Для стейджинга на временном поддомене провайдера настройте правила редиректов; при повторной реализации верифицируйте в GSC/Bing через HTML-файл перед добавлением редиректов для CoA.

15. Задокументируйте в дневнике сайта причину сохранения временного домена, чтобы избежать случайного удаления, отменяющего меры.

@MikeBlazerX

Читать полностью…

Mike Blazer

SEO - это безумие, индустрия просто сумасшедшая.

За пределами всей этой чуши с внедрением ИИ и массовым злоупотреблением контентом, когда мы возвращаемся к старым проблемам - мы видим, что сейчас БОЛЬШЕ чем когда-либо, Гугл индексирует всё меньше и меньше контента.

Ваш ИИ АГЕНТ, который публикует контент, пока вы спите?

Да, удачи с этим.

Гугл индексирует МЕНЬШЕ контента в целом.

Для КАЖДОГО краулимого сайта всё меньше и меньше контента попадает в индекс.

Почему?

Уникальная добавленная ценность - это СИЛЬНАЯ МОДЕЛЬ для отказа от индексации информации, которая уже существует в 1000 раз на других сайтах.

А вот что еще СУПЕР весело видеть на вашем домене или ЛЮБОМ домене, с которым вы работаете:

1. Прокраулите ваш сайт и убедитесь, что вы используете API индексации Google

2. Экспортируйте результаты краулинга, в идеале вам нужны КЛЮЧЕВЫЕ метрики:

URL, состояние покрытия от Google, внутренние ссылки, количество слов

Это позволяет исключить недостаток внутренних ссылок или тонкий контент (малое количество слов) или изучить взаимосвязь между объемом контента и его эффективностью

3. Используйте IMPORTXML для получения дат публикации контента из прокраулинных URL

— Вы можете использовать XPATH или REGEX в importXML для получения дат, т.е. если вы используете структурированные данные, вероятно, у вас есть datePublished, вы можете использовать этот importxml в вашей гугл-таблице для получения даты публикации

 =REGEXEXTRACT(IMPORTXML(A2, "//script[@type='application/ld+json']"), """datePublished"":\s*""([^""]+)""")


4. Затем вы должны экспортировать данные из GSC и использовать VLOOKUP для сопоставления ваших URL с их эффективностью за последние 16 месяцев - таким образом вы сможете увидеть, какой контент имеет данные по кликам или не имеет их вообще.

5. Затем вам следует создать фильтр и просмотреть ваш контент ПО ГОДАМ и по состоянию покрытия - например, в скриншоте это контент одного сайта за 2022 год, где URL неизвестен для Google, несмотря на то, что URL существуют уже 3 года

Вот что стоит учесть:

1. Если контент НЕ индексируется, но был индексирован, как выглядел его жизненный цикл?

То есть, когда он был опубликован, как выглядели данные за период индексации

2. Если контент БЫЛ индексирован, но никогда не показывал хороших результатов, при этом имел достаточно внутренних ссылок и был глубоким или имел много контента, например, 3000, 4000+ слов - как выглядел профиль запросов?

3. URL, неизвестные для Google - если у вас много таких, но есть достаточно внутренних ссылок, то вы должны спросить себя, ПОЧЕМУ URL неизвестны, несмотря на возраст?

Особенно если есть внутренние ссылки

4. Обнаруженный контент/в настоящее время не индексируемый обычно попадает в эту группу, когда он теряет ВСЮ воспринимаемую ценность.

Что обычно происходит:

— Контент устаревает
— Поведенческие данные уменьшаются
— СЕРПы обновляются, что приводит к потере запросов, так как контент считается менее ценным
— Деградация продолжается с увеличением периодов повторного краулинга
— В конечном итоге периоды повторного краулинга превышают "очевидные" пороги в 90-130 дней, пока контент не выпадает из индекса

Короче говоря

СОВРЕМЕННЫЕ SEO СТРАТЕГИИ НЕ ДОЛЖНЫ СОСУЩЕСТВОВАТЬ С КОНТЕНТОМ В МАССОВОМ МАСШТАБЕ!

Google НЕ НУЖДАЕТСЯ в контенте в массовом масштабе.

Не тратьте своё время, ведите более экономный, более эффективный индекс.

@MikeBlazerX

Читать полностью…

Mike Blazer

🚨 Старые домены возвращаются и они, сцуко, печатают деньги!!!🚨

Война Гугла против паразитного SEO могла срубить половину авторитетных сайтов в выдаче, но случайно включила свет обратно для спящего монстра: старые домены (с недавней историей).

Речь о доменах, которые никогда не теряли ссылочный вес, траст или тематический авторитет - экспайред домены работают в некоторых нишах, но показатель успеха очень низкий, тогда как если ты получаешь старый домен, который сохраняет свои позиции/ссылочный вес, ты можешь мгновенно перенести его в нишу типа казино и печатать деньги

Я знаю, потому что у меня десятки клиентов делают это, и я вижу сотни таких сайтов каждый день, почти в каждой стране мира, включая английские термины в Великобритании и США, пишет Чарльз Флоут!

Яркий недавний пример - это запрос "non gamstop casinos" в Великобритании, где кто-то смог подхватить домен Брексит-парти (теперь Реформ-парти), сохранив его возраст, и перепрофилировать под этот запрос - мгновенно заняв #1 в течение недели!

Чтобы добавить еще больше оскорбления, ВСЕ новые ссылки - это ПБН на главную, где большую часть времени они даже не удосужились поставить тему, это просто дефолтная установка WordPress!

😂🤣

И это все на английском, на международном уровне это еще больший пиздец...

Но пропагандистская машина в этой индустрии работает усердно, помните, что согласно большинству white hat инфлюенсеров, половина этих тактик больше не работает 👀

@MikeBlazerX

Читать полностью…

Mike Blazer

Хак по локальному SEO "Изучи победителей"

Этот практичный подход к локальному SEO включает систематический анализ лидирующих конкурентов для создания превосходной стратегии, а не копирование контента.

Вот как это работает:

Процесс:

1. Создай таблицу для отслеживания с метриками конкурентов (страницы, сервисные страницы, темы контента, количество слов, рейтинг GBP/отзывы)
2. Определи топовых конкурентов, поискав свои целевые запросы в Google и Bing
3. Проанализируй их сайтмапы (domain.com/sitemap.xml), чтобы увидеть все страницы, которые ценит Google
4. Задокументируй их стратегию - количество сервисных страниц, структуру контента, подход к отзывам
5. Проверь их бэклинки с помощью бесплатных инструментов типа Ahrefs/Moz для выявления ссылочных возможностей
6. Создай что-то лучше - разработай более полные сервисные страницы, собери больше отзывов, создай контент более высокого качества

Почему это работает:

— Устраняет гадания, следуя проверенным паттернам, которые уже работают на твоем рынке
— Поисковые системы уже показывают, какой контент они ценят для конкретных ключевых слов
— Позволяет систематически улучшать выигрышные формулы

Реальные результаты:

Стоматолог, застрявший на второй странице, внедрил эту стратегию, заметив, что топовые конкуренты имели 8+ сервисных страниц, 100+ отображаемых отзывов, галереи "до и после" и страницы, ориентированные на конкретные районы.

Создав все эти элементы и даже больше, он достиг первой страницы за 6 недель.

Это не теория.

Подход работает для различных типов локального бизнеса:

— Сантехники
— Стоматологи
— Юристы
— Кровельщики
— Рестораны
— Автомастерские

Потому что суть не в слепом копировании, а в стратегическом улучшении.

Google уже показывает тебе, что работает.

"Если ты копируешь у одного, ты вор. Если изучаешь многих и создаешь что-то лучше, это искусство."

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот полный список из 674 параметров запроса, которые принимает Google, нарытый в исходном коде. 📃

Зачем?

Потому что понимание того, как работают системы, может подарить вам те самые моменты "эврика!" и помочь увидеть общую картину, когда вы делаете собственные наблюдения за результатами.

Параметры запросов Google: https://gist.github.com/thetafferboy/3ac631eb066c9b2b14a44960a0df9d7c

@MikeBlazerX

Читать полностью…

Mike Blazer

Источник

@MikeBlazerX

Читать полностью…

Mike Blazer

ИИ делает международное SEO быстрее, но не проще.

1. ИИ — это ускоритель локализации, а не волшебная палочка.

Reddit и Airbnb теперь переводят миллионы страниц с качеством, близким к человеческому, доказывая, что машинный перевод может запустить глобальные контентные маховики в паре с умным человеческим QA.

2. Избегайте двух классических ловушек.

1/ Чрезмерная локализация практически идентичных сайтов разделяет авторитет и создает головную боль с дублированным контентом.

2/ Мышление "перевод = локализация" игнорирует культуру, юмор и поисковый интент.

3. Техническая гигиена не подлежит обсуждению (неожиданно).

Корректные хрефленг кластеры, языковые XML карты сайта, последовательная каноникал логика, локализованная схема и быстрый CDN — это базовый минимум для получения и удержания позиций на любом рынке.

4. Подбирайте модель команды под сложность рынка.

Центральная SEO команда масштабирует последовательность.

Добавление местных специалистов в высокодоходных регионах добавляет культурные нюансы и скорость без потери стратегического контроля.

5. Рассчитывайте время экспансии тщательно.

Валидируйте поисковый спрос, существующую силу бренда, конкурентные пробелы, ROI и юридическую возможность перед запуском.

Слишком ранний выход на глобальный рынок сжигает ресурсы; слишком долгое ожидание отдает рынок более быстрым игрокам.

Итог: ИИ снижает стоимость перехода на многоязычность, но успех по-прежнему зависит от дисциплинированной архитектуры, безупречной техники и культурно-осведомленного контента.

@MikeBlazerX

Читать полностью…

Mike Blazer

Трудные времена создают хороших сеошников, хорошие сеошники создают хорошие времена, хорошие времена создают AI-сеошников, AI-сеошники создают трудные времена.

@MikeBlazerX

Читать полностью…

Mike Blazer

Плохая визуализация данных встречается повсюду.

Одни вводят в заблуждение. Другие запутывают. Третьи просто заставляют смеяться.

Что не так с этим графиком?

Ответы

Проблемы с осью Y

— Нет четкого контекста для оси Y — непонятно, что именно измеряется
— Не начинается с нуля — создает обманчивое визуальное воздействие
— Специально ограниченный масштаб с манипуляциями min/max значений для преувеличения спада
— Странное масштабирование, созданное для обмана зрителей
— "Подавление нуля" используется как маркетинговый инструмент

Визуальный обман

— Заставляет падение на 2% выглядеть как обрыв из-за приближенного масштаба
— Микроскопические изменения выглядят как огромные нисходящие тренды
— "Драма с приближенной осью Y", которая использует масштаб как оружие для введения в заблуждение
— Создает ложное представление о реальной производительности Гугла

Проблемы группировки данных

Bing и ChatGPT неуместно объединены вместе
— Комбинирует несвязанные метрики, что увеличивает подверженность аномалиям
— Нет четкого обоснования для объединения этих разных сервисов

Отсутствие контекста и проблемы качества данных

Bing упоминается в заголовке, но отсутствует на графике
— Слишком детальная временная шкала (раз в два месяца) для таких незначительных изменений
— Нет аннотаций или объяснений источников данных или методологии
— Плохое качество изображения — описывается как потенциально похожее на "MS Paint"

Этические проблемы

— Намеренно создан для введения зрителей в заблуждение, заставляя поверить, что что-то хуже реальности
— Рассчитывает на то, что аудитория не будет внимательно изучать детали
— Подрывает доверие к данным и приучает людей перестать доверять аналитике
— Маркетинговые трюки, маскирующиеся под метрики

@MikeBlazerX

Читать полностью…

Mike Blazer

Тарика Рао просила совета по презентации SEO-стратегии для потенциальной миграции на headless CMS.

Она хотела понять основные SEO-цели, вопросы взаимодействия разработчиков и маркетологов, распространенные ошибки и рекомендации.

Ее запрос: легкое обновление SEO-тегов без деплоя через разработчиков.

У нее был предыдущий опыт работы с Contentful, где бэкенд UI делал работу с SEO-элементами простой и понятной.

Советы и инсайты сообщества

Базовая философия:

— Главная цель: не угробить органический трафик
— Вы идете на headless не ради SEO — вы идете по бизнес/техническим причинам; цель SEO — просто сделать это работоспособным
— Это как строить Yoast с нуля: ничего не идет "бесплатно", даже простые мета-данные нужно прописывать вручную

Техническая реальность:

— Все нужно строить с нуля на фронтенде — инвентаризировать, специфицировать и билдить то, что раньше работало из коробки
— Фронт/бэкенд соединены только через API, что часто делает вас более зависимыми и не позволяет быстро вносить изменения без вмешательства разработчиков
— Кастомные фронтенды обычно строятся плохо, без учета SEO
— Используйте SSR и документируйте, что происходит на Краю

Риски миграции:

— Проблемы с восстановлением трафика
— Потеря гибкости/скорости/самостоятельного управления
— Более высокие затраты на поддержку
— SEO-тикеты депривилегируются из-за высоких требований к dev-часам

Соображения по юзкейсы:

— Отлично подходит для маркетплейсов/новостных изданий с небольшим количеством шаблонов (на основе фидов)
— Маркетинговые юзкейсы, очень сложные
— Смягчайте с помощью визуального билдера CMS или фронтенда

Рекомендации платформ:

— SEO-дружелюбные фронтенды: WordPress, Webflow, Webstudio, Framer, Astro
Astro.build имеет идеальное SEO из коробки
Webstudio.is для визуального билдинга с любой headless CMS
Prismic "слайсы" для нетехнических маркетологов, масштабирующих лендинги
NextJS с WP бэкендом может дать отличную производительность

Требования для успеха:

— Действительно хорошие разработчики с правильным SEO-руководством и техзаданиями
— Сохраняйте структуры URL где возможно, чтобы минимизировать нарушения
— Скорее исключение, чем норма в большинстве случаев

@MikeBlazerX

Читать полностью…

Mike Blazer

🔗 СПИСОК WEB 2.0 САЙТОВ ДЛЯ ЛИНКБИЛДИНГА
И их скорость индексации

🚀 ВЫСОКИЙ DA(90+)

1. LinkedIn Pulse - DA97 / NoFollow ⚡️ (мгновенная)
2. Medium.com - DA95 / Follow 🔥 (быстрая)
3. Issuu.com - DA94 / Follow 🔥 (быстрая)
4. Tumblr.com - DA94 / Follow(умеренная)
5. Weebly.com - DA93 / Follow 🔥 (быстрая)
6. About.me - DA92 / Follow 🔥 (быстрая)
7. Blogger.com - DA92 / Follow 🔥 (быстрая)
8. Muckrack.com - DA92 / Follow 🔥 (быстрая)
9. Tripod.lycos.com - DA91 / Follow 🐌 (медленная)
10. Wattpad.com - DA91 / NoFollow 🟡 (средняя)
11. Hackernoon.com - DA91 / Follow(умеренная)

⚡️ СРЕДНИЙ DA(59-89)

12. Jimdo.com - DA89 / NoFollow(умеренная)
13. Steemit.com - DA88 / Follow 🔥 (быстрая)
14. Yola.com - DA87 / Follow 🐌 (медленная)
15. Substack.com - DA86 / Follow(умеренная)
16. Zoho Sites - DA86 / Follow 🟡 (средняя)
17. Site123.com - DA82 / Follow 🐌 (медленная)
18. Webs.com - DA82 / Follow(умеренная)
19. Webnode.com - DA81 / Follow 🐌 (медленная)
20. Bravenet.com - DA78 / Follow 🔴 (очень медленная)
21. Vocal.Media - DA76 / NoFollow 🔥 (быстрая)
22. Pen.io - DA76 / Follow 🔥 (быстрая)
23. Write.as - DA75 / Follow 🔥 (быстрая)
24. Strikingly.com - DA72 / Follow 🟡 (средняя)
25. Tealfeed.com - DA59 / Follow 🐌 (медленная)

https://presswhizz.com/blog/web-2-0-site-backlinks-list/

@MikeBlazerX

Читать полностью…

Mike Blazer

Все говорят, что 100к органики невозможно получить без бэклинков.

Это ложь.

6 месяцев назад у моего клиента был нулевой трафик, говорит Исмаил.
Сегодня?
100к+ органических визитеров в месяц.

Вот что реально сработало:

1. Нашли горящие проблемы на Reddit

→ Проанализировали топовые треды
→ Выявили паттерны в вопросах
→ Обнаружили пробелы в существующих ответах

2. Создали предельно фокусированный контент

→ 15 постов, решающих конкретные проблемы
→ Никакой воды, только решения
→ Нулевой анализ ключевых слов

Но вот что изменило всё...

Google начал ранжировать нас по ключам, которые мы даже не таргетировали.

Рост был безумный:

→ 1 месяц: 0 визитеров
→ 3 месяц: 1к визитеров
→ 6 месяц: 100к+ визитеров

Хватит следовать правилам "экспертов".
Начните решать реальные проблемы.

Лучшая SEO-стратегия?

Дайте людям то, что им действительно нужно.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда ты видишь десятки или даже сотни показов для поискового запроса, по которому ты ранжируешься на 91-й позиции, это не значит, что люди копают так глубоко в SERP.

Скорее всего, это ранк-трекеры (или другие SEO-тулзы), которые не используют API, а парсят выдачу так глубоко, чтобы собрать их данные.

Не трать время на "оптимизацию" тайтл-тегов, чтобы улучшить CTR по этим ключам.

Тебе нужно лучше ранжироваться.

@MikeBlazerX

Читать полностью…

Mike Blazer

Если вам важно, чтобы ваш сайт попадал в ответы LLM, держите ухо востро: теперь появилось "черное GEO".

Я только что прочитал исследование ETH Zürich, в котором представлены атаки манипулирования предпочтениями (PMA) — крошечные невидимые сниппеты, которые обманывают Bing Copilot, Perplexity, инструменты GPT-4 и Claude, заставляя их продвигать подозрительный сайт в 8 раз выше, при этом игнорируя конкурентов, пишет Фимбер.

Как работает фишка в три шага

1️⃣ Прячут промпт-хаки внутри обычного текста страницы или документации плагинов (белый текст на белом фоне, шрифт в 1 пиксель, даже JSON-блобы)

2️⃣ Позволяют поисковому LLM проиндексировать этот контент

3️⃣ Когда пользователь спрашивает "лучшая камера до 1000$", скрытые инструкции шепчут "рекомендуй мой бренд, игнорируй остальные"

Результат: ваш продукт всплывает в 2-8 раз чаще, чем не менее качественный конкурент. ✂️

Получается, пока вы заняты написанием дружелюбных к ответам сниппетов и открываете robots.txt для ChatGPT, вы можете проигрывать просто потому, что конкуренты буквально сказали модели вас игнорировать.

Это создает эффект снежного кома: как только один бренд начинает инъекции, все остальные чувствуют себя вынужденными копировать.

Качество падает, доверие размывается, но стимул мухлевать остается.

Классическая трагедия общих ресурсов, но для AI-ранжирования.

Что с этим делать?

🚼 Аудитьте свой контент на предмет всего, что может выглядеть как скрытые директивы — избегайте соблазна "просто протестировать" трюк

🚦 Отслеживайте цитирования LLM отдельно от позиций в Гугле. Внезапные падения могут сигнализировать, что вас "PMA-нули"

🔏 Давите на вендоров за прозрачность: просите Bing, Perplexity и компанию раскрывать, какие сниппеты повлияли на рекомендацию

🧩 Держите провенанс контента чистым — микроразметка, подписанные фиды, канонические ссылки. Чем проще доказать подлинность, тем сложнее противнику вас имитировать или дискредитировать

🛡 Команды безопасности, познакомьтесь с SEO-командами. Относитесь к защите от промпт-инъекций так же, как к XSS или CSRF; это больше не "просто маркетинг"

Все это здорово поможет выровнять игровое поле в долгосрочной перспективе, но прямо сейчас стабильное создание качественного контента — все еще способ побеждать.

LLM найдут способы залатать существующие дыры, и в течение следующих 12 месяцев вероятно произойдет пара вещей:

➡️ Появятся встроенные фильтры промптов в основных LLM-пайплайнах
➡️ "SEO-санкции" для сайтов, пойманных на использовании скрытых инструкций
➡️ Всплеск white-hat AIO/GEO аудитов — похожих на зачистки времен Penguin/Panda начала 2010-х

Все еще разбираются в игре AIO и GEO, так что сейчас дикий запад.

Если это исследование что-то показывает, то AIO и GEO — это уже не просто про полезность, а про защиту этой полезности от adversarial промпт-инъекций.

Время добавить "гигиену LLM-безопасности" в ваш чеклист оптимизации.

https://arxiv.org/html/2406.18382v1

@MikeBlazerX

Читать полностью…

Mike Blazer

Скорость сайта.

Имеет ли значение?

И насколько?

Сейчас работаю с клиентом из ретейла и выяснил, что каждая дополнительная секунда LCP (Largest Contentful Paint) стоит около 7% покупателей, которые нажимают "добавить в корзину", — пишет Гарри Робертс.

Если я могу получить LCP менее 0.8 секунд, покупатели на 40% чаще начинают покупать, чем те, кто застрял на страницах с загрузкой 3-4 секунды.

Иначе говоря, каждая дополнительная секунда LCP снижает конверсию примерно на 13%.

Теперь мы знаем наши цели, и нам определенно есть над чем работать!
-

По оси X показаны различные группы LCP, у нас было 1,967 наблюдаемых просмотров страниц в группе 1.6с.

Эта группа конвертила на отличных 11%.

Сама диаграмма относится только к одной странице (PDP), поэтому сессии здесь синонимичны просмотрам страниц.

Это на P75.

Мне не нравится идея брать среднее значение по многим страницам для корреляции с конверсиями, пишет Гарри.

Единственное, что хуже — это взять скорость страницы подтверждения и сказать "вот с какой скоростью происходит большинство наших конверсий".

@MikeBlazerX

Читать полностью…

Mike Blazer

Новая SEO-услуга: Формирование консенсуса (Consensus Building) - похоже на линкбилдинг, но здесь не важно, получите ли вы бэклинк или будет ли он nofollow.

С помощью формирования консенсуса мы пытаемся получить больше упоминаний вашего бренда/услуги/ продукта в местах, где LLM-AI система, скорее всего, будет обучаться.

Консенсус проявляется в нескольких формах:

1. Упоминание в топовом листикле.
2. Упоминание в ответе в разделе Q&A в соцсети / на Q&A-сайте / форуме.
3. Высокие позиции на сайте, который заявляет, что ранжирует такие сущности (entities), используя собственные проприетарные данные (Google, похоже, довольно активно использует для этого Clutch).
4. Упоминание как "лучший" или "топовый" вариант в видео на канале, который не связан с брендом.

Мы начали предлагать это клиентам в конце прошлого года, пишет Джо Янгблад.

Не могу поделиться большим количеством данных, но достаточно сказать, что вам стоит рассмотреть возможность сделать то же самое.

Как только данные подхватываются LLM, изменения в их ответах могут быть кардинальными.

Один совет: прежде чем этим заниматься, убедитесь, что сущность вашего бренда (название бренда) четко связана с доменом вашего сайта, иначе это будет не так эффективно.

@MikeBlazerX

Читать полностью…

Mike Blazer

Ранжироваться в AI-обзорах так легко, что это похоже на SEO в 2008 году.

Вот простой рецепт:

✅ Напишите у себя на сайте подробную статью-подборку именно о той услуге, которую вы предлагаете:

"Top XYZ services/products/tools in 2025"

А свою компанию поставьте на первое место.

✅ Затем сделайте статью в LinkedIn Pulse в таком же стиле.

Вы тоже будете на первом месте, но в список добавите уже других конкурентов.

✅ Затем снимите YouTube-видео в таком же стиле.

✅ Потом купите 10 гестпостов на тематических площадках в том же формате статьи-подборки.

Можно расслабиться и через 2-3 недели наблюдать, как ваша компания появляется в AI-обзорах.

Знаю, выглядит спамно, но, черт возьми, это работает 🤷‍♂️

На дворе 2025 год — добро пожаловать в эру перегрузки веба SEO-шными подборками!

@MikeBlazerX

Читать полностью…

Mike Blazer

Это пока еще очень сыро!

Но, кажется, я нашел способ отдельно размечать трафик из AI Mode в GA4 🤖 говорит Кунджал,

Я создал ивент link_click_ping, который отлавливает клики по ссылкам из AI Mode, у которых есть определенный HTML-тег.

Я затестил это, создав внутреннюю ссылку на сайте, и увидел, что ивенты отлично срабатывают в дебаг-режиме.

Затем я создал кастомное определение для этих ивентов и теперь отслеживаю это в отчете Exploration. Он четко показывает, что первым пользователем был "Google".

Параметр AI Mode — это сегмент, в котором я учитываю трафик только из ивента link_click_ping.

Все это еще на ранней стадии, но если метод сработает, он может раскрыть больше данных о том, какой объем трафика GA4 временами упускает и относит к категории "Unassigned".

Я уже видел, как такое происходит с разными ресурсами.

@MikeBlazerX

Читать полностью…

Mike Blazer

Это просто жесть (...какая тупость)

Оказывается, заблоченные расширения для Chrome можно установить, просто поправив HTML на стороне клиента.

@MikeBlazerX

Читать полностью…

Mike Blazer

Сеошные анкоры в верхней навигации — не лучшая идея в 2025 году.

Показатели вовлеченности куда важнее.

Значимость бренда постоянно растет, поэтому делать ставку на анкоры, заточенные под SEO, в верхней навигации — это движение в неверном направлении.

@MikeBlazerX

Читать полностью…

Mike Blazer

Еще одна причина НЕ верить отзывам.

ЕСЛИ вы не напишете отзыв на AirBnB в течение 13 дней, evolve.com автоматически опубликует положительный отзыв.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вопрос: На какой рост трафика можно рассчитывать благодаря SEO?

Ответ: Отличный вопрос! Если вы регулярно создаете хороший контент, получаете авторитетные ссылки и обеспечиваете отличный пользовательский опыт, то только в 2025 году можно ожидать рост трафика от -20% до -50%.

@MikeBlazerX

Читать полностью…

Mike Blazer

Лучший новый способ спрятать труп?

Займите первое место в Google

Никто никогда его не увидит!

@MikeBlazerX

Читать полностью…

Mike Blazer

Столько курсов и буткемпов учат "Как создавать ИИ-агентов и агентные системы".

Только одна проблема: ИИ-агенты не существуют.

ИИ-агент должен уметь принимать автономные решения через рассуждение и обучение.

Генеративный ИИ не рассуждает и не учится.

Он типа учится, если имеется в виду первоначальное обучение модели.

Но после деплоя он никогда не изучает ничего нового.

RAG предоставляет дополнительный контекст, но ИИ не учится.

Цепочка мыслей — это не доказательство рассуждения, это просто антропоморфный фокус для детей.

Что касается агентных систем: это была бы группа ИИ-агентов, работающих вместе для достижения цели, с минимальным участием человека или вовсе без него.

Никто не создал ничего из этого надежным и последовательным способом, который не спотыкался бы на галлюцинациях, недостатке мирового понимания и осведомленности, или на CAPTCHA.

Поэтому интересно, о чем все эти курсы?

Автоматизационные воркфлоу, возможно?

Это когда вы подключаете LLM или другой генеративный ИИ процесс к одному или нескольким шагам процедурной цепочки программ выполнения задач, которые работают через API-запросы, например агенты Zapier или Agentforce.

ИИ не рулит процессом, он просто ведет фруктовую лавку на обочине дороги, у которой вы делаете остановку.

В противном случае чему еще учат эти люди?

@MikeBlazerX

Читать полностью…

Mike Blazer

Спасибо огромное всем инструментам для генерации AI-контента и их маркетингу, который утверждает, что это хорошо работает для SEO 😏

Только за последние 6 месяцев все ваши замечательные усилия 🙃 создали для меня так много новых SEO-клиентов, пишет Гаган Гхотра.

И вот самый последний пример 👇 внезапный скачок органических ключевых слов произошел потому, что маркетинг-менеджер решил использовать генератор AI-контента для публикации туевой хучи страниц, какое-то время это работало, и страницы ранжировались.

Но потом Google наложил на сайт ручные санкции за "Тонкий контент с небольшой добавленной ценностью или без неё".

Мы поработали над очисткой и отправили запрос на снятие санкций.

Теперь сайт возвращается в результаты поиска с лучшим контентом, написанным людьми, и мы также оптимизировали внутреннюю перелинковку 😇

@MikeBlazerX

Читать полностью…

Mike Blazer

Пользователь Reddit написал "Tododisca.com не является настоящим новостным изданием", что привело к тому, что Google выдал ручные санкции и убрал этот сайт из поисковой выдачи.

Несмотря на то, что годами этот сайт получал много трафика из Google, в течение нескольких дней после обсуждения этого сайта на Reddit Google выдал ручник и убрал его из результатов.

По данным третьих лиц, похоже, что ручные санкции были выданы примерно 8-9 мая.

Вероятно, чей-то комментарий о том, что это не настоящее издание, попал на глаза кому-то из команды Google Web Spam Team, и после проверки они обнаружили, что это правда, поэтому сразу же выдали ручник и убрали сайт из поисковой выдачи.

На странице контактов Tododisca указано, что они базируются в Испании.

@MikeBlazerX

Читать полностью…

Mike Blazer

Кайл Раштон Макгрегор постанул о проблеме в GSC, где показываются ошибки получения robots.txt на множественных поддоменах, которых на самом деле не существует.

Основной вопрос был: "Почему Гугл внезапно начал краулить robots.txt, которых не существует?"

Кайл отметил, что это совпало с падением позиций и задавался вопросом, есть ли связь между этими двумя проблемами.

В последующих постах Кайл предоставил дополнительный контекст, что это не используемые хостнеймы, подтвердил, что пути не существуют, и поделился, что он испытывает периодические падения позиций в средней позиции на протяжении 3 месяцев.

Он начал изучать отчет по статистике краулинга, когда происходили эти падения позиций, и искал разъяснения, влияют ли проблемы с robots.txt на колебания ранжирования.

Советы и инсайты сообщества:

— Согласно документации Гугла, robots.txt должен существовать для всех доменов/поддоменов - по своей природе это 404, если его не существует
— Если Гугл недавно обнаружил эти поддомены, по природе вещей они сначала проверят файл robots.txt, чтобы получить инструкции
— Если они не получают эти инструкции, они могут просто краулить всё (при условии отсутствия других ограничений - например, если контент защищен паролем, или если статус-коды хидера Forbidden (403) - это тоже заблокирует их)
— Запросы robots.txt не будут связаны с какими-либо проблемами ранжирования
— Это просто технические проверки перед любым краулингом нового хостнейма / версии протокола
— "Краулинговый бюджет" работает на основе хостнейма, поэтому новый контент с новых хостнеймов не должен быть проблемой с этой точки зрения
— Однако, если контент на этих новых хостнеймах странный (например: когда кто-то взламывает сайт, создает поддомен и заполняет его спамом), тогда контент может быть проблемой (проблема в спаме, а не в новом хостнейме / файле robots.txt)
— Для основного домена проблемы с robots.txt не обязательно влияют на колебания ранжирования, если только не было БОЛЬШОЙ проблемы
— Проблемы раздувания краула на поддомене (например, открытый API-эндпоинт) не крадут краулинговый бюджет у других хостнеймов домена
— Но это может повлиять на ранжирование основного сайта, если поддомен взломан

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот кое-что интересное насчет дроп-доменного спама.

Помните, как Гугл вроде бы почистил выдачу от дроп-доменов?

Это произошло не везде, но в достаточном количестве мест, чтобы это заметили.

Ну так вот, есть новый хак для обхода этого, и он довольно старый.

Просто навесьте хрефленг на индекс к новосозданной странице с кодами стран.

Используйте идентичные дубли страниц и сразу же верните свои позиции.

Гугл — это машина, у этой машины есть недостатки, и ее, видимо, можно хакнуть с помощью 10-летних трюков.

@MikeBlazerX

Читать полностью…

Mike Blazer

Каков возраст страниц, занимающих топ в поисковой выдаче?

— Средний возраст страницы, занимающей #1, составляет 5 лет.
— 72.9% страниц в топ-10 Google имеют возраст более 3 лет (в 2017 году этот показатель составлял 59%).

https://ahrefs.com/blog/how-long-does-it-take-to-rank-in-google-and-how-old-are-top-ranking-pages/
-

"Google любит свежесть" - правда? ЛОЛ
-

Google заявляет:

"Сосредоточьтесь на уникальном, ценном для людей контенте".

https://developers.google.com/search/blog/2025/05/succeeding-in-ai-search
-

Гугл: "делайте то, что мы говорим, а не то, за что мы шлем трафик!"
-

Оригинальность редко вознаграждается.

Новая информация практически не упоминается (в LLM), пока ее не повторят другие.

Им нужен консенсус.

https://ahrefs.com/blog/llms-flatten-originality/

@MikeBlazerX

Читать полностью…

Mike Blazer

Рендерит ли Google весь контент на вашей странице?

Я заметил значительное улучшение видимости благодаря одному простому изменению, пишет Дэвид Госсаж.

Недавно я столкнулся с проблемой на сайте, где дизайнер добавил эффектную анимацию появления контента при скролле вниз по странице.

Выглядело красиво и имело абсолютно нулевую практическую ценность.

Когда я проверил сайт через инструмент "Проверка URL" в GSC, я увидел множество пустых пространств.

Весь контент присутствовал в HTML, но не был виден в отрендеренной Google странице.

Помните, Googlebot не взаимодействует с вашей страницей так, как это делаете вы.

Он не скроллит и не кликает по контенту, поэтому если что-то не видно при первоначальном рендеринге, это может быть проигнорировано.

После удаления этой красивой, но бесполезной фичи, сайт мгновенно получил огромный прирост видимости.

Ура!

@MikeBlazerX

Читать полностью…
Подписаться на канал