Devaka Talk
11.3K subscribers
802 photos
27 videos
26 files
2.65K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
Джон Мюллер посоветовал владельцу низкокачественного сайта «начать всё заново»

Сотрудник Google Джон Мюллер обычно избегает жёстких рекомендаций. Однако на днях он выбрал другую тактику, посоветовав владельцу сайта с контентом низкого качества закрыть его и создать новый.

Вебмастер спросил на форуме Google Webmaster Central Help, почему его сайт не индексируется, несмотря на то, что файлы Sitemaps были отправлены уже неделю назад.

Мюллер ответил следующее:

«Мы не индексируем весь контент и это абсолютно нормально. В вашем случае мы уже индексируем часть страниц с вашего сайта. Однако, глядя на ваш контент, он кажется мне несколько сомнительным, а чтобы улучшить его качество, нужно проделать большую работу. Например, сайт наполнен списками «топ-10 в 2019 году», когда ещё не прошло и недели с начала года. Кроме того, этот контент выглядит как скопированный с других сайтов, что является спамом и нарушением наших рекомендаций для вебмастеров».

Исходя из этого, Мюллер порекомендовал вебмастеру закрыть существующий сайт и создать новый.

«Я бы рекомендовал закрыть сайт и начать всё заново с уникального, привлекательного и высококачественного контента. Выберите тему, которая вам интересна и знакома, и работайте над созданием собственного контента, который сможет выдержать проверку временем и будет выделяться на фоне всех конкурентов как один из лучших в своём роде. Сделайте что-то потрясающее, а не просто сайт».

#searchengines https://l.bbk.name/2GZOinH
Google ответил на частые вопросы по датам на веб-страницах

Google ответил на частые вопросы касательно дат на веб-страницах и поделился лучшими практиками, следуя которым можно повысить точность этих данных в результатах поиска.

Как определяются даты
Google показывает дату в результатах поиска в том случае, если автоматические системы посчитают, что это будет релевантным для пользователя. Например, если пользователя интересует новостной контент.

Поисковик определяет дату, используя ряд факторов, включая даты, указанные непосредственно на странице и в разметке структурированных данных.

Как указать дату на странице
Чтобы Google «подхватил» правильную дату, владельцам сайтов следует:
🔸Чётко указывать дату на странице – так, чтобы она была хорошо видна.
🔸Использовать разметку структурированных данных. Например, схемы datePublished и dateModified. При этом важно убедиться, что для дат в разметке используется формат ISO 8601.

Google News
Google Новости требуют, чтобы на странице были указаны и дата, и время публикации или обновления контента. Одной лишь разметки в данном случае недостаточно. Разметку рекомендуется использовать в дополнение к дате и времени, указанным на странице.

Дата должна отображаться между заголовком и текстом статьи.

Если статья подверглась существенным изменениям, следует обновить дату и время публикации. При этом искусственно «освежать» историю без добавления значимой информации, не следует. Также не рекомендуется создавать статьи, которые практически не отличаются от предыдущей версии, ранее опубликованной на сайте.

Лучшие практики
🔸Обновляйте дату при обновлении страницы. При желании можно указать как дату первичной публикации, так и дату обновления.
🔸Используйте правильный часовой пояс. При указании времени убедитесь, что вы используете корректный часовой пояс.
🔸Будьте последовательными. Даты, указанные на странице и в разметке, должны совпадать.
🔸Не используйте будущие даты или даты тех событий, о которых говорится на странице. Всегда указывайте дату публикации или обновления самой страницы.
🔸Следуйте рекомендациям Google в отношении структурированных данных. Хотя Google не гарантирует, что указанные в разметке данные будут использованы, следуя рекомендациям вы сможете сделать их читаемыми для алгоритмов.
🔸Минимизируйте другие даты на странице. Если вы заметили, что Google «подхватывает» неправильные даты, посмотрите, не содержатся ли на странице те даты, которые должны быть указаны рядом с похожими статьями

Подробнее: https://l.bbk.name/2UqEOEw
#searchengines
Яндекс тестирует на выдаче пометки для сайтов на https

Яндекс начинает помечать на выдаче сайты на https специальными значками. Эксперимент заметил сотрудник компании РуссКом Евгений Бобков, отметив, что сниппеты сайтов, еще не перешедших на защищенный протокол, выглядят как обычно, в то время как сайты на https помещены зеленым замком

В Яндексе подтвердили проведение эксперимента. Елена Першина, маркетолог вебмастерских сервисов Яндекса:
«Мы продолжаем обращать внимание как пользователей наших сервисов, так и создателей сайтов на важность использования более защищенного протокола — HTTPS. Как и обещали, сейчас мы проводим ряд экспериментов и внедрений, чтобы понять, как лучше рассказывать пользователям о том, что сайт использует именно этот протокол. Данный элемент на поисковой выдаче — один из них».

https://l.bbk.name/2T4r4NZ
#searchengines
Яндекс прокомментировал массовую пессимизацию сайтов за перенаправление на автоподписки

С начала апреля на форуме Searchengines.guru ведется горячее обсуждение массовой пессимизации сайтов из-за некачественных рекламных блоков Adsense.

Многие вебмастера отметили падение трафика на своих ресурсах в несколько раз, при том, что в Кабинете вебмастера не появлялось никаких предупреждений о наложении каких-либо санкций. При этом в мобильной выдаче некоторые обнаруживали для сайтов предупреждения о возможных платных подписках.

О том, что сайт перссимизирован из-за размещения некачественных рекламных блоков, вебмастера узнавали только из переписки со службой поддержки Яндекса, которая объясняла, что:

Периодически сайт показывает пользователям мобильного интернета контент, который не индексируется поисковым роботом, и перенаправляет посетителей на страницы с подпиской на платные контент-услуги. Это затрудняет использование сайта и может вводить пользователя в заблуждение, что негативно сказывается на качестве сайта.

Сопоставив данные об имеющемся на пессимизированных сайтах рекламном контенте, вебмастера пришли к выводу, что фильтр Яндекса налагается из-за некачественного содержания блоков Adsense, которые действительно содержат много мусорной рекламы и платных подписок.

Пресс-служба Яндекса так прокомментировала происходящее:
«В 2015 году мы опубликовали пост про внедрение алгоритма, обнаруживающего перенаправление пользователей на страницы с подпиской на платные контент-услуги мобильных операторов. Мы рекомендуем вебмастерам более тщательно контролировать содержимое сайта, в том числе размещаемой рекламы, и следить за поведением пользователей на своих сайтах. В частности, если большая часть пользователей, попадая на сайт, оказывается в итоге на странице с платной подпиской, алгоритмы ограничивают такие сайты в ранжировании, так как мы заботимся о том, чтобы при переходе с результатов поиска на сайт пользователь быстро, эффективно и безопасно решал стоящую перед ним задачу.

Алгоритм анализирует поведение пользователей на сайтах, учитывая как контент веб-страниц, так и рекламу, которая на них размещается. Если реклама мешает пользователю решать задачу или, хуже того, вводит в заблуждение, то это негативно сказывается на пользовательском опыте и соответственно на нашей оценке качества сайта.

Мы также постоянно работаем над улучшением информирования вебмастеров в кабинете Вебмастера о возможных рисках, связанных с индексированием и ранжированием сайтов в Поиске Яндекса».

Автоматическая проверка содержимого сайта Яндексом, по словам Платона Щукина, занимает около месяца:

«Наши алгоритмы регулярно мониторят сайты, внесенные изменения они отследят автоматически. Им нужно несколько раз проверить ваш сайт и убедиться, что нарушений на нем действительно нет и что эта ситуация со временем не меняется. Если никаких нареканий со стороны алгоритмов не будет, то в течение месяца ограничения будут сняты».

По свидетельству вебмастеров, время от начала переписки с Платонами до снятия пессимизирующего фильтра — месяц-полтора. В Кабинете вебмастера никаких пометок о наложении фильтра за перенаправление на платные подписки не показывается.

Проверить свой сайт на наличие фильтра можно так:
🔸зайти в поиск с сотовой сети
🔸ввести в поисковую строку site:ваш сайт
🔸просмотреть все страницы на наличие предупреждения о возможных автоподписках

Если есть предупреждения об автоподписках на вашем ресурсе — писать Платонам. И не только Платонам, но и сюда — Форум сообщества Google Adsense , так как по свидетельству многих вебмастеров качество содержимого рекламных блоков в этой сети уже давно оставляет желать лучшего.

https://l.bbk.name/2Vu2dIW
#searchengines
Google обеспечит большее разнообразие доменов в SERP

Google сообщил о внедрении изменения, которое призвано обеспечить большее разнообразие доменов в результатах поиска.

Запуск этого обновления был начат около двух дней назад. При этом оно не связано с апдейтом основного алгоритма, запущенным на днях.

В результате этого изменения Google не будет показывать больше двух результатов из одного и того же домена в топе поисковой выдачи по конкретному запросу.

«Сейчас в Поиске Google запускается новое изменение, призванное обеспечить большее разнообразие сайтов в наших результатах. Это изменение означает, что теперь обычно вы не будете видеть больше двух ссылок из одного и того же сайта в топ-результатах», — говорится в сообщении компании.

При этом Google оставил за собой право показывать больше двух результатов, когда это оправданно. В частности, если это позволит обеспечить большую релевантность результатов поиска по определённому запросу. Возможно, так будет происходить по брендовым запросам, когда пользователи ищут конкретную компанию.

Что касается поддоменов, то в большинстве случаев они будут учитываться как отдельные результаты.

«Поддомены обрабатываются как части корневого домена. Таким образом, ссылки из поддоменов и корневого домена будут расцениваться как результаты из одного и того же сайта».

Но и здесь возможны исключения. Если Google посчитает, что показ поддоменов обеспечит большую релевантность, то он может их оставить.

Также стоит отметить, что это изменение затронуло только основные результаты и не коснулось поисковых функций, таких как карусели главных новостей, изображений и т.д.

Сотрудник Google Дэнни Салливан также объяснил, что это не совсем обновление, и оно не будет иметь такого же сильного влияния на сайты.

«Лично я не стал бы думать об этом как об апдейте. Это изменение не касается ранжирования. Те сайты, которые ранжировались высоко, продолжат занимать высокие позиции. Мы только не будем показывать так много страниц», — отметил Салливан.

В целом это изменение, вероятно, больше всего отразится на тех сайтах, которые пытаются монополизировать выдачу по конкретным запросам.
https://l.bbk.name/2K9dVDF
#searchengines
Firefox теперь блокирует Google Analytics, но не полностью

На днях Mozilla выпустила обновлённую версию браузера Firefox, который по умолчанию блокирует third party cookies и трекеры. Среди них – и Google Analytics.

В ответ на вопросы специалистов в Mozilla объяснили, что это изменение призвано обеспечить конфиденциальность данных пользователей.

«Чьи данные, как вы утверждаете, мы забираем? Я говорю, что это данные пользователя, а пользователь имеет право сохранять их конфиденциальность. Если пользователь хочет поделиться своими данными о трафике с веб-сайтом, он может отключить защиту от отслеживания», — отметил разработчик Mozilla Аса Доцлер (Asa Dotzler).

Другой сотрудник Mozilla под ником Nukeador также добавил:

«Большинство трекеров собирают идентифицируемые агрегированные данные, включая фингерпринтинг пользователя без уведомления. Пришло время прекратить такие злоупотребления».

Однако позже он отметил, что большинство данных Google Analytics не пострадают от этого изменения.

«Аналитическая функциональность GA (используемая для подготовки отчётов для владельца сайта) основана на first party cookies. Поэтому пользователи по-прежнему будут учитываться в статистике по сайту, как и пользователи Apple ITP».

Также далее выяснилось, что блокировка JS-скриптов, используемых для отправки данных в GA, осуществляется при выборе «Strict» режима в настройках конфиденциальности. При этом по умолчанию включен стандартный режим.

https://l.bbk.name/2EWPepD
#searchengines
Google опубликовал список всех изменений в спецификации robots.txt

В рамках работы по переводу Robots Exclusion Protocol (REP) в разряд официальных интернет-стандартов Google обновил свою документацию по robots.txt.

Все изменения перечислены в новом разделе «What changed» на странице Robots.txt Specifications.

В их числе значатся следующие:
🔸Удалён раздел «Язык требований»;
🔸Robots.txt теперь принимает все протоколы на основе URI;
🔸Google выполняет минимум пять повторений для переадресации. Если файл robots.txt не найден, цикл прекращается и регистрируется ошибка 404. Обработка логических переадресаций к файлу robots.txt на основе HTML-содержания, возвращающего коды 2xx (переадресации на основе фреймов, JavaScript или метатегов обновления) не рассматривается.
🔸Что касается ошибок 5xx, то если robots.txt недоступен более 30 дней, используется последняя копия, сохранённая в кеше. Если она недоступна, Google заключает, что никаких ограничений сканирования не предусмотрено.
🔸Google обрабатывает неудачные запросы или неполные данные как ошибку сервера.
🔸«Записи» теперь называются «строками» или «правилами», в зависимости от ситуации.
🔸Google не поддерживает обработку элементов с простыми ошибками или опечатками (например, «useragent» вместо «user-agent»).
🔸В настоящее время Google обрабатывает файлы robots.txt, размер которых составляет до 500 кибибайт (КиБ), и игнорирует контент, который превышает это ограничение.
🔸Обновлён формальный синтаксис, чтобы он был действительно расширенной формой Бэкуса-Наура (ABNF) в соответствии с RFC5234 и охватывал символы UTF-8 в файле robots.txt.
🔸Обновлено определение «групп», чтобы оно стало короче и лаконичнее. Добавлен пример для пустой группы.
🔸Удалены ссылки на устаревшую схему сканирования Ajax.

В русскоязычной версии документа эти изменения пока не отражены.

https://l.bbk.name/2FK4OFq
#searchengines
В Госдуму внесен законопроект о маркировке запрещенных организаций в агрегаторах

В российскую Госдуму внесен законопроект, согласно которому новостные агрегаторы должны публиковать данные об экстремистских организациях только с указанием того, что те запрещены на территории страны. Документ опубликован на сайте нижней палаты парламента.

Авторами инициативы выступили председатель Государственного собрания Башкортостана Константин Толкачев и депутат Госдумы Павел Качкаев. Изменения коснутся федерального закона «Об информации, информационных технологиях и о защите информации», а также ст. 3.5 и 13.37 Кодекса об административных правонарушениях.

Согласно документу, при распространении информации о нелегальных организациях, агрегаторы и аудиовизуальные сервисы наравне со СМИ должны указывать, что их деятельность прекращена или запрещена на территории России.

Согласно документам, за нарушение правил публикаций на физических лиц предлагают накладывать штрафы в размере от 2 тыс. до 2,5 тыс. руб., на должностных лиц — от 4 тыс. до 5 тыс. руб. и на юрлиц — от 40 тыс. до 50 тыс. руб.

Данные требования предусмотрены ФЗ «О противодействии экстремистской деятельности», утверждают авторы. Отсутствие ограничений, по мнению авторов законопроекта, «создает благоприятную почву» для «неверной интерпретации событий» и позиционирования запрещенных организаций как законно действующих.

Яндекс считает излишним этот законопроект о запрете упоминания запрещенных организаций в новостных агрегаторах без пометки.

Как пояснили в пресс-службе:
«Мы считаем данную инициативу излишней, так как новостные агрегаторы получают информацию от зарегистрированных СМИ, для которых предложенная норма уже действует».

https://l.bbk.name/2xw0oh2
#searchengines
Google: для нас важна не скорость приобретения ссылок, а их качество

На днях сотрудник Google Джон Мюллер ответил на вопрос о том, может ли очень быстрое получение большого количества ссылок привести к санкциям.

Так, один из вебмастеров спросил:
«Если я получу 200 обратных ссылок за 2 дня, не занимаясь ранее линкбилдингом, то Google расценит это как “чёрное SEO” и накажет меня?».

Отвечая на вопрос, Мюллер сначала отметил, что если речь идёт о получении большого количества ссылок за столь короткий срок, то сразу напрашивается мысль, что это будут не естественные ссылки, а купленные, что Google не приветствует.

При этом для поисковика главным является не скорость получения ссылок, а их качество.

«Так что дело не столько в том, сколько ссылок вы получите за определённый период времени. Если это неестественные ссылки или проблематичные с нашей точки зрения, то они и будут проблематичными. И здесь не важно, сколько и в какое время», — сказал Мюллер.

Следовательно, скорость приобретения ссылок и период, в течение которого они были получены, не являются значимым фактором для Google.

https://l.bbk.name/2pGVrRV
#searchengines #мюллер
Джон Мюллер о ноябрьском обновлении алгоритма Google

В ходе последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер ответил на вопрос от издателя, потерявшего 40% трафика в результате обновления поискового алгоритма в ноябре. Он также поделился советами о том, на чём следует и не следует фокусироваться в связи с этими изменениями.

Автор вопроса заявил, что он всегда следовал рекомендациям Google, не занимался покупкой ссылок и основной упор делал на контент. Несмотря на это, его сайт попал под последнее обновление поисковой системы. Вебмастер решил, что причина в BERT.

«Google BERT Update затронул два моих ресурса и трафик упал на 40%. Единственное, что я делал, это следовал рекомендациям Google. Я не построил ни одной ссылки и фокусировался только на создании контента. Сайт ранжировался в топ-3, а трафик улучшался с каждым днём. Однако после BERT по основным ключевым словам сайт переместился на четвёртую и пятую страницы результатов поиска, тогда как по long-tail запросам ничего не изменилось. Мой сайт имеет отличный UX, а пользователи в среднем проводят на нём 5 минут… Что происходит?».

Отвечая на вопрос, Мюллер сразу подчеркнул, что это ухудшение вряд ли имеет отношение к BERT. Он объяснил, что BERT связан с лучшим пониманием поисковых запросов и текста в целом. И маловероятно, чтобы страница внезапно стала менее релевантной. Кроме того, BERT обычно используется при обработке более сложных запросов.

При этом Мюллер напомнил, что Google постоянно вносит изменения в свой алгоритм. И несколько таких изменений были внедрены в последний месяц.

«Мы вносим изменения всё время. Мы также внесли несколько изменений в работу основного алгоритма в течение последнего месяца или около того, которые могли совпасть с запуском BERT».

По мнению Мюллера, проблемы сайта связаны с обновлениями, призванными улучшить релевантность и определение более качественных страниц:

«Так что я предполагаю, что эта ситуация не имеет никакого отношения к BERT, а больше связана с обычными алгоритмическими изменениями, когда мы стараемся понять, какие страницы более релевантны, какие из них лучше и имеют более высокое качество, и как мы можем показывать более релевантные страницы в результатах поиска».

Продолжая свою мысль, Мюллер посоветовал не фокусироваться на BERT или техническом SEO, а вместо этого проанализировать UX.

«Поэтому моей рекомендацией будет не фокусироваться на BERT и чисто технических аспектах. Вы упомянули UX, скорость… В данном случае я бы уделил внимание улучшению сайта в целом».

Мюллер также посоветовал издателю ознакомиться с руководством по обновлениям основного алгоритма для вебмастеров.

https://l.bbk.name/2CNL9CI
#searchengines #мюллер
Первые результаты январского обновления алгоритма Google

Издание Search Engine Land опросило ряд поставщиков данных, чтобы выяснить, как последнее обновление основного алгоритма Google – January 2020 Core Update – повлияло на результаты поиска.

Как известно, Google приступил к запуску обновления 13 января. По состоянию на 17 января его внедрение было по большей части завершено, но полный запуск обычно занимает порядка двух недель.

Все провайдеры данных, опрошенные Search Engine Land, сошлись на том, что январское обновление было крупным и повлияло на большое количество сайтов.

RankRanger
Директор по маркетингу RankRanger Морди Оберштейн (Mordy Oberstein) отметил, что ниша YMYL (Your money or Your life) была затронута очень сильно:
«Это огромное обновление. В топе SERP наблюдаются крупные изменения в таких нишах, как «Здоровье» и «Финансы», и невероятные увеличения по всем нишам, если смотреть на топ-10 результатов в целом».

«За исключением сегмента “Розничной торговли”, который, по моим наблюдениям, был в фокусе обновления от 6 декабря, January 2020 Core Update – это намного более крупное обновление по всем категориям и по каждой позиции в ранжировании»,
— добавил Оберштейн.

SEMRush
В SEMRush предоставили следующий комментарий:

«Мы можем видеть, что последнее обновление Google было довольно крупным и затронуло практически все категории».

Наиболее волатильными категориями (где колебания были максимально выраженными) являются «Спорт и новости», «Онлайн-сообщества», «Игры», «Искусство и развлечения» и «Финансы».

При этом в SEMRush добавили, что крупные изменения наблюдались по всем категориям, поэтому можно предположить, что данное обновление не было нацелено на какую-либо конкретную тематику.

На диаграмме ниже показана сравнительная волатильность по мобильным и десктопным результатам поиска

Sistrix
Компания Sistrix традиционно опубликовала анализ очередного апдейта Google в своём блоге.

По данным компании, в ходе этого обновления домены, относящиеся к YMYL-тематике, были переоценены поисковым алгоритмом, что привело к изменениям в видимости.

При этом те домены, которые уже были затронуты такими обновлениями, вероятно, будут затронуты снова.

Что касается абсолютных колебаний, то с каждым последующим обновлением они уменьшаются. Google становится более точным в своих оценках и не сильно отклоняется от предыдущих оценок.

SearchMetrics
Основатель SearchMetrics Маркус Тобер (Marcus Tober) предоставил следующий комментарий:

«January Core Update обратил некоторые предыдущие изменения – в лучшую или худшую сторону, в зависимости от сайта. Это ещё одно обновление основного алгоритма, где был пессимизирован «тонкий» контент и где Google сделал упор на YMYL. Это обновление, по-видимому, не повлияло на такое большое количество страниц, как мартовское или сентябрьское. Но оно имеет схожие характеристики».

Он также привёл несколько примеров.

Так, сайт Onhealth.com был среди «победителей» после March 2019 Core Update и «проигравших» после September 2019 Core Update. При этом в ходе January Core Update сайт снова оказался в числе тех, у кого наблюдались положительные изменения.

Другой ресурс, Verywellhealth.com, был в числе «проигравших» в ходе нескольких таких обновлений.

Draxe.com, который переживал как подъёмы, так и падения во время Core Updates, в этом обновлении улучшил свои позиции на 83%.

Общая картина
В целом, согласно представленным данным, обновление было широким, коснулось практически всех категорий и принесло как улучшения, так и потери.

https://l.bbk.name/2NL8SsV
#searchengines
Google опубликовал видеозаписи докладов из Webmaster Conference в GooglePlex

В ноябре прошлого года Google впервые провёл Webmaster Conference в своей штаб-квартире в Маунтин-Вью. Сегодня на YouTube-канале Google Webmasters были опубликованы видеозаписи 8 докладов сотрудников поиска, посмотреть которые теперь могут все желающие.

Видеозаписи выступлений:
🔸Открытие мероприятия:
🔸Дедупликация
🔸Google Images
🔸Рендеринг в Google
🔸Заголовки, сниппеты и превью результатов
🔸GoogleBot и веб-хостинг
🔸Панели знаний в Google
🔸Улучшения в поиске Google за последние годы

https://l.bbk.name/33Zvj4u
#searchengines
Новое расширение от Google создаёт ссылки на определённый фрагмент страницы

Google разработал новое расширение для Chrome под названием Link to Text Fragment, которое позволяет создавать ссылки на определённый текст на странице – независимо от её форматирования.

После установки расширения достаточно выделить тот текст, на который нужно сослаться, нажать правую кнопку и выбрать пункт «Copy Link to Selected Text».

На данный момент эти ссылки поддерживаются в Chrome и Edge. Что касается Safari и Firefox, то их разработчики пока не ответили, планируют ли они внедрять эту функцию.

Новое расширение создано на основе функции Text Fragments, недавно добавленной в Chromium. Это та же технология, которую Google теперь использует в работе избранных сниппетов.

https://l.bbk.name/3hybBDo
#searchengines