замовити дзвінок
+38 (044) 358-48-00
замовити дзвінок
Starting a new project?
отримати консультацію
Читайте наш Telegram 👈
472
3

Поява інтернету значно спростила повсякденне життя. На нього міцно підсіла велика частина населення планети.

Ми їмо, розважаємося, працюємо і шукаємо потрібну інформацію у всесвітній павутині. Складно уявити, яке зараз могло б бути життя без інтернету. Та й якість пошуку інформації спочатку була нестерпною.

Через 20 з гаком років якість видачі без сумніву піднялася на сотні рівнів вгору. Але не можна говорити про те, що питання нарешті вирішилося. Давайте заглибимося в те, як росли та розвиваються зараз сьогоднішні лідери пошуку.


1. Google

У 1998 був запущений перший алгоритм PageRank, який в студентські роки розробили Ларрі Пейдж і Сергій Брін.

Суть алгоритму – чим більше сторінок посилається на джерело, тим більше авторитетною вона вважається, тобто вага посилань грає важливу роль.

Давайте детально розглянемо хронологію оновлень:

  • грудень 2000 – виник Hilltop, який став враховувати геолокацію запиту, динамічний рейтинг і вік документа. Тепер всі запити розділилися на інформаційні та комерційні;
  • лютий 2003 року – перший офіційний алгоритм Boston, який змінив частоту оновлень пошукової бази на щомісячну;
  • квітень 2003 року – Cassandra допомогла відсіяти посилання з дорвеїв, приховані посилання та тексти;
  • травень 2003 – Dominic почав по-іншому враховувати зворотні посилання. З’явилися Deepcrawler (намагається знайти якомога більше сторінок) і Freshbot (займається пошуком нового контенту);
  • липень 2003 – з виходом алгоритму Fritz індекс став оновлюватися щодня;
  • листопад 2003 – Florida знижує позиції доменів з неякісним посилальним профілем, перенасиченим ключовими словами текстами, неунікальною інформацією;
  • лютий 2004 – Brandy навчив пошук розуміти LSI-слова, підвищив роль анкорного тексту, посилального оточення;
  • січень 2005 – алгоритм Nofollow починає боротися зі спамними посиланнями в той же час з’являється однойменний атрибут, який забороняє передачу посилальної ваги (на даний момент атрибут надбав рекомендаційного характеру);
  • червень 2005 – вперше Гугл використовував історію пошуку, щоб персоналізувати результати видачі й ввів поняття карти сайту (файл sitemap у форматі xml містить опис структури ресурсу) для прискорення індексування;
  • жовтень 2005 – Jagger був створений для фільтрації сервісів покупки і обміну посилань (беклінків з посилальних ферм – лінкопомийок);
  • грудень 2005 – Big Daddy ввів такі поняття, як канонічний URL (пріоритетна сторінка), редиректи (перенаправлення з одних сторінок на інші) і т. і.;
  • травень 2007 – на зміну стандартному пошуку з текстовими посиланнями приходить універсальний пошук (додалися картинки, новини, карти);
  • серпень 2008 – із виходом Suggest пошуковик став пропонувати підказки, коли починають забивати запит в пошуковий рядок;
  • лютий 2009 – Rel-canonical дозволив сеошнікам налаштовувати канонічні сторінки;
  • серпень 2009 – Caffeine змінив принцип індексації сайтів (набагато частіше став індексувати сайти) і став приділяти увагу інформації, швидкості завантаження, внутрішній оптимізації. Тепер портали, якими зручно користуватися, містять перелінковку і часто оновлюються, швидше піднімаються вгору;
  • грудень 2009 – формування результатів у реальному часі, зростає швидкість індексації сторінок;
  • травень 2010 – May Day почав враховувати НЧ запити з довгим хвостом (уточнюючі слова);
  • серпень 2010 – тепер сторінка одного домену може кілька разів з’являтися на одній пошуковій сторінці;
  • вересень, грудень 2010 – негативні відгуки починають грати роль при ранжуванні;
  • вересень 2012 – назва домену перестає впливати на позицію в пошуку.

1.1 Список найвідоміших апдейтів Google

  • Лютий 2011 – Panda був розроблений у відповідь на скарги користувачів про низькопробні результати видачі. У підсумку цей алгоритм став щомісяця знижувати домени з переспамленим і неунікальним контентом. Останній раз модернізувався у 2015.
  • Січень 2012 року – Top Heavy веде боротьбу з порталами, перенасиченими рекламою у верхній частині сторінки. Реклама при цьому не повинна закривати основну інформацію.
  • Квiтень 2012 – алгоритм Penguin почав фільтрувати кількість і якість зовнішніх посилань, погіршувалися позиції у сайтів з текстами, забитими ключами. З’явився інструмент Disavow Links (дозволяє відхиляти зворотні посилання в search console).
  • Серпень 2013 – Hummingbird почав кластеризувати ключі (групувати їх за темами), що збільшило релевантність результатів у пошуковій видачі.
  • 2013-2014 – алгоритм PayDay Loan націлений на боротьбу з великою кількістю спаму за висококонкурентними запитами, переоптімізірованними сайтами, заточеними під ВЧ ключі.
  • Липень-грудень 2014 року – Pigeon коригує роботу локального пошуку.
  • Квітень 2015 – Mobile Friendly пріоретизує домени, які адаптовані під мобільні телефони.
  • Жовтень 2015 – алгоритм на основі машинного навчання RankBrain краще розпізнає специфічні пошукові запити, ототожнюючи їх з подібними запитами раніше і дивлячись на поведінку користувача. Вгору піднімаються портали, на яких проводять більше часу.
  • Вересень 2016 року – Possum допомагає знайти найбільш відповідну інформацію в залежності від геолокації в момент пошуку. Адреси компаній перестали дублюватися (1 адреса – 1 рядок).

Обновления Гугл

Рис. 1 – Видача в залежності від геолокації

  • Березень 2017 – алгоритм Fred відсіває ресурси, які створені чисто для просування інших ресурсів (тобто, заповнені рекламними банерами та вихідними посиланнями).

2. Оновлення пошукових систем, які були у 2019 – 2020 році

Нові алгоритми індексації впливають на портали, які буяють “чорним” SEO. Створюються вони з метою очищення пошукової видачі для зручності користувачів.

Ще кілька років тому на перших позиціях вискакували фейкові сервіси, що не несуть змістового навантаження. Сьогодні ця проблема залишилася в минулому, пропали навіть портали з великою кількістю реклами на головній сторінці, редиректами та іншим сміттям.
На першій сторінці вгорі пошуку знаходяться сервіси, здатні дати відповідь на будь-яке питання. Недаремно кажуть: “Гугл знає все”.

Поряд з процесом очищення, пошуковик Гугла постійно змінює рейтинг “хороших” сайтів. Цей процес називається апдейт ядра основного алгоритму ранжування. Про нього читайте далі.


2.1 Ядро основного алгоритма

Раз на кілька місяців компанія Google випускає глобальні поновлення ядра ранжування, які зачіпають позиції сайтів по всьому світу. На відміну від мінорних нововведень, які незначним чином впливають на рейтинг сайтів в пошуку, глобальні апдейти здатні змістити будь-який ресурс з ТОПу. За весь час накопичилося понад 200 чинників ранжування.

У блозі вебмайстрів є стаття (серпень 2019) під назвою What webmasters should know about Google’s core updates, яка містить рекомендації для SEO-фахівців і власників порталів.

Відповідно до неї, якщо сайт втрачає провідні позиції, в першу чергу варто перевірити контент за такими критеріями:

  • зміст та якість (більше тексту за темою, менше води, додайте дослідження, зробіть так, щоб читач поділився статтею);
  • експертність (користувачі можуть довіряти або бажають довіряти викладеному, представлені факти повинні бути правильними);
  • оформлення й підготовка (відсутність орфографічних помилок, дотримання стилістики, коректне відображення на мобільних пристроях);
  • порівняння з конкурентами (яку додаткову цінність несе інформація, чи створена вона, щоб задовольнити інтерес користувача, а не просто просунутися у ТОП).

Core Update (EAT) – Березень 2019

Офіційна назва цієї реновації – March 2019 Core Update. Основна частина ресурсів, на які вплинув цей апдейт — це сайти за запитами YMYL (Your money or Your life).
Ця абревіатура відноситься до інформації, яка може вплинути на фізичну, фінансову, духовну і моральну сторону життя людини. Такими вважаються сайти охорони здоров’я, фінансові та багато інших організацій.

Апдейт набув чинності 12 березня 2019 року і за кілька тижнів був впроваджений по всьому світу.

Обновления

Рис. 3 – Посилання за запитом – сайти клінік

В основному зміни торкнулися порталів, які присвячені здоров’ю і тих, що ранжуються шляхом контенту. Сайти, які постраждали через поновлення Medic (серпень 2019), повернули свої позиції. Зниження позицій торкнулося доменів з поганими посилальним профілем.

У цьому апгрейді ставиться наголос на критерії оцінки якості E-A-T (Expertise, Authoritativeness, Trustworthiness). Контент повинен відповідати вимогам:

  • експертності (відомості від фахівця у своїй області);
  • авторитетності (позитивні відгуки, посилання з інших джерел);
  • достовірності (точність інформації, контакти компанії, цитування інших авторитетних ресурсів).

У 2013 році був випущений гайд для асесорів Google, ось і текстове наповнення сайту потрібно опрацьовувати за ним.

Core Update – Вересень 2019

Офіційна назва – September 2019 Core Update. Цей ап зайняв кілька днів, починаючи з 24 вересня, і торкнувся усіх глобальних індексів.

Ймовірно, цей апгрейд вплинув на домени у сфері туризму, фінансів, медицини, ЗМІ, електронної комерції. Були помічені зміни в SERP.

Google updateу

Рис. 4 – Результат пошуку. Відео – нагорі

Схоже, що зросла роль відеоконтенту для інформаційних запитів. Багато сайтів з першої позиції опустилися до четвертої, тому що тепер над ними розташовується блок з релевантними відео.

Тепер більшість користувачів просто не будуть спускатися до органічної видачі.

BERT – пошукова технологія з відкритим вихідним кодом – Жовтень 2019

25 жовтня 2019 року був запущений BERT. Це пошукова технологія, заснована на штучному інтелекті. Вона допомагає розуміти природну мову користувача. Відкритий вихідний код дозволяє використовувати цю технологію в будь-яких NLP завданнях. Особливо ефективність помітна в пошуку відповіді на голосові запити й довгі низькочастотні ключі. Це найбільший апдейт в процесі пошуку з 2015 (алгоритм RankBrain).

В основі BERT лежать нейронні мережі. З їх допомогою мовні моделі навчаються на контексті речення або тексту. Так досягається розпізнавання слів на будь-якій відстані від ключового слова (двостороння спрямованість).

Google голосовой поиск

Рис. 5 – Голосовий пошук с довгим запитом

Після цього запиту мені спочатку озвучила відповідь Siri, а потім я побачила блок видачі:

Гугл апдейт

Рис. 6 – Видача за довгим запитом

Його попередники могли розрізняти слова тільки до та після основного ключа.

Core Update – Січень 2020

Офіційна назва апдейта – January 2020 Core Update. 14 січня 2020 року Google розгорнув черговий апгрейд ядра основного алгоритму. Воно, як і попереднє, впливає на всі результати пошуку в глобальному масштабі та спрямовано на поліпшення критеріїв E-A-T і переоцінку існуючих сайтів.

Core Update – Травень 2020

Майже через 4 місяці Google запустила черговий всесвітній апдейт під назвою – May 2020 Core Update. Кожне оновлення тягне за собою стрибки у видимості багатьох ресурсів.
За різними спостереженнями, в ТОП піднімалися ті домени, у яких середній сеанс відвідування без виходу назад в пошук займає 5+ хвилин. У запитах по сервісах мікропозик основну частину видачі зайняли агрегатори.

Мобільна версія стала більше впливати на рейтинг, адже Google наполягає на тому, щоб сайт надавав однакову інформацію для мобільних та ПК. Спонсорські посилання тепер рекомендується підписувати атрибутом sponsored (раніше використовувався атрибут nofollow), але міняти атрибут в існуючих посиланнях не потрібно.
Мета оновлень одна й та сама – показувати найбільш релевантні результати, щоб задовольнити інтент користувача. Якість інформації на першому місці.

Під час пандемії поведінка користувачів змінилася, і вони стали більше часу приділяти здоров’ю, більше цікавитися новинами. Само собою, подібні ресурси піднялися вгору пошукової видачі. А ті ж туристичні портали просіли за трафіком, тому що кордони для виїзду закриті.

Про наступні оновлення читайте в статтях:


3. Непідтверджені оновлення

За рік розробники Google можуть внести тисячі коригувань в існуючі алгоритми ранжування. Нещодавно формат повідомлень змінився і всі глобальні апдейти тепер анонсуються в Твиттері.

На впровадження апдейта потрібно в середньому 7-14 днів. Але підсумок можна побачити тільки через кілька тижнів. Зміни в позиціях сайтів можна відстежити за допомогою спеціальних програм, типу SemRush, Ahrefs та інших. Ресурси можуть просідати та підніматися в пошуку, але компанія не завжди анонсує зміни. Вебмастери вважають, що сильні флуктуації відбуваються також і через непідтверджені оновлення. Вони відсівають неякісний контент, оцінюють поведінкові фактори та переоцінюють портали, щоб знову сформувати найбільш підходящі результати для людини.


4. Що теоретично може змінитися з виходом чергового оновлення основних алгоритмів

Критерії достовірності, авторитетності та експертності постійно доповнюються для забезпечення максимальної релевантності інформації за запитом користувача. Пошуковики продовжують боротися з “чорними” методами просування і просять сфокусуватися на якості. Сайтам, які безперестанку працюють над внутрішніми поліпшеннями та мають чистий авторитетний контрольний профіль, боятися нема чого. Для них зміни будуть незначні. Але є ніші, в яких актуальність контенту рідко змінюється, і тоді просадки будуть.
Варто аналізувати й допрацьовувати як кількість посилань, так і інші аспекти просування. Це: швидкість завантаження, юзабіліті, контент на сторінках, авторитетність статей в блозі і так далі.

За весь час існування Google команда розробників займалися створенням середовища підвищення релевантності пошуку для користувачів.

Вимоги до сайтів постійно збільшуються, важливими факторами при ранжуванні залишаються:

  • юзабіліті та адаптивність;
  • оптимізована структура;
  • корисний контент;
  • авторитетні зовнішні посилання;
  • швидкість завантаження.

Відносно старих фільтрів та санкцій, тепер вони – частина цілого пошукового алгоритму, і вже не мають того формату, в якому існували ще кілька років тому.

Цінність ресурсів для пошукових систем дуже сильно залежить від того, чи подобаються вони звичайним користувачам. Якщо дивитися вдалину і припускати, що готують нам алгоритми майбутнього, стане однозначно зрозуміло, що питання завжди залишається відкритим.


Як зробити відео YouTube вірусним

банер кластеризація довгий

Як зробити кластеризацію семантичного ядра

Перевірка унікальності банер

Аналоги російських сервісів для перевірки унікальності текстів

Підпишіться на наші оновлення
Більше корисних статей та мануалів ще попереду. Будьте в курсі

Ви вже підписані на нашу розсилку!

Підтвердіть свій email для завершення підписки.

Замовити
просування
Більше корисних статей та мануалів ще попереду. Будьте в курсі

Дякуємо! Скоро з вами зв'яжеться наш менеджер.