- Як працювати з LSI в SEO
- Схема роботи №1
- Схема роботи №2
- Контент в епоху нових пошукових алгоритмів
- Яким повинен бути контент?
Автор: Тетяна Стефаненко, головний редактор відділу контенту департаменту SEO « Ашманов і партнери »
LSI-копірайтинг в SEO застосовується давно. Але тільки в останні півроку стали дуже багато про це говорити. І це зрозуміло. Принципи LSI оголосили панацеєю, коли пошуковики почали визначати релевантні сторінки виключно за змістом, а за нісенітницю з SEO-ключами заганяти під фільтр. І ось з'явилася така мантра - всім буде добре від осмисленого LSI-контенту: і вашому сайту в ранжируванні, і пошуковикам, і людям, які шукають повний і точний відповідь на свій запит. Чому так? І як це працює? У статті ми зібрали інформацію про LSI в SEO і розповіли коротко, як у нас виходить все це робити, щоб не потрапити під «Баден-Баден» за переоптімізацію і поліпшити видимість.
Якщо ви в курсі, що таке LSI-копірайтинг (latent semantic indexing), пропустіть цей абзац. Якщо немає, то докладно про термін можна дізнатися з wiki . А якщо коротко, то це метод написання корисних текстів, які розцінюються пошуковими системами як релевантні ключовому запиту при аналізі супутньої семантики (відповідні тематичні фрази, слова, синоніми і т.п.). Робот обчислює не по схемі «запит - заголовок сторінки», як колись робив «Палех» Яндекса, а по відповідності «запит - весь документ». Так діє зараз «Корольов». Він аналізує весь зміст сторінки, щоб виявити змістову відповідність запиту або відсутність такого (аналіз LSA ). І якщо ти хочеш бути в ТОПі, то потрібно розміщувати на сайті осмислені тексти, тобто писати по LSI для SEO-просування.
І це не новина. Про LSI-копірайтинг писали ще років десять тому, якщо не більше. Як правило, за межами рунета. У російському інтернет-просторі про LSI заговорили в зв'язку з алгоритмом Panda від Google. Але особливо активно рунет здригнувся цієї весни, коли Яндекс запустив алгоритм «Баден-Баден» для визначення переоптімізірованние сторінок. Тоді під фільтр потрапили сайти з текстами, де було більше SEO-ключів, ніж сенсу.
Ось за це сайти потрапляють під фільтр. Приклад переоптімізірованние тексту про буріння свердловин:
Сайту з такими текстами - дорога в «Баден-Баден». Сервіс «Тургенєв» * (робоча назва) поставив йому 14 (максимальний бал). Це означає, що рівень нісенітниці зашкалює, і сайт дуже ризикує потрапити під фільтр. Якщо вже не там.
Текст з нульовим ризиком «Баден-Бадена»:
Аналіз цього тексту не показує ризик, це означає, що все ок. У цьому фрагменті значно більше сенсу і конкретики, ніж в попередньому тексті. Але є інші проблеми. Дивимося підсвічування і колонку праворуч. Потрібно попрацювати над стилістикою та використовувати більше синонімів слова «вироби», замінити «рекомендується», «оптимальну» і т.д.
Як працювати з LSI в SEO
Зараз багато протиставляють SEO- і LSI-тексти. Хоча, по суті, якісний копірайтинг для SEO-просування будувався і будується за тими ж принципами, що і LSI. Просто оптимізатори повинні складати адекватні технічні завдання, а автори - писати по темі без «води», структурувати текст і органічно включати ключові запити в допустимій кількості.
Схема роботи №1
Поширена схема роботи SEO-агентств:
- Оптимізатор збирає LSI-ключі за допомогою сервісу (звичайно, Парс при цьому ТОП-10).
- Оптимізатор становить технічне завдання (ТЗ) копірайтер по набору ключових запитів, але без списку LSI-оточення!
- Автор пише текст. І потім оптимізатор перевіряє його по SEO-параметрам, інформативності і на відповідність семантичному оточенню зі свого LSI-списку.
Вважається, якщо автор розкрив тему повністю, то там повинні бути всі необхідні LSI-ключі. Це така своєрідна перевірка експертність автора і в той же час полегшення його праці, так як копірайтер не зациклюється на додаванні LSI-ключів, а думає виключно про розкриття теми статті. Непоганий підхід, але є питання. Наскільки вірно оптимізатор підібрав свій блок «перевірочних» LSI-фраз? І не звужує чи парсинг ТОПу набір семантики? Орієнтація на конкурентів, по суті, створює щось на зразок filter bubble , Обмежуючи нас від важливої інформації, тієї семантики, про яку ми навіть не здогадуємося.
Є кілька інструментів, що дозволяють правильно підібрати семантичне оточення:
- пошукові підказки
- Рекомендації Яндекса і Google внизу сторінки
- Права колонка Яндекс.Вордстат
- спеціальні сервіси
Докладний список інструментів описаний в блозі Сергія Кокшарова .
Додамо до цього ще інформацію з брифа і всіх доступних матеріалів від замовника (pdf-інструкцій, презентацій і т.д.). Потрібно звернути увагу на термінологію, усталені вирази ( колокації , Як їх ще називають), щоб розширити семантичний пул.
Схема роботи №2
Ми десь з 2015-го року вже збираємо LSI-семантику на додаток до ключових слів для ТЗ. Чи не для всіх проектів, але такі завдання з'явилися не вчора. Коротко - як зараз у нас це відбувається:
- Проводиться розподіл запитів по сторінках. При розподілі запитів застосовується кластеризація по ТОП-ам. Процес кластеризації полягає в тому, що запити об'єднуються в групи за умови наявності певної кількості загальних URL в ТОП-10 за кожним запитом. Таким чином, можна зробити твердження що, існують такі ресурси, текстова оптимізація яких дозволяє ранжуватися їм в ТОП-10 по всій групі запитів.
- Далі в текстовий аналізатор (ТА) подаються запити для підрахунку середньої кількості входжень зазначених запитів.
- Так як у нас проектів не 2-3, а понад сотню, то при підборі LSI-семантики і складанні ТЗ, використовуємо текстовий аналізатор, розроблений в рамках «Лабораторії пошукової аналітики» нашої компанії.
- Далі оптимізатор переглядає результати, отримані за допомогою ТА (текстового аналізатора), і при необхідності додає ще ключі, допсемантіку, виходячи зі свого експертного аналізу і враховуючи стратегію замовника (наприклад, просунути товари певних брендів).
Фрагмент ТЗ для інформаційної статті про інвестиції в нерухомість Сочі (для блога сайту по нерухомості).
«Доп. слова »- це якраз і є LSI-ключі. Тут їх всього 1.
Повне технічне завдання не наводимо, так як в ньому вказані мета-теги, рекомендації, що стосуються конкретного замовника, це не можемо світити. Але не суть. Як бачите, ТЗ НЕ напхане запитами і навіть LSI-ключами. На виході - в статті була інформація про вартість квадратних метрів, ліквідності житла, статистичні дані і т.д. Все по темі. У березні 2017 року було опубліковано статтю в розділі articles сайту. Ось, що ми побачили за запитами:
Інший приклад. В рамках «Лабораторії пошукової аналітики» оптимізатор проаналізував сайт і основних конкурентів по найбільш важливим запитам семантичного ядра. При пошуку LSI-оточення використав безкоштовний сервіс pixelplus , А також наш власний сервіс «Тургенєв».
Загалом, схема складання ТЗ та ж, що і вище описувалася. Фрагмент текстової рекомендації:
Довгий список з графи «Додатково необхідно використовувати» - це LSI-оточення (тематичні слова). Зрозуміло, що в тексті про гідрокостюм для плавання і бігу будуть фігурувати слова «вода», «спортивний» і т.д. Однак не так очевидно згадка брендів Tyr і Aqua Sphere.
По суті, цей список - семантична матриця для написання тексту, опорні пункти, які слід акуратно включити. І в підсумку для цього інтернет-магазину ми написали близько 35 текстів (для фільтрів, в розділи каталогу). У серпні розмістили їх на сайті. Але не все відразу. Так, «Тургенєв» видав за деякими текстам показники ризику «Баден-Баден». Ми проаналізували тексти, виправили і тільки тоді залили на сайт.
В середині вересня видимість підросла з 52.98% до 57.51%. Нижче графік порівняння з конкурентами (видимість по семантичному ядру, см. Червоний вектор).
Контент в епоху нових пошукових алгоритмів
Зараз багато детально досліджують можливості LSI. Це цікаво. І, звичайно ж, можна вивчити n-програмний аналіз, потім навчитися писати тексти по векторної моделі, зібрати колокації (стійкі вирази, характерні для тематики) та їх правильно розподіляти по простору тексту. Створювати такі семантично ідеальні тексти для пошукових систем - це цікаво як експеримент, але не має сенсу. Нейронні мережі все одно будуть працювати швидше нас і скоро розпізнають підробку. LSI-принципи корисні тільки в вигляді зводу правил при написанні якісного контенту.
Яким повинен бути контент?
- У списку вимог до LSI-текстам в Вікіпедії вказані всі ті умови, які повинні бути виконані при написанні будь-якого хорошого тексту. Користь, простота викладу, структура, логіка, ритм, достовірність і так далі.
Цікаво, за якими критеріями пошуковики планують визначати достовірність інформації? Навіть на авторитетному ресурсі може бути стаття дивного змісту. Як приклад наведено не LSI-текст, а чарівну статтю з дуже авторитетного журналу кінця XVIII-го століття:
«Бібліотека вчена, економічна, повчальна, історична та розважальна на користь і задоволення Всякого звання Читачів» (1793 г.). Книга із зібрання Тобольського архіву.
Текст для тих, хто не бачить на фото:
По частині достовірності інформації (особливо в складній медичної тематики) сьогодні багато питань. Навіть у самих медичних фахівців - вони обурюються тим, що тексти копіпаст з однієї клініки на іншу, не замислюючись про зміст і достовірності. І інший момент - у самих лікарів часом розходиться уявлення про достовірність тієї чи іншої методики лікування, діагностування. Але це тема іншої статті.
- Повинна бути жорстка семантична зв'язок всередині тексту - текст чітко по темі, без довгих ліричних відступів (не потрібно розмивати семантику).
- Повинна бути семантична зв'язок тексту з іншими елементами web-сторінки. Текст повинен гармонійно вписуватися в загальну структуру, не дублювати, а інформаційно доповнювати інший контент (кнопки, банери, фото, відео і т.д.). Сьогодні копірайтинг існує в комплексі з інтерфейсом, тому потрібно писати текст, враховуючи композицію і додаткову інформацію решти контенту на сторінці. Деякі вже пишуть тексти в спеціальних програмах-редакторах або програмах для прототипів - просто переносять туди візуальний контент зі сторінки (Axure Pro, в блокноті Evernote і т. П.). Так текст краще пишеться, тому що ти його бачиш в загальному контексті, а не у відриві від реальності в ворде.
- Ілюстрації повинні бути по темі, так як нейросеть розпізнає картинки не тільки по навколишнього тексту, але і по зображенню. Швидше за все, це буде впливати на ранжирування теж.
Власне, поки все. Чи не журіться, LSI-копірайтинг вам в помощь!
LSI-копірайтинг і SEO або Контент в епоху нових пошукових алгоритмів
Чому так?І як це працює?
Наскільки вірно оптимізатор підібрав свій блок «перевірочних» LSI-фраз?
І не звужує чи парсинг ТОПу набір семантики?
Яким повинен бути контент?
Цікаво, за якими критеріями пошуковики планують визначати достовірність інформації?