Создание сайта и методы создания нового контента

Создание сайта и методы создания нового контента

Десять дней назад один из читателей спросил меня, как быстро и безболезненно заполнить большой сайт на своем веб-сайте компании, поскольку аргумент ZA сказал, что благодаря этому его сайт получит тысячи посещений за короткий промежуток времени, но не этот вопрос важен — интересный вопрос — какой метод использовать для создания контента. Является ли верный метод, который все еще работает, говорит о заполнении сайта и существуют ли эффективные методы для создания контента?

Давным-давно, когда можно было разместить сайт на конкурсных фразах только с каталогами и преамами, на самом деле приобретение большого сайта в Google принесло ощутимые выгоды. Искатели массово превзошли себя в новых методах создания контента на веб-сайтах, из соскабливания статей из Википедии, путем перевода текстов с английского на польский и заканчивая сложными алгоритмами анализа, обработки и генерации. Все было сделано полностью автоматизированным или, в конечном счете, полуавтоматическим способом, и по низкой цене удалось добиться того, над чем многие люди работали годами. До сих пор работают методы от пары лет? Прежде чем ответить на этот вопрос, я перейду к другому вопросу.

Чтобы сделать его более сложным для Google, в течение последних нескольких лет Google ввел ряд мер безопасности, благодаря которым метод сохранения сайтов на сайте потерял свою эффективность. Основываясь на анализе алгоритмических фильтров, которые я провел за последние два года, мы можем выбрать закономерности, которые привели к штрафам. Одной из таких закономерностей является быстрый рост сайта, будь то путем преднамеренной генерации новых подстраниц на сайте или неосознанного дублирования подстраниц внутри домена и / или поддоменов.

Является ли генерация большого количества подстраниц, контент которых очень близок друг к другу, отрицательно влияет на восприятие домена и увеличивает риск получения штрафа от Google? Конечно, ДА. К сожалению, многие люди все еще предполагают — «больше, что лучше» или «лучше, чем вообще нет», но в настоящее время этот подход имеет короткие ноги, и некоторые люди, которых укусил Панда, обнаружили сами.

Некоторое время назад я писал об rel = «каноническом» великом «эксперте» субъекта, который говорил, что каноническая не была безопасностью, да, это не панацея от всех «болезней», но как показывает практика (пример здесь), правильная каноническая реализация он может уменьшить дублирование и предотвратить последующие события. К счастью, в этом случае, без крика, быстрый ответ помог устранить проблему, но многие владельцы магазинов все еще преуменьшают угрозу. Я надеюсь, что в умах этих людей что-то пошевелится, также из-за похожих статей.

Мы немного отклоняемся от темы, мы возвращаемся к вопросу читателя. Может ли искусственно созданный контент заставлять домен получать тысячи посещений? И да, и нет, все зависит от качества сгенерированного контента, то есть от способа генерации. Наиболее популярным является создание нового контента с использованием синонимов. К сожалению, этот метод в настоящее время не работает, если …

В прошлом году я тестировал возможность использования автоматически созданных текстов для загрузки трафика на целевые страницы. Для этой цели, в частности, я создал простую программу, которая заключалась в создании нового контента, который затем можно было бы разместить (импортировать) на сайте.

Метод оказался частично эффективным, потому что у меня не было времени, чтобы закончить прогностический метод и ввести улучшенный алгоритм кросс-обработки (полученный из генетического алгоритма). Нам удалось загрузить некоторый трафик на спутник, но это было ниже моих ожиданий — другими словами, тест сказал, что игра не стоит свечи. Google отлично справляется с искусственно создаваемыми текстами, но я думаю, что идеал еще долгий путь, конечно, с использованием правильных приложений (алгоритмов) можно создать контент, который будет полностью невосприимчив к обнаружению искусственного контента или иным образом … будет понятным так что алгоритм не сможет ничего обнаружить. Однако помните, что, анализируя полный спектр текстов на веб-сайте, вы всегда можете выбирать закономерности, это относится даже к контенту, написанному людьми, у которых есть свои привычки писать.

В программе я использовал очень простые методы комбинирования и базовой подстановки слов, что бы это было, если бы я основывался на интеллектуальных алгоритмах, содержащихся даже в современных синонимах слова? Если только время позволяет завершить программу, я снова проведу этот метод в этом году.

Для ясности я не убеждаю кого-либо выполнять такие тесты, не говоря уже о создании искусственного контента в доменах компаний — я скажу, что даже я боялся бы использовать методы для лучшего качества, не говоря уже о домене компании. Я провела тест в рамках ежегодных экспериментов, чтобы проверить потенциал метода — мы точно знаем, сколько денег мы тратим, чтобы написать приличное качество контента сзади, если бы мы могли сэкономить даже 50% на текстах, заменяя их искусственно созданным, содержательным, понятным контентом и «иммунизированным», на Google, это было бы отличным временем заставки и, прежде всего, денег, которые приведут к увеличению прибыльности проектов SEO или которые хотели бы увеличить прибыль.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *