Привет, друзья! Сегодня в очередной раз хотел бы затронуть вопрос управления индексацией сайта. Еще более продвинутый способ, нежели использование метатега robots, по сути, являющийся его аналогом, но работающий не на уровне страниц, а на уровне заголовков header. Речь пойдет о X-Robots-Tag HTTP header – метод не нов (Google рассказали о нем ровно 6 лет назад, летом 2007 года), но почему-то мало кто знает об этом способе, а людей пользующихся я вообще не встречал пока.
X-Robots-Tag штука очень полезная, а главное простая в использовании, надеюсь, после моего поста вы это поймете и будете использовать в своей практике.
Привет, дорогие мои друзья! Целых два месяца на моем блоге не появлялось новых постов, и нет мне за это прощения. Но наконец-то свершилось. И не только появление нового поста. Я с радостью спешу сегодня вам представить то, что отвлекало меня все это время не только от ведения блога, но и ото сна…
УРА! Сегодня релиз моей первой программы – это seo-софт под названием FastTrust! Тот самый мега-софт и почти «кнопка бабло» :)
Те, кто читает меня в Твиттере, могли еще давно заметить пару раз мелькавший хештег #FastTrust. Именно про этот софт были мои мысли (или даже мечты), когда я писал пост про проверку качества ссылочного профиля. А ведь тогда я даже не подозревал, что из этой затеи получится, да и получится ли что-то вообще!
Привет, друзья. Надеюсь, вы меня не потеряли. Из-за этих праздников и выходных весь рабочий дух растерялся, кое-как пытаюсь собраться. Но я обещал, а потому сегодня расскажу о том, как продвигаются дела с разработкой софта, его будущий функционал и сколько же денег мы с вами собрали :)
Для тех, кто не в курсе, о чем речь, напомню про мой предыдущий пост про проверку качества ссылок и TrustRank. На данный момент стоит задача разработать некоторый программный комплекс, который бы решал задачу оценки качества доноров по определенному списку параметров, критериев. И если в посте по ссылке выше речь шла только про один сервис majesticseo.com и расчет траста по его данным, то в будущем софте планируется несколько десятков параметров.
Привет, друзья. Давно у меня не было никаких экспериментов и интересных исследований. Но вот вчера меня посетила хорошая, как мне кажется, идея – изучить качество ссылочных доноров и проследить, как это влияет на продвигаемый сайт.
Примерно неделю назад Серёга Кокшаров опубликовал интересный пост, рассказав о быстром методе оценки качества ссылочного профиля: «Одним из ссылочных сигналов, влияющих на доверие поисковиков к сайту, является TrustRank, который в классической форме означает удаленность сайта от заведомо трастовых ресурсов в своих ссылочных связях.» На пальцах это обозначает следующее: если на наш сайт ссылается какой-то очень уважаемый сайт, то это хорошо, или если на нас ссылается сайт, на который ссылается уважаемый сайт, то это тоже неплохо. А вот если в окружении нашего сайта нет так называемых трастовых сайтов или сайтов, на которые ссылаются трастовые сайты – то все плохо. Абстрактно, разумеется…
Поговорка «лучше меньше да лучше» здесь как нельзя кстати – лучше, если на вас ссылается несколько хороших сайтов, чем очень много мусорных сателлитов или сплогов. Это давно известно. Скорее всего, как раз по причине плохого ссылочного окружения сайтам и приходит пипец пингвин.
Привет, друзья. Ни для кого из нас не секрет, что последовательность слов в ключевой фразе играет важную роль, и порой не просто важную, а критическую. Проверяете ли вы как-то правильный порядок слов или отдаете это на откуп логике и здравому смыслу? А ведь очень часто наша логика ошибается…
Короче говоря, пользуясь привычным вордстатом от Яндекса, порой недостаточно знать просто уточненную частотность запроса. Об этом я сегодня и расскажу. Для кого-то это будет откровением, а кто-то скажет, что и так все знал. Так или иначе – это еще один очень полезный инструмент в вашу копилочку.
Привет, друзья. Сегодня мы поговорим про интересные вещи, а именно про шпионаж за своими конкурентами. Я хочу рассмотреть несколько нехитрых способов узнать ключевые слова конкурентов в выдаче. Сразу вам скажу – если вы думаете, что знаете наперед, о чем я напишу, то это не так, — среди моих методов есть и совсем нетривиальные варианты, так что советую прочитать.
Эта «забава» может быть полезна в качестве дополнения к вашему семантическому ядру, когда собственные идеи на исходе. Я придерживаюсь мнения, что когда сайт только создается, уже должна быть готова примерная структура и заготовки будущих статей, т.е. примерное СЯ уже имеется, а расширять его надо потом.
Лично я «заимствованием» запросов у конкурентов не часто занимаюсь, но тут на новогодних праздниках не знал чем заняться и решил просмотреть, за счет чего же получают свой трафик известные мне seo-блоги и тематический ли он. Увидел интересную картину :) Ниже я опишу методы и инструменты, которыми я пользовался, плюс интересные фишки.
Привет, друзья. В кои то веки пишу очередной пост в рубрику про SEO Софт, и есть повод! Вы наверняка помните мой пост про Page Weight Lite, который я писал почти год назад, за это время произошли серьезные перемены, к счастью, в лучшую сторону.
Летом этого года я получил на почту заманчивое предложение принять участие в бета-тестировании нового продукта, логического продолжения любимого мной софта – Page Weight, — слухи о скором появлении версии 2.0 ходили и до этого, но письмо стало реальным тому подтверждением.
Конечно, я с радостью принял предложение и скачал тестовый билд новой версии. Первое впечатление – взрыв мозга. Для тех, кто уже знаком с PW Lite и не знаком с PW Desktop, это станет таким же откровением, как и для меня. Полностью новый интерфейс, новая структура и, по ощущениям, это совершенно другая новая программа, не имеющая ничего общего с предшественником. Ну да, это так — общее только название, а все остальное сделано с нуля.
Мне очень приятно, что я принял участие в развитии программы, какие-то из моих мыслей и пожеланий нашли свое место, и вы будете пользоваться программой и не знать об этом, но мне все равно будет приятно.
В этом посте я хочу рассмотреть все то новое, что ждет нас в программе. А так же постоянным читателям я сделаю подарок – 3 бесплатных безлимитных лицензии на Page Weight Desktop!
Привет, друзья. Давно я вас не радовал новыми постами, тут дела, работа, стартапы, ну, вы понимаете. Зато сегодня будет более чем полезный и практический пост о том, как закрыть любую ссылку от индексации, внешнюю или внутреннюю, не важно, важно, что она не будет забирать и передавать вес.
Не я первый и не я последний, кто экспериментирует со скрытием ссылок. Много экспериментов уже было, в том числе много неуспешных. А наш успешный :) Иначе бы я и не поделился с вами результатами!
Сразу хочу выразить свою благодарность всем форумчанам, кто принимал участие в эксперименте, а особенно Паше Белоусову, вы его знаете по нику ПафНутиЙ. Паша предложил изначальный вариант, я его немного модифицировал, так или иначе, все варианты я выложу в посте, вы выберете понравившийся. Да, заходите в гости на Пашин блог и подписывайтесь на него в Тви ему будет приятно.
Итак, что нам понадобится для запрета индексации ссылок – подключенная библиотека jQuery (Паша говорит, что нужная версия 1.7+), HTML5 (но можно и без этого обойтись) и совсем базовые знания html и css. Короче, все проще простого.