Интернет – очень динамичная среда. С момента публикации предыдущей статьи «Исследование состояния файла robots.txt сайтов Яндекс.Каталога» прошло уже два с половиной года. Это очень значимый срок. За это время многие технологии успели устареть, а те, которые раньше были лишь уделом новаторов и экспериментаторов, заняли серьёзные позиции, и без них уже сложно представить современную веб-разработку. Сайтостроительство из «кустарной» отрасли превращается в отрасль
Если Вы не помните географию из школьного курса, всегда есть возможно её повторить по визам в загранпаспорте, по карте прогноза погоды в вечернем выпуске новостей… Оптимизаторы и их клиенты вспоминают географию вместе с Яндексом: с недавних пор поисковик дает имена своим новым алгоритмам поиска сайтов по названиям городов России. Эти «воспоминания» учебного курса в данном случае, как правило, не очень приятные. Представьте, что Вы выучили урок, а кто-то на карте передвинул горные массивы
Яндекс начал показывать результаты поиска с учетом региона, из которого был задан запрос. В стратегии поисковой оптимизации теперь необходимо внести ряд корректировок. Географический таргетинг поиска может быть очень полезен для бизнеса.
Не помните географию из школьного курса? Поисковые оптимизаторы и их клиенты вспоминают её вместе с Яндексом: с недавних пор поисковик даёт имена своим новым алгоритмам поиска сайтов по названиям городов России. Последнее обновление алгоритма в апреле 2009 года
Введение
Традиционно поисковую оптимизацию делят на две большие составляющие: работа над внутренними факторами и работа над внешними факторами. Под внутренними факторами чаще всего понимают оптимизацию самого документа, повышение его релевантности по определённым поисковым запросам. Внешние факторы – это ссылки. Этим аспектам посвящено достаточно большое количество статей и докладов. Однако при таком разделении выпадает из вида одна очень важная составляющая продвижения в поисковых системах
Маркетинговые способы подбора поисковых запросов базируются на общетеоретических маркетинговых знаниях и призваны добавлять аргументации к подходам, базирующимся на статистических данных о запросах пользователей в поисковых системах. В предыдущей статье [1] мы рассмотрели один из аспектов поведения потребителей и соотнесли степень запланированности покупки с формулировкой поисковых запросов. Продолжив по той же методике [2] изучать поведение пользователя, мы выявили ещё одну закономерность
Введение: на настоящий момент в русскоязычном интернете насчитывается несколько десятков систем, обрабатывающих статистику посещаемости сайтов. В ходе этого исследования решается задача по определению самых популярных систем статистики посредством подсчёта количества появлений счётчика системы в исходных кодах главных страниц.
Цель работы: определить долю сайтов, использующих системы по сбору статистики о посещаемости, определить наиболее популярные системы, а также выявить самые частые связки
В марте прошлого года (запись в блоге автора от 03.12.2007, [1]) программный инженер компании Apple, Эндрю Вустер, провёл исследование файлов управления поисковыми роботами (robots.txt). Исследование проводилось для сайтов, включённых в каталог DMOZ. Главным выводом исследования стало то, что каждый четвёртый сайт имеет ошибки в файле robots.txt. При этом у 65% сайтов в данном каталоге этот файл вообще отсутствовал.
Исследований русскоязычного сегмента Интернет на предмет корректности файла robots
Актуальность проблемы
Вопрос поиска новых методов рекламы не покидает умы маркетологов, осваивающих Интернет в качестве еще одной коммуникативной среды. Помимо традиционных рекламных приемов, используемых в Интернет, появились методы, которые можно отнести к «стимулированию сбыта» или BTL-рекламе. Они позволяют потребителю в некотором приближении самому оценивать качество товаров и услуг, а также компетенцию их продавца. Прямой диалог клиента и поставщика услуг лежит в основе «