Методы и приемы оптимизации информационного поиска. Разбираем понятие SEO от А до Я человеческими словами. Что работает в нынешних условиях? Факторы, влияющие на продвижение

Какие задачи решает оптимизация для поисковых машин

Поисковые машины сегодня являются важнейшим инструментом навигации в Интернете. С их помощью в Сети ищут информацию, сравнивают, анализируют, спрашивают совета, ищут единомышленников, знакомых и даже смысл жизни. Если ранее более популярным инструментом навигации в Интернете были каталоги, то сегодня их объемы и разветвленность, растущие вслед за нарастанием объемов информации, настолько разрослись, что они либо стали чрезмерно сложными для пользователя, либо содержат очень мало информации. При этом за последние несколько лет существенно улучшилось качество поисковых машин. Поэтому неудивительно, что пользователи массово переключились именно на поисковые машины.

Став наиболее популярными сайтами в Интернете, поисковые системы получили дополнительный эффект размера. Теперь это не только самые посещаемые сайты, но и самые известные. В итоге, когда пользователь в первый раз выходит в Интернет, сначала он идет на тот сайт, который ему уже известен от друзей, из прессы или из рекламы в офлайне, то есть на поисковую машину.

Такое положение вещей сохранится еще в течение долгого времени, так как существенная доля пользователей не очень хорошо знакома с компьютером вообще, и число таких пользователей в нашей стране, видимо, растет. Не слишком подкованные интернетчики используют поисковую строчку машины в качестве навигационной строки браузера. Многие пользователи вообще не различают понятия «Интернет» и «поисковая машина». Это хорошо видно по количеству поисковых запросов, содержащих адрес сайта.

Поэтому для многих компаний так важна такая оптимизация сайта, как процесс достижения первых мест в результатах поиска в поисковых машинах по целевым для компании запросам. Почему важно занять одно из первых мест? Потому что пользователи в среднем просматривают одну страницу результатов поиска и редко переходят на сайты, ссылки на которых есть только на второй странице и дальше.

Да что там вторая страница! Исследование переходов пользователей из результатов поиска системы Яндекс, проведенное несколько лет назад компаниями SpyLOG и «Ашманов и партнеры», показало, что доля переходов, которую можно ожидать на седьмой строке, стремится к нулю, то есть сайты, оказавшиеся ниже шестого места в результатах поиска, – тоже «за бортом». Над результатами поиска стоят рекламные строчки, которых становится все больше со временем. Они тоже уменьшают количество переходов, которое достается сайтам в результатах поиска, потому что для пользователей это тоже результаты поиска.

К слову сказать, для североамериканских сайтов доля переходов с поисковых машин от всех переходов в среднем составляет 60 %, а для корпоративных сайтов – и того выше. То есть более половины всех посетителей получают средний сайт с поисковой машины. В русскоязычном Интернете доля поискового трафика ниже, однако все равно очень велика и постоянно растет.

Именно поэтому оптимизация сегодня – большой, разветвленный рынок услуг, игроков на котором существенно больше, чем на рынке интернет-рекламы. А объем этого рынка услуг в Росиии за 2008 г. оценивается в 200 млн долл., что всего лишь втрое меньше рынка рекламы. А как же иначе, если эффективность этого маркетингового метода никак не ниже других инструментов рекламы в Интернете!

Оптимизация – это набор технических приемов и методов, которые позволяют достичь верхних строчек в результатах поиска. Все приемы оптимизации открыты и описаны на многочисленных форумах, специализированных сайтах оптимизаторов и в бесчисленных статьях. Очень важно, что никаких «тайных» способов оптимизации нет. Здесь все прозрачно и давно известно. Наибольшее значение в скорости получения результатов оптимизации имеет опыт оптимизатора, то есть умение быстро оценить ситуацию и выбрать правильные методы работы, однако даже новичок, вооруженный терпением и усидчивостью, может достичь превосходных результатов.

НАЧИНАЯ ПРОЦЕСС ОПТИМИЗАЦИИ, ЧЕТКО ОСОЗНАЙТЕ СЛЕДУЮЩИЕ МОМЕНТЫ.

1. Это путь проб и ошибок. Несмотря на то что есть довольно точные «рецепты успеха», в каждом конкретном случае они могут «не сработать», причем вероятность их срабатывания тем ниже, чем больше коллег-оптимизаторов трудятся над теми же поисковыми словами и в том же секторе рынка. Необходимо пробовать все способы оптимизации для достижения результата.

2. Оптимизация – это долгий процесс. Даже если быстро внести изменения в сайт, поисковый робот обновит информацию о сайте в базе не сразу, а в лучшем случае через несколько дней, скорее даже через неделю. Именно поэтому процесс оптимизации обычно затягивается на многие месяцы и все результаты приходят очень постепенно.

3. Оптимизация – очень кропотливый процесс, где надо учитывать множество факторов: особенности каждой поисковой машины, особенности рынка, на котором работает компания, активность конкурентов и действия, которые они предпринимают, и проч. Более того, все эти факторы необходимо учитывать постоянно, а не один раз при запуске.

4. Оптимизация – это нестабильный процесс. Алгоритмы поисковых машин постоянно меняются, кроме этого, меняется и ландшафт рынка за счет конкурентов и тех действий по оптимизации, которые они предпринимают. Поэтому те успехи, которых компания добилась несколько дней (недель) назад, сегодня могут превратиться в ничто. Следовательно, оптимизацией необходимо заниматься постоянно.

5. Поисковые машины сопротивляются усилиям оптимизаторов, поскольку они ухудшают качество поиска. Жестко и в одностороннем порядке поисковые машины регламентируют допустимое поведение оптимизаторов и бесцеремонно удаляют из результатов поиска (поисковой выдачи) сайты, которые, по их мнению, эти правила не соблюдают. Более того, эти правила не публикуются и постоянно меняются, так что любое действие по оптимизации завтра может оказаться «вне закона».

Почему поисковые машины борются с оптимизаторами?

В результате действий оптимизаторов результаты поиска изменяются. Из поиска исчезают или уходят вниз случайные результаты – ссылки на форумы, ссылки на давно исчезнувшие страницы. От этого поиск, несомненно, становится лучше: повышается его точность. Однако одновременно в результатах резко уменьшается полнота, то есть охват поисковой машиной различных тематик, связанных с поисковым запросом. Например, запрос «автомобиль» включает в себя целый спектр различных интересов: покупка нового или подержанного авто, прокат, ремонт, устройство, запчасти, история, реферат, виды и т. д. и т. п. В то же время поисковые машины все как один выдают либо продажу (новых, подержанных), либо прокат автомобилей. В редких случаях попадается еще и продажа запчастей. Таким образом, более половины возможных интересов пользователей выпало из результатов поиска (на первых нескольких страницах), то есть многие пользователи не получают нужной им информации и будут вынуждены их неоднократно уточнять. Сравните результаты поиска по одному и тому же слову на поисковой машине Яндекс (рис. 5.9) или Google с результатами поиска Nigma (рис 5.8) – машины, которая кластеризует результаты поиска по разным тематикам, – вы увидите, насколько мало разных тем попадает на первые страницы поиска «больших» поисковых машин.

1. Назначение и классификация методов поисковой оптимизации

В связи со сложностью объектов проектирования критерии качества и ограничения задачи параметрической оптимизации (1.5), как правило, слишком сложны для применения классических методов поиска экстремума. Поэтому на практике предпочтение отдается методам поисковой оптимизации. Рассмотрим основные этапы любого метода поиска.

Исходными данными в методах поиска являются требуемая точность метода и начальная точка поиска Х 0 .

Затем выбирается величина шага поиска h, и по некоторому правилу происходит получение новых точек Х k +1 по предыдущей точке Х k , при k = 0,1,2,… Получение новых точек продолжают до тех пор, пока не будет выполнено условие прекращения поиска. Последняя точка поиска считается решением задачи оптимизации. Все точки поиска составляют траекторию поиска.

Методы поиска могут отличаться друг от друга процедурой выбора величины шага h (шаг может быть одинаковым на всех итерациях метода или рассчитываться на каждой итерации), алгоритмом получения новой точки и условием прекращения поиска.

Для методов, использующих постоянную величину шага, h следует выбирать значительно меньше точности h » Öe). Если при выбранной величине шага h не удается получить решение с требуемой точностью, то нужно уменьшить величину шага и продолжить поиск из последней точки имеющейся траектории.

В качестве условий прекращения поиска принято использовать следующие:

все соседние точки поиска хуже, чем предыдущая;

çФ(X k +1) - Ф(X k)ç£ e, то есть значения целевой функции Ф(Х) в соседних точках (новой и предыдущей) отличаются друг от друга на величину не больше, чем требуемая точность e;

то есть все частные производные в новой точке поиска практически равны 0 или отличаются от 0 на величину, не превышающую заданной точности e.

Алгоритм получения новой точки поиска Х k +1 по предыдущей точке Х k свой для каждого из методов поиска, но всякая новая точка поиска должна быть не хуже предыдущей: если задача оптимизации является задачей поиска минимума, то Ф(Х k +1) £ Ф(Х k).

Методы поисковой оптимизации принято классифицировать по порядку производной целевой функции, используемой для получения новых точек. Так, в методах поиска нулевого порядка не требуется вычисления производных, а достаточно самой функции Ф(Х). Методы поиска первого порядка используют первые частные производные, а методы второго порядка используют матрицу вторых производных (матрицу Гессе).

Чем выше порядок производных, тем более обоснованным является выбор новой точки поиска и тем меньше число итераций метода. Но при этом возрастает трудоемкость каждой итерации из-за необходимости численного расчета производных.

Эффективность поискового метода определяют по числу итераций и по количеству вычислений целевой функции Ф(Х) на каждой итерации метода (N). Рассмотрим наиболее распространенные методы поиска, расположив их в порядке уменьшения числа итераций.

Для методов поиска нулевого порядка справедливо следующее: в методе случайного поиска нельзя заранее предсказать количество вычислений Ф(Х) на одной итерации N, а в методе покоординатного спуска N £ 2×n, где n- количество управляемых параметров X = (x1, x2.,…,xn).

Для методов поиска первого порядка справедливы следующие оценки: в градиентном методе с постоянным шагом N=2×n; в градиентном методе с дроблением шага N = 2×n + n 1 , где n 1 – число вычислений Ф(Х), необходимых для проверки условия дробления шага; в методе наискорейшего спуска N=2×n+n 2 , где n 2 – число вычислений Ф(Х), необходимых для расчета оптимальной величины шага; а в методе Давидона – Флетчера - Пауэлла (ДФП) N = 2× n + n 3 , где n 3 – число вычислений Ф(Х), необходимых для расчета матрицы, приближающей матрицу Гессе (для величин n 1 , n 2 , n 3 справедливо соотношение n 1 < n 2 << n 3).

И, наконец, в методе второго порядка - методе Ньютона N = 3×n 2 . При получении данных оценок предполагается приближенное вычисление производных по формулам конечных разностей / 6 /:


то есть для вычисления производной первого порядка нужно знать два значения целевой функции Ф(Х) в соседних точках, а для второй производной – значения функции в трех точках.

На практике широкое применение нашли метод наискорейшего спуска и метод ДФП, как методы с оптимальным соотношением числа итераций и их трудоемкости.


2. Методы поиска нулевого порядка

2.1. Метод случайного поиска

В методе случайного поиска исходными данными являются требуемая точность метода e, начальная точка поиска Х 0 = (x1 0 , x2. 0 ,…,xn 0) и величина шага поиска h. Поиск новых точек производится в случайном направлении, на котором и откладывается заданный шаг h (рис. 2.1), таким образом получают пробную точку Х ^ и проверяют, является ли пробная точка лучшей, чем предыдущая точка поиска. Для задачи поиска минимума это означает, что

Ф(Х ^) £ Ф(Х k) , k = 0,1,2… (2.4)

Если условие (2.4) выполнено, то пробную точку включают в траекторию поиска Х k +1 = Х ^ . В противном случае, пробную точку исключают из рассмотрения и производят выбор нового случайного направления из точки Х k , k = 0,1,2,.

Несмотря на простоту данного метода, его главным недостатком является тот факт, что заранее неизвестно, сколько случайных направлений потребуется для получения новой точки траектории поиска Х k +1 , что делает затраты на проведение одной итерации слишком большими. Кроме того, поскольку при выборе направления поиска не используется информация о целевой функции Ф(Х), число итераций в методе случайного поиска очень велико.

В связи с этим метод случайного поиска используется для исследования малоизученных объектов проектирования и для выхода из зоны притяжения локального минимума при поиске глобального экстремума целевой функции /6/.

2.2. Метод покоординатного спуска

В отличие от метода случайного поиска, в методе покоординатного спуска в качестве возможных направлений поиска выбирают направления, параллельные осям координат, причем движение возможно как в сторону увеличения, так и уменьшения значения координаты.

Исходными данными в методе покоординатного спуска являются величина шага h и начальная точка поиска Х 0 = (x1 0 , x2. 0 ,…,xn 0). Движение начинаем из точки Х 0 вдоль оси x1 в сторону увеличения координаты. Получим пробную точку Х ^ с координатами (x1 0 +h, x2 0 ,…,xn 0), при k = 0.

Сравним значение функции Ф(Х ^) с значением функции в предыдущей точке поиска Х k . Если Ф(Х ^) £ Ф(Х k) (мы предполагаем, что требуется решить задачу минимизации целевой функции Ф(Х)), то пробную точку включают в траекторию поиска (Х k +1 = Х ^).

В противном случае, пробную точку исключаем из рассмотрения и получаем новую пробную точку, двигаясь вдоль оси x1 в сторону уменьшения координаты. Получим пробную точку Х ^ = (x1 k -h, x2. k ,…,xn k). Проверяем, если Ф(Х ^) > Ф(Х k), то продолжаем движение вдоль оси x 2 в сторону увеличения координаты. Получим пробную точку Х ^ = (x1 k , x2. k +h,…,xn k) и т.д. При построении траектории поиска повторное движение по точкам, вошедшим в траекторию поиска, запрещено. Получение новых точек в методе покоординатного спуска продолжается до тех пор, пока не будет получена точка Х k , для которой все соседние 2×n пробных точек (по всем направлениям x1, x2.,…,xn в сторону увеличения и уменьшения значения каждой координаты) будут хуже, то есть Ф(Х ^) > Ф(Х k). Тогда поиск прекращается и в качестве точки минимума выбирается последняя точка траектории поиска Х* = Х k .


3. Методы поиска первого порядка

3.1. Структура градиентного метода поиска

В методах поиска первого порядка в качестве направления поиска максимума целевой функции Ф(Х) выбирается вектор градиент целевой функции grad (Ф(Х k)), для поиска минимума – вектор антиградиент -grad (Ф(Х k)). При этом используется свойство вектора градиента указывать направление наискорейшего изменения функции:


Для изучения методов поиска первого порядка важно также следующее свойство: вектор градиент grad (Ф(Х k)) направлен по нормали к линии уровня функции Ф(Х) в точке Х k (см. рис. 2.4). Линии уровня – это кривые, на которых функция принимает постоянное значение (Ф(Х) = соnst).

В данной главе мы рассмотрим 5 модификаций градиентного метода:

градиентный метод с постоянным шагом,

градиентный метод с дроблением шага,

метод наискорейшего спуска,

метод Давидона-Флетчера-Пауэлла,

двухуровневый адаптивный метод.

3.2. Градиентный метод с постоянным шагом

В градиентном методе с постоянным шагом исходными данными являются требуемая точность e, начальная точка поиска Х 0 и шаг поиска h.

Получение новых точек производится по формуле.

Привет, Друзья! В этой статье мы разберём основные понятия и принципы SEO влияющие на в поисковых системах Яндекс и Google. Итак поехали!

Основные принципы поисковой оптимизации SEO

Важность гостевого постинга

Не так давно была поднята настоящая шумиха по поводу запрета использования поисковыми системами . Ей приписывали спамный характер. Но, тем не менее, гостевой постинг все еще пользуется большой популярностью среди маркетологов для продвижения интернет-ресурса. Главное, что от вас требуется - создание качественного контента.

Создание благоприятной атмосферы на веб-ресурсе для пользователей

Какие бы SEO мероприятия вы ни проводили, следует помнить, что грамотное оформление сайта - гарантия его посещаемости. И действительно, на какие бы трюки вы ни пошли ради продвижения веб-ресурса, все это будет бессмысленно, если ваш сайт не будет интересен пользователю. Поэтому необходимо создание простого и понятного интерфейса. Только в этом случае у вашего сайта есть шанс занять высокие позиции в поисковиках.

Главный элемент любого веб-ресурса - размещение качественного контента

На этом сегодня всё, всем удачи и до новых встреч!

В связи со сложностью и малой изученностью объектов проектирования и критерии качества, и ограничения задачи параметрической оптимизации, как правило, слишком сложны для применения классических методов поиска экстремума. Поэтому на практике предпочтение отдается методам поисковой оптимизации. Рассмотрим основные этапы любого метода поиска.

Исходными данными в методах поиска являются требуемая точность метода e и начальная точка поиска Х 0 .

Затем выбирается величина шага поиска h , и по некоторому правилу происходит получение новых точек Х k +1 по предыдущей точке Х k при k = 0, 1, 2, … Получение новых точек продолжают до тех пор, пока не будет выполнено условие прекращения поиска. Последняя точка поиска считается решением задачи оптимизации. Все точки поиска составляют траекторию поиска.

Методы поиска отличаются друг от друга процедурой выбора величины шага h (шаг может быть одинаковым на всех итерациях метода или рассчитываться на каждой итерации), алгоритмом получения новой точки и условием прекращения поиска.

Для методов, использующих постоянную величину шага, h следует выбирать значительно меньше точности e . Если при выбранной величине шага h не удается получить решение с требуемой точностью, то нужно уменьшить величину шага и продолжить поиск из последней точки имеющейся траектории.

В качестве условий прекращения поиска принято использовать следующие:

1) все соседние точки поиска хуже, чем предыдущая;

2) çФ(X k +1 )–Ф(X k ) ç £ e , то есть значения целевой функции Ф(Х) в соседних точках (новой и предыдущей) отличаются друг от друга на величину не больше, чем требуемая точность e ;

3) ,i = 1, …, n, то есть все частные производные в новой точке поиска практически равны 0, то есть отличаются от 0 на величину, не превышающую точности e.

Алгоритм получения новой точки поиска Х k +1 по предыдущей точке Х k свой для каждого из методов поиска, но всякая новая точка поиска должна быть не хуже предыдущей: если задача оптимизации является задачей поиска минимума, то Ф(Х k +1 ) £ Ф(Х k ).

Методы поисковой оптимизации принято классифицировать по порядку производной целевой функции, используемой для получения новых точек. Так, в методах поиска нулевого порядка не требуется вычисления производных, а достаточно самой функции Ф(Х). Методы поиска первого порядка используют первые частные производные, а методы второго порядка используют матрицу вторых производных (матрицу Гессе).

Чем выше порядок производных, тем более обоснованным является выбор новой точки поиска и тем меньше число итераций метода. Но при этом трудоемкость каждой итерации из-за необходимости численного расчета производных.

Эффективность поискового метода определяют по числу итераций и по количеству вычислений целевой функции Ф(Х) на каждой итерации метода.

Рассмотрим наиболее распространенные методы поиска , расположив их в порядке уменьшения числа итераций.

Для методов поиска нулевого порядка справедливо следующее: в методе случайного поиска нельзя заранее предсказать количество вычислений Ф(Х) на одной итерации N , а в методе покоординатного спуска N £ 2×n , где n - количество управляемых параметров X = (x 1 , x 2 .,…, x n ).

Для методов поиска первого порядка справедливы следующие оценки: в градиентном методе с постоянным шагом N = 2 × n ; в градиентном методе с дроблением шага N =2 × n + n 1 , где n 1 – число вычислений Ф(Х), необходимых для проверки условия дробления шага; в методе наискорейшего спуска N = 2 × n + n 2 , где n 2 – число вычислений Ф(Х), необходимых для расчета оптимальной величины шага; а в методе Давидона - Флетчера - Пауэлла (ДФП) N = 2 × n + n 3 , где n 3 – число вычислений Ф(Х), необходимых для расчета матрицы, приближающей матрицу Гессе (для величин n 1 , n 2 , n 3 справедливо соотношение n 1 < n 2 < n 3 ).

И, наконец, в методе второго порядка - методе Ньютона N = 3 × n 2 .

При получении данных оценок предполагается приближенное вычисление производных по формулам конечных разностей, то есть для вычисления производной первого порядка нужно два значения целевой функции Ф(Х), а для второй производной – значения функции в трех точках.

На практике широкое применение нашли метод наискорейшего спуска и метод ДФП, как методы с оптимальным соотношением числа итераций и их трудоемкости.

Начнём рассмотрение методов поиска нулевого порядка. В методе случайного поиска исходными данными являются требуемая точность метода e, начальная точка поиска Х 0 = (x 1 0 , x 2 0 , …, x n 0 ) и величина шага поиска h .

Поиск новых точек производится в случайном направлении, на котором и откладывается заданный шаг h , таким образом получают пробную точку и проверяют, является ли пробная точка лучшей, чем предыдущая точка поиска. Для задачи поиска минимума это означает, что:

(6.19)

Если данное условие выполнено, то пробную точку включают в траекторию поиска (
). В противном случае, пробную точку исключают из рассмотрения и производят выбор нового случайного направления из точки Х k , k = 0, 1, 2, … (рис. 6.3).

Х k +1

Ф(Х)

Несмотря на простоту данного метода, его главным недостатком является тот факт, что заранее неизвестно, сколько случайных направлений потребуется для получения новой точки траектории поиска Х k +1 , что делает затраты на проведение одной итерации слишком большими.

Рис. 6.3. К методу случайного поиска

Кроме того, поскольку при выборе направления поиска не используется информация о целевой функции Ф(Х) , число итераций в методе случайного поиска очень велико.

В связи с этим метод случайного поиска используется для исследования малоизученных объектов проектирования и для выхода из зоны притяжения локального минимума при поиске глобального экстремума целевой функции.

В отличие от метода случайного поиска, в методе покоординатного спуска в качестве возможных направлений поиска выбирают направления, параллельные осям координат, причем движение возможно как в сторону увеличения, так и уменьшения значения координаты.

Исходными данными в методе покоординатного спуска являются величина шага h и начальная точка поиска Х 0 = (x 1 0 , x 2 . 0 ,…, x n 0 ) . Движение начинаем из точки Х 0 вдоль оси x 1 в сторону увеличения координаты. Получим пробную точку
(x 1 k + h , x 2 k ,…, x n k ), k = 0. Сравним значение функции Ф(Х) с значением функции в предыдущей точке поиска Х k .

Если
(мы предполагаем, что требуется решить задачу минимизацииФ(Х) , то пробную точку включают в траекторию поиска (
) .

В противном случае, пробную точку исключаем из рассмотрения и получаем новую пробную точку, двигаясь вдоль оси x 1 в сторону уменьшения координаты. Получим пробную точку
(x 1 k h , x 2 k ,…, x n k ). Проверяем, если
, то продолжаем движение вдоль осиx 2 в сторону увеличения координаты. Получим пробную точку
(x 1 k + h , x 2 k ,…, x n k ), и т.д.

При построении траектории поиска повторное движение по точкам, вошедшим в траекторию поиска, запрещено.

Получение новых точек в методе покоординатного спуска продолжается до тех пор, пока не будет получена точка Х k , для которой все соседние 2×n пробных точек (по всем направлениям x 1 , x 2 , …, x n в сторону увеличения и уменьшения значения координаты) будут хуже, то есть
. Тогда поиск прекращается и в качестве точки минимума выбирается последняя точка траектории поискаХ*= Х k .

Рассмотрим работу метода покоординатного спуска на примере (рис. 2.21): n = 2, X = (x 1 , x 2 ), Ф(x 1 , x 2 ) min , Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 , h = 1, Х 0 = (0, 1) .

    Начинаем движение вдоль оси x 1 в сторону увеличения

координаты. Получим первую пробную точку

(x 1 0 + h , x 2 0 ) = (1, 1), Ф () = (1-1) 2 + (1-2) 2 = 1,

Ф(Х 0 ) = (0-1) 2 + (1-2) 2 = 2,

Ф() < Ф(Х 0 )  Х 1 = (1, 1).

    x 1 от точки Х 1

=(x 1 1 + h , x 2 1 ) = (2, 1), Ф() = (2-1) 2 + (1-2) 2 = 2,

Ф(Х 1 ) = (1-1) 2 + (1-2) 2 = 1,

то есть Ф() > Ф(Х 1 ) – пробная точка с координатами (2, 1) исключается из рассмотрения, а поиск минимума продолжается из точки Х 1 .

    Продолжаем движение вдоль оси x 2 от точки Х 1 в сторону увеличения координаты. Получим пробную точку

= (x 1 1 , x 2 1 + h ) = (1, 2), Ф() = (1-1) 2 + (2-2) 2 = 0,

Ф(Х 1 ) = (1-1) 2 + (1-2) 2 = 1,

Ф() < Ф(Х 1 ) Х 2 = (1, 2).

    Продолжаем движение вдоль оси x 2 от точки Х 2 в сторону увеличения координаты. Получим пробную точку

= (x 1 2 , x 2 2 + h ) = (1, 3), Ф() = (1-1) 2 + (3-2) 2 = 1,

Ф(Х 2 ) = (1-1) 2 + (2-2) 2 = 0,

то есть Ф() > Ф(Х 2 ) – пробная точка с координатами (1, 3) исключается из рассмотрения, а поиск минимума продолжается из точки Х 2 .

5. Продолжаем движение вдоль оси x 1 от точки Х 2 в сторону увеличения координаты. Получим пробную точку

= (x 1 2 + h , x 2 2 ) = (2, 2), Ф() = (2-1) 2 + (2-2) 2 =1,

Ф(Х 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

то есть Ф(Х ^ ) > Ф(Х 2 ) – пробная точка с координатами (2, 2) исключается из рассмотрения, а поиск минимума продолжается из точки Х 2 .

6. Продолжаем движение вдоль оси x 1 от точки Х 2 в сторону уменьшения координаты. Получим пробную точку

= (x 1 2 - h , x 2 2 ) = (0, 2), Ф() = (0-1) 2 +(2-2) 2 = 1,

Ф(Х 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

то есть Ф() > Ф(Х 2 ) – пробная точка с координатами (0, 2) исключается из рассмотрения, а поиск минимума закончен, так как для точки Х 2 выполнено условие прекращения поиска. Точкой минимума функции Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 является Х * = Х 2 .

В методах поиска первого порядка в качестве направления поиска максимума целевой функции Ф(Х) выбирается вектор градиент целевой функции grad (Ф(Х k )) , для поиска минимума – вектор антиградиент - grad (Ф(Х k )) . При этом используется свойство вектора градиента указывать направление наискорейшего изменения функции:

.

Для изучения методов поиска первого порядка важно также следующее свойство: вектор градиент grad (Ф(Х k )) , направлен по нормали к линии уровня функции Ф(Х) в точке Х k .

Линии уровня – это кривые, на которых функция принимает постоянное значение (Ф(Х) = со nst ).

В данном разделе рассматриваются пять модификаций градиентного метода:

– градиентный метод с постоянным шагом,

– градиентный метод с дроблением шага,

– метод наискорейшего спуска,

– метод Давидона-Флетчера-Пауэлла (ДФП),

– двухуровневый адаптивный метод.

В градиентном методе с постоянным шагом исходными данными являются требуемая точность e , начальная точка поиска Х 0 и шаг поиска h .

Х k+1 = Х k – h × grad Ф (Х k ), k=0,1,2,… (6.20)

Формула (2.58) применяется, если для функции Ф(Х) необходимо найти минимум. Если же задача параметрической оптимизации ставится как задача поиска максимума, то для получения новых точек в градиентном методе с постоянным шагом используется формула:

Х k+1 = Х k + h × grad Ф (Х k ), k = 0, 1, 2, … (6.21)

Каждая из формул (6.20), (6.21) является векторным соотношением, включающим n уравнений. Например, с учетом Х k +1 = (x 1 k +1 , x 2 k +1 ,…, x n k +1 ), Х k =(x 1 k , x 2 k ,…, x n k ) :

(6.22)

или, в скалярном виде,

(6.23)

В общем виде (2.61) можно записать:

(6.24)

В качестве условия прекращения поиска во всех градиентных методах используется, как правило, комбинация двух условий: çФ(X k +1 ) - Ф(X k ) ç £ e или
для всехi =1, …, n .

Рассмотрим пример поиска минимума градиентным методом с постоянным шагом для той же функции, что и в методе покоординатного спуска:

n = 2, X = (x 1 , x 2 ), =0.1,

Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 min , h = 0,3, Х 0 = (0, 1).

    Получим точку Х 1 по формуле (2.45):

Ф(X 1 ) = (0.6–1) 2 + (1.6–2) 2 = 0.32, Ф(X 0 ) = (0 –1) 2 + (1–2) 2 = 2.

Ф(X 1 ) - Ф(X 0 ) =1,68 > = 0,1  продолжаем поиск.

    Получим точку Х 2 по формуле (2.45):

Ф(X 2 ) = (0.84–1) 2 + (1.84–2) 2 = 0.05,

Ф(X 1 ) = (0,6 –1) 2 + (1,6–2) 2 = 0,32.

Ф(X 1 ) - Ф(X 0 ) =0,27 > = 0,1  продолжаем поиск.

    Аналогично получим X 3:

Ф(X 3 ) = (0.94–1) 2 + (1.94–2) 2 = 0.007,

Ф(X 3 ) = (0,84 –1) 2 + (1,84–2) 2 = 0,05.

Так как условие прекращения поиска выполнено, найдено Х * = X 3 = (0.94, 1.94) с точностью = 0.1.

Траектория поиска для данного примера приведена на рис. 6.5.

Несомненным преимуществом градиентных методов является отсутствие лишних затрат на получение пробных точек, что снижает затраты на проведение одной итерации. Кроме того, за счет использования эффективного направления поиска (вектора градиента) заметно сокращается и число итераций по сравнению с методом покоординатного спуска.

В градиентном методе можно несколько сократить число итераций, если научиться избегать ситуаций, когда несколько шагов поиска выполняются в одном и том же направлении.

В градиентном методе с дроблением шага процедура подбора величины шага на каждой итерации реализуется следующим образом.

e , начальная точка поиска Х 0 h (обычно h = 1). Получение новых точек производится по формуле:

Х k+1 = Х k – h k × grad Ф (Х k ), k=0,1,2,…, (6.25)

где h k – величина шага на k -ой итерации поиска, при h k должно выполняться условие:

Ф(Х k h k × grad Ф(Х k )) £ Ф(Х k ) - h k ×½ grad Ф(Х k ) ½ 2 . (6.26)

Если величина h k такова, что неравенство (2.64) не выполнено, то производится дробление шага до тех пор, пока данное условие не будет выполнено.

Дробление шага выполняется по формуле h k = h k ×a , где 0 < a < 1.Такой подход позволяет сократить число итераций, но затраты на проведение одной итерации при этом несколько возрастают.

Это обеспечивает простоту замены и дополнения процедур, данных и знаний.

В методе наискорейшего спуска на каждой итерации градиентного метода выбирается оптимальный шаг в направлении градиента.

Исходными данными являются требуемая точность e , начальная точка поиска Х 0 .

Получение новых точек производится по формуле:

Х k+1 = Х k – h k × grad Ф (Х k ), k=0,1,2,… , (6.27)

где h k = arg min Ф(Х k h k × grad Ф(Х k )) , то есть выбор шага производится по результатам одномерной оптимизации по параметру h (при 0 < h < ¥).

Основная идея метода наискорейшего спуска заключается в том, что на каждой итерации метода выбирается максимально возможная величина шага в направлении наискорейшего убывания целевой функции, то есть в направлении вектора-антиградиента функции Ф(Х) в точке Х k . (рис. 2.23).

При выборе оптимальной величины шага необходимо из множества Х М = {Х ½ Х= Х k h × grad Ф(Х k ), h Î / h = 22(2h -1)2=8(2h -1)=0.

Следовательно, h 1 = 1/2 – оптимальный шаг на первой итерации метода наискорейшего спуска. Тогда

Х 1 = Х 0 – 1/2grad Ф(Х 0 ),

x 1 1 =0 -1/2 = 1, x 2 1 = 1-1/2 = 2  Х 1 = (1, 2).

Проверим выполнение условий прекращения поиска в точке поиска Х 1 = (1, 2). Первое условие не выполнено

Ф(X 1 )-Ф(X 0 ) = 0-2 =2 > = 0.1, но справедливо

то есть все частные производные с точностью можно считать равными нулю, точка минимума найдена: Х*=Х 1 =(1, 2). Траектория поиска приведена на рис. 6.7.

Таким образом, метод наискорейшего спуска нашел точку минимума целевой функции за одну итерацию (из-за того, что линии уровня функции Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 . ((x 1 – 1) 2 + (x 2 –2) 2 = const – уравнение окружности, и вектор антиградиент из любой точки точно направлен в точку минимума – центр окружности).

На практике целевые функции гораздо более сложные, линии также имеют сложную конфигурацию, но в любом случае справедливо следующее: из всех градиентных методов в методе наискорейшего спуска наименьшее число итераций, но некоторую проблему представляет поиск оптимального шага численными методами, так как в реальных задачах, возникающих при проектировании РЭС применение классических методов нахождения экстремума практически невозможно.

Для задач оптимизации в условиях неопределенности (оптимизация стохастических объектов), в которых один или несколько управляемых параметров являются случайными величинами, используется двухуровневый адаптивный метод поисковой оптимизации, являющийся модификацией градиентного метода.

Х 0 и начальная величина шага поиска h (обычно
). Получение новых точек производится по формуле:

Х k+1 = Х k – h k+1 × grad Ф(Х k), k = 0,1,2,…, (6.28)

где шаг h k +1 может быть рассчитан по одной из двух формул: h k +1 = h k + l k +1 ×a k , или h k +1 = h k × exp (l k +1 ×a k ) . В качестве понижающего коэффициента выбирают обычно l k =1/ k , где k – номер итерации поискового метода.

Смысл применения коэффициента l k заключается в том, что на каждой итерации производится некоторая корректировка величины шага, при этом чем больше номер итерации метода поиска, тем ближе очередная точка поиска к точке экстремума и тем аккуратнее (меньше) должна быть корректировка шага с тем, чтобы не допустить удаления от точки экстремума.

Величина a k определяет знак такой корректировки (при a k >0 шаг увеличивается, а при a k <0 уменьшается):

a k =sign{(grad Ф (Х k ),grad Ф (Х ))} ,

то есть a k – это знак скалярного произведения векторов градиентов целевой функции в точках Х k и , где=Х k h k × grad Ф(Х k ) пробная точка, а h k – это шаг, который был использован для получения точки Х k на предыдущей итерации метода.

Знак скалярного произведения двух векторов позволяет оценить величину угла между данными векторами (обозначим этот угол ). Если  9, то скалярное произведение должно быть положительным, в противном случае – отрицательным. С учетом вышеизложенного нетрудно понять принцип корректировки величины шага в двухуровневом адаптивном методе. Если угол между антиградиентами   (острый угол), то направление поиска из точки Х k выбрано правильно, и величину шага можно увеличить (рис. 6.8).

Рис. 6.8. Выбор направления поиска при  

Если же угол между антиградиентами   (тупой угол), то направление поиска из точки Х k удаляет нас от точки минимума Х* , и шаг нужно уменьшить (рис. 6.9).

Рис. 6.9. Выбор направления поиска при > 

Метод носит название двухуровневого, так как на каждой итерации поиска анализируются не одна, а две точки и строятся два вектора антиградиента.

Это, конечно, увеличивает затраты на проведение одной итерации, но позволяет проводить адаптацию (настройку) величины шага h k +1 на поведение случайных факторов.

Несмотря на простоту реализации метод наискорейшего спуска не рекомендуется в качестве “серьезной” оптимизационной процедуры для решения задачи безусловной оптимизации функции многих переменных, так как для практического применения он работает слишком медленно.

Причиной этого является тот факт, что свойство наискорейшего спуска является локальным свойством, поэтому необходимо частое изменение направления поиска, что может привести к неэффективной вычислительной процедуре.

Более точный и эффективный метод решения задачи параметрической оптимизации можно получить, используя вторые производные целевой функции (методы второго порядка). Они базируются на аппроксимации (то есть приближенной замене) функции Ф(Х) функцией j (Х) ,

j (Х) = Ф(Х 0 ) + (Х - Х 0 ) т × grad Ф(Х 0 ) + ½ G (X 0 ) × (Х - Х 0 ) , (6.29)

где G (X 0 ) - матрица Гессе (гессиан, матрица вторых производных), вычисленная в точке Х 0 :

2 Ф(Х) 2 Ф(Х) . . . 2 Ф(Х)

x 1 2 x 1 x 2 x 1 x n

G (X ) = 2 Ф(Х) 2 Ф(Х) . . . 2 Ф(Х)

x 2 x 1 x 2 2 x 2 x n

2 Ф(Х) 2 Ф(Х) . . . 2 Ф(Х)

x n x 1 x n x 2 x n 2 .

Формула (2.67) представляет собой первые три члена разложения функции Ф(Х) в ряд Тейлора в окрестности точки Х 0 , поэтому при аппроксимации функции Ф(Х) функцией j (Х) возникает ошибка не более чем ½½Х-Х 0 ½½ 3 .

С учетом (2.67) в методе Ньютона исходными данными являются требуемая точность e , начальная точка поиска Х 0 и получение новых точек производится по формуле:

Х k +1 = Х k G -1 k ) × grad Ф(Х k), k =0,1,2,…, (6.30)

где G -1 k ) – матрица, обратная к матрице Гессе, вычисленная в точке поиска Х k (G k ) × G -1 k ) = I,

I = 0 1 … 0 - единичная матрица.

Рассмотрим пример поиска минимума для той же функции, что и в градиентном методе с постоянным шагом и в методе покоординатного спуска:

n = 2, X = (x 1 , x 2 ), = 0.1,

Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 min , Х 0 =(0, 1).

    Получим точку Х 1 :

X 1 = X 0 – G –1 (X 0)∙grad Ф(X 0),

где

grad Ф(X 0) = (2∙(x 1 0 –1)), 2∙(x 1 0 –1) = (–2, –2), то есть

или

x 1 1 = 0 – (1/2∙(–2) + 0∙(–2)) = 1,

x 2 1 = 1 – (0∙(–2) + 1/2∙(–2)) = 2,

X 1 = (1, 2).

Проверим выполнение условий прекращения поиска: первое условие не выполнено

Ф(X 1 )-Ф(X 0 ) = 0 - 2  = 2 > = 0.1,

но справедливо

то есть все частные производные с точностью  можно считать равными нулю, точка минимума найдена: Х* = Х 1 = (1, 2). Траектория поиска совпадает с траекторией метода наискорейшего спуска (рис. 2.24).

Главным недостатком метода Ньютона являются затраты на вычисление обратного гессиана G -1 k ) на каждой итерации метода.

В методе ДФП преодолены недостатки как метода наискорейшего спуска, так и метода Ньютона.

Достоинством данного метода является то, что он не требует вычисления обратного гессиана, а в качестве направления поиска в методе ДФП выбирается направление –Н k × grad Ф (Х k), где Н k - положительно определенная симметричная матрица, которая заново рассчитывается на каждой итерации (шаге метода поиска) и приближает обратный гессиан G -1 k ) (Н k ® G -1 k ) с увеличением k ).

Кроме того, метод ДФП при его применении для поиска экстремума функции n переменных сходится (то есть дает решение) не более чем за n итераций.

Вычислительная процедура метода ДФП включает следующие шаги.

Исходными данными являются требуемая точность e, начальная точка поиска Х 0 и начальная матрица Н 0 (обычно единичная матрица, Н 0 = I).

    На k -ой итерации метода известны точка поиска Х k и матрица Н k (k = 0,1,…).

    Обозначим направление поиска

d k = -Н k × grad Ф(Х k).

Находим оптимальную величину шага l k в направлении d k с помощью методов одномерной оптимизации (так же, как в методе наискорейшего спуска выбиралась величина в направлении веrтора антиградиента)

З. Обозначим v k = l k × d k и получим новую точку поиска Х k +1 = X k + v k .

4. Проверяем выполнение условия прекращения поиска.

Если ½v k ½£ e или ½grad Ф(Х k +1 ) ½£ e , то решение найдено Х * = Х k +1 . В противном случае продолжаем вычисления.

5. Обозначим u k = grad Ф(Х k +1) - grad Ф(Х k) и матрицу Н k +1 рассчитаем по формуле:

H k +1 = H k + A k + B k , (6.31)

где A k = v k . v k T / (v k T × u k ) , B k = - H k × u k . u k T . H k / (u k T × H k × u k ) .

A k и В k – это вспомогательные матрицы размера n х n (v k T соответствует вектору-строке, v k означает вектор-столбец, результатом умножения n -мерной строки на n -мерный столбец является скалярная величина (число), а умножение столбца на строку дает матрицу размера n x n ).

6. Увеличиваем номер итерации на единицу и переходим к пункту 2 данного алгоритма.

Метод ДФП – это мощная оптимизационная процедура, эффективная при оптимизации большинства функций. Для одномерной оптимизации величины шага в методе ДФП используют методы интерполяции.

Многие SEO специалисты рассказывают о всяких волшебных способах «вывода сайта в ТОП-3 за две недели». Любой вдумчивый руководитель давно знает принцип бесплатного сыра и понимает, что качественная работа всегда стоит дорого. Главный принцип поисковой оптимизации прост - будь уникальней, быстрее и авторитетней конкурентов. В руках умелого профессионала SEO инструменты могут стать причиной роста посещаемости и конверсии, а работа самоучки может закончится баном сайта и катастрофой для Вашей кампании.

Внутренняя оптимизация сайта

Структура ресурса - один из наиглавнейших элементов раскрутки. Если теги страниц не приведены в соответствие с популярными запросами, а ссылочная карта разработана неграмотно - ни покупка ссылок, ни увеличенное поведение не помогут сайту оказаться на вершине. Внутренняя оптимизация - это кропотливая работа по анализу и доработке материалов до необходимой грани - между удобством чтения пользователя и насыщенностью важными ключевыми фразами. О качестве текстов можно дополнительно прочитать в этой статье.

Наращивание ссылочной массы

Рейтинг цитирования и авторитетности ресурса - это количество ссылок, оставленных пользователями на внешних источниках. По идее, органическая ссылка - это рекомендация для поисковой системы, знак того, что страница, на которую ссылаются - качественная и заслуживает доверия. Естественно, такой подход к ранжированию авторитета сайтов породил огромный рынок торговцев ссылками и огромное количество ресурсов, целью которых является лишь увеличение ссылочной массы за деньги, ее искусственное наращивание. Поисковые машины Google и Яндекс борются с подобными линкоброкерами, исключая их из результатов выдачи, и снижая важность их ссылок до нуля. В 2013 году имеет смысл покупка лишь качественных, постоянных ссылок с авторитетных ресурсов (большой возраст имени домена, высокий PR, наличие в крупных каталогах и огромная посещаемость). Такие ссылки стоят дорого, однако, они приносят дополнительную посещаемость и практически гарантируют высокий рейтинг Вашего сайта.

Эмуляция поведенческий факторов

Важнейший тренд нового года - поиск начинает ориентироваться на людей. Многие специалисты по оптимизации уже давно с успехом применяют эмуляцию поведенческих факторов. Например, если юзер вводит запрос «Самый вкусный кофе в городе» и находит страницу «Кофейни 1», переходит на него, смотрит несколько страниц в течении 3-10 минут, а затем переходит добавляет страничку в избранное - это хороший знак для поисковой машины о том, что «Кофейня 1» действительно хорошая. Рассмотрим другой пример. По тому же запросу есть позиция «Кофейни 2», с которой пользователи убегают через 15 секунд и больше никогда не возвращаются. Это - огромный минус, который доказывает, что «Кофейня 2» уныла и неинтересна. Умело оперируя этими знаниями, грамотный SEO-специалист может быстро и без колоссальных вложений поднять ресурс в TOP10 или даже TOP3.

Социальный маркетинг

Отдельная тема - оптимизация сайта под нужды социальных сетей (так называемое SEO 2.0). Основная идея этих мер - написание и вброс в соц.сети информации, которая побуждает к обсуждению и, как следствие, росту посещаемости. Также к социальному маркетингу можно отнести пользовательские лайки (Google+, Facebook). Клики ваших посетителей по кнопкам этих сетей могут и повысят Ваши позиции в выдаче.