Metode și tehnici de optimizare a regăsirii informațiilor. Să ne uităm la conceptul de SEO de la A la Z în cuvinte umane. Ce funcționează în mediul actual? Factorii care influențează promovarea

Ce probleme rezolvă optimizarea motoarelor de căutare?

Motoarele de căutare sunt cel mai important instrument de navigare pe internet astăzi. Cu ajutorul lor, ei caută informații pe internet, compară, analizează, cer sfaturi, caută persoane care au păreri asemănătoare, cunoștințe și chiar sensul vieții. Dacă înainte cataloagele erau un instrument mai popular pentru navigarea pe Internet, astăzi volumul și ramificațiile lor, crescând odată cu creșterea volumelor de informații, au crescut atât de mult încât fie au devenit excesiv de complexe pentru utilizator, fie conțin foarte puține informații. În același timp, calitatea motoarelor de căutare s-a îmbunătățit semnificativ în ultimii ani. Prin urmare, nu este surprinzător faptul că utilizatorii au trecut în masă la motoarele de căutare.

Devenind cele mai populare site-uri de pe Internet, motoarele de căutare au câștigat un efect suplimentar de dimensiune. Acum acestea nu sunt doar cele mai vizitate site-uri, ci și cele mai faimoase. Ca urmare, atunci când un utilizator intră online pentru prima dată, acesta merge mai întâi pe site-ul pe care îl cunoaște deja de la prieteni, din presă sau din publicitate offline, adică la un motor de căutare.

Această stare de lucruri va continua mult timp, deoarece o proporție semnificativă de utilizatori nu sunt foarte familiarizați cu computerele în general, iar numărul acestor utilizatori în țara noastră este aparent în creștere. Utilizatorii de internet nu prea cunoscuți folosesc bara de căutare a aparatului ca bară de navigare a browserului. Mulți utilizatori nu fac deloc diferența între conceptele de „Internet” și „motor de căutare”. Acest lucru poate fi văzut în mod clar prin numărul de interogări de căutare care conțin adresa site-ului.

De aceea, acest lucru este atât de important pentru multe companii optimizare site, cum procesul de atingere a primelor locuri în rezultatele căutării în motoarele de căutare pentru interogări direcționate către companie. De ce este important să ocupați unul dintre primele locuri? Pentru că utilizatorii, în medie, vizualizează o pagină de rezultate ale căutării și rareori merg pe site-uri care au link-uri doar pe a doua pagină și nu numai.

De ce există a doua pagină! Un studiu al tranzițiilor utilizatorilor din rezultatele căutării Yandex, realizat în urmă cu câțiva ani de către SpyLOG și Ashmanov and Partners, a arătat că ponderea tranzițiilor la care se poate aștepta pe a șaptea linie tinde spre zero, adică site-urile care sunt sub locul șase în rezultatele căutării , – de asemenea „peste bord”. Deasupra rezultatelor căutării se află linii de publicitate, care cresc ca număr în timp. De asemenea, reduc numărul de clicuri pe care site-urile le obțin în rezultatele căutării, deoarece pentru utilizatori acestea sunt și rezultate ale căutării.

Apropo, pentru site-urile nord-americane ponderea tranzițiilor de la motoarele de căutare din toate tranzițiile este în medie de 60%, iar pentru site-urile corporative este și mai mare. Adică, mai mult de jumătate din toți vizitatorii primesc site-ul mediu de la un motor de căutare. Pe internetul în limba rusă, ponderea traficului de căutare este mai mică, dar încă foarte mare și în continuă creștere.

De aceea optimizarea este astăzi o piață mare, ramificată a serviciilor, în care există mult mai mulți jucători decât în ​​piața de publicitate online. Iar volumul acestei piețe de servicii din Rusia în 2008 este estimat la 200 de milioane de dolari, ceea ce este doar de trei ori mai mic decât piața de publicitate. Cum s-ar putea altfel, dacă eficiența acestei metode de marketing nu este în niciun caz mai mică decât a altor instrumente de publicitate de pe Internet!

Optimizarea este un set de tehnici și metode care vă permit să ajungeți la primele linii în rezultatele căutării. Toate tehnicile de optimizare sunt deschise și descrise pe numeroase forumuri, site-uri specializate de optimizare și în nenumărate articole. Este foarte important să nu existe metode de optimizare „secrete”. Totul aici este transparent și este cunoscut de mult. Cea mai mare importanță în viteza de obținere a rezultatelor de optimizare este experiența optimizatorului, adică abilitatea de a evalua rapid situația și de a alege metodele potrivite de lucru, cu toate acestea, chiar și un începător, înarmat cu răbdare și perseverență, poate obține rezultate excelente. rezultate.

CÂND ÎNCEPEȚI PROCESUL DE OPTIMIZARE, ÎNȚELEGEȚI CLAR URMEAZELE PUNCTE.

1. Acesta este un proces de încercare și eroare. În ciuda faptului că există „rețete pentru succes” destul de precise, în fiecare caz specific acestea pot să nu funcționeze și probabilitatea ca acestea să funcționeze este mai mică, cu atât mai mulți optimizatori lucrează la aceleași cuvinte de căutare și în același sector de piață. Este necesar să încercați toate metodele de optimizare pentru a obține rezultate.

2. Optimizarea este un proces lung. Chiar dacă faci rapid modificări site-ului, robotul de căutare nu va actualiza imediat informațiile despre site din baza de date, ci în cel mai bun caz în câteva zile, sau mai degrabă chiar într-o săptămână. Acesta este motivul pentru care procesul de optimizare durează de obicei multe luni iar toate rezultatele vin foarte treptat.

3. Optimizarea este un proces foarte minuțios, unde trebuie luați în considerare mulți factori: caracteristicile fiecărui motor de căutare, caracteristicile pieței în care își desfășoară activitatea compania, activitatea concurenților și acțiunile pe care aceștia le întreprind și așa mai departe. Mai mult, toți acești factori trebuie luați în considerare în mod constant, și nu o singură dată la lansare.

4. Optimizarea este un proces instabil. Algoritmii motoarelor de căutare se schimbă constant, iar peisajul pieței se schimbă, de asemenea, datorită concurenților și eforturilor de optimizare pe care le depun. Prin urmare, succesele pe care compania le-a obținut în urmă cu câteva zile (săptămâni) se pot transforma în nimic astăzi. Prin urmare, optimizarea trebuie făcută constant.

5. Motoarele de căutare rezistă eforturilor de SEO deoarece degradează calitatea căutării. Motoarele de căutare reglementează strict și unilateral comportamentul acceptabil al optimizatorilor și elimină fără ceremonie din rezultatele căutării (rezultatele căutării) site-urile care, în opinia lor, nu respectă aceste reguli. Mai mult, aceste reguli nu sunt publicate și sunt în continuă schimbare, deci orice acțiune de optimizare de mâine poate fi „în afara legii”.

De ce se luptă motoarele de căutare cu SEO?

Ca urmare a acțiunilor optimizatorilor, rezultatele căutării se modifică. Rezultatele aleatoare dispar din căutare sau merg la vale - link-uri către forumuri, link-uri către pagini care au dispărut de mult. Acest lucru, fără îndoială, face căutarea mai bună: precizia acesteia crește. Cu toate acestea, în același timp, caracterul complet al rezultatelor, adică acoperirea de către motorul de căutare a diferitelor subiecte legate de interogarea de căutare, scade brusc. De exemplu, interogarea „mașină” include o gamă întreagă de interese diferite: cumpărarea unei mașini noi sau second hand, închiriere, reparare, dispozitiv, piese de schimb, istoric, rezumat, tipuri etc., etc. În același timp, motoarele de căutare sunt toate ca unul pe care eliberează fie mașini de vânzare (noi, folosite) fie închirieri. În cazuri rare, întâlnim și vânzarea de piese de schimb. Astfel, mai mult de jumătate din posibilele interese ale utilizatorilor au fost scăpate din rezultatele căutării (pe primele pagini), adică mulți utilizatori nu primesc informațiile de care au nevoie și vor fi nevoiți să le clarifice în mod repetat. Comparați rezultatele căutării pentru același cuvânt pe motorul de căutare Yandex (Figura 5.9) sau Google cu rezultatele căutării Nigma (Figura 5.8) - o mașină care grupează rezultatele căutării pe diferite subiecte - veți vedea cât de puține subiecte diferite ajung la paginile de căutare de top ale motoarelor de căutare „marilor”.

1. Scopul și clasificarea metodelor de optimizare pentru motoarele de căutare

Datorită complexității obiectelor de proiectare, criteriile de calitate și limitările problemei de optimizare parametrică (1.5), de regulă, sunt prea complexe pentru utilizarea metodelor clasice de căutare a unui extremum. Prin urmare, în practică, se acordă preferință metodelor de optimizare pentru motoarele de căutare. Să luăm în considerare etapele principale ale oricărei metode de căutare.

Datele inițiale în metodele de căutare sunt precizia necesară a metodei și punctul de pornire al căutării X 0 .

Apoi se selectează valoarea pasului de căutare h, iar după o anumită regulă se obțin noi puncte X k +1 din punctul anterior X k, cu k = 0,1,2,... Obținerea de noi puncte continuă până când este îndeplinită condiţia opririi căutării . Ultimul punct de căutare este considerat soluția problemei de optimizare. Toate punctele de căutare alcătuiesc traiectoria de căutare.

Metodele de căutare pot diferi unele de altele în procedura de alegere a mărimii pasului h (pasul poate fi același la toate iterațiile metodei sau calculat la fiecare iterație), algoritmul pentru obținerea unui nou punct și condiția pentru oprirea căutare.

Pentru metodele care utilizează o dimensiune constantă a pasului, h ar trebui să fie ales semnificativ mai mic decât precizia h » Öe). Dacă, cu dimensiunea pasului selectată h, nu este posibil să obțineți o soluție cu precizia necesară, atunci trebuie să reduceți dimensiunea pasului și să continuați căutarea din ultimul punct al traiectoriei existente.

Este obișnuit să folosiți următoarele ca condiții de terminare a căutării:

toate punctele de căutare învecinate sunt mai proaste decât precedentul;

çФ(X k +1) - Ф(X k)ç£ e, adică valorile funcției obiectiv Ф(Х) în punctele vecine (nou și anterioare) diferă între ele cu o sumă nu mai mare de precizia cerută e;

adică toate derivatele parțiale la noul punct de căutare sunt practic egale cu 0 sau diferă de 0 cu o sumă care nu depășește precizia specificată e.

Algoritmul pentru obținerea unui nou punct de căutare X k +1 din punctul anterior X k este diferit pentru fiecare metodă de căutare, dar orice nou punct de căutare nu trebuie să fie mai rău decât cel anterior: dacă problema de optimizare este o problemă de găsire a unui minim , apoi Ф(Х k +1) £ Ф (X k).

Metodele de optimizare pentru motoarele de căutare sunt de obicei clasificate în funcție de ordinea derivatei funcției obiectiv utilizate pentru obținerea de noi puncte. Astfel, în metodele de căutare de ordinul zero nu este necesar să se calculeze derivate, ci mai degrabă funcția Ф(Х) în sine este suficientă. Metodele de căutare de ordinul întâi folosesc derivate parțiale I, iar metodele de ordinul doi folosesc matricea derivatelor a doua (matricea Hessiană).

Cu cât este mai mare ordinea derivatelor, cu atât este mai justificată alegerea unui nou punct de căutare și cu atât este mai mic numărul de iterații ale metodei. Dar, în același timp, complexitatea fiecărei iterații crește din cauza necesității calculului numeric al derivatelor.

Eficacitatea metodei de căutare este determinată de numărul de iterații și numărul de calcule ale funcției obiectiv Ф(Х) la fiecare iterație a metodei (N). Să ne uităm la cele mai comune metode de căutare, clasându-le în ordinea descrescătoare a numărului de iterații.

Pentru metodele de căutare de ordinul zero, este adevărat: în metoda de căutare aleatorie este imposibil să se prezică în prealabil numărul de calcule Ф(Х) la o iterație N, iar în metoda de coborare a coordonatelor N £ 2×n, unde n este numărul de parametri controlați X = (x1, x2. ,…,xn).

Pentru metodele de căutare de ordinul întâi sunt valabile următoarele estimări: în metoda gradientului cu pas constant N=2×n; în metoda gradientului cu împărțirea în trepte N = 2×n + n 1, unde n 1 este numărul de calcule Ф(Х) necesare pentru verificarea condiției de împărțire a treptei; în metoda coborârii celei mai abrupte N=2×n+n 2, unde n 2 este numărul de calcule Ф(Х) necesare pentru a calcula dimensiunea optimă a pasului; iar în metoda Davidon – Fletcher – Powell (DFP) N = 2× n + n 3, unde n 3 este numărul de calcule Ф(Х) necesare pentru a calcula o matrice care aproximează matricea hessiană (pentru valorile n 1, n 2, n 3 relația n 1 este valabilă< n 2 << n 3).

Și în sfârșit, în metoda de ordinul doi - metoda lui Newton N = 3×n 2. La obținerea acestor estimări, se presupune un calcul aproximativ al derivatelor folosind formulele diferențelor finite / 6 /:


adică, pentru a calcula derivata de ordinul întâi, trebuie să cunoașteți două valori ale funcției obiectiv Ф(Х) în puncte învecinate, iar pentru a doua derivată, trebuie să cunoașteți valorile funcției la trei puncte.

În practică, metoda de coborâre cu cea mai abruptă și metoda DFT au găsit o utilizare pe scară largă ca metode cu un raport optim între numărul de iterații și intensitatea muncii lor.


2. Metode de căutare zero ordine

2.1. Metoda de căutare aleatorie

În metoda de căutare aleatorie, datele inițiale sunt precizia necesară a metodei e, punctul de plecare al căutării X 0 = (x1 0, x2. 0,…,xn 0) și valoarea pasului de căutare h. Căutarea de noi puncte se efectuează într-o direcție aleatorie, la care se amână un anumit pas h (Fig. 2.1), obținându-se astfel un punct de probă X ^ și verificând dacă punctul de probă este mai bun decât punctul de căutare anterior. Pentru problema de căutare minimă aceasta înseamnă că

Ф(Х ^) £ Ф(Х k) , k = 0,1,2… (2,4)

Dacă condiția (2.4) este îndeplinită, atunci punctul de încercare este inclus în traiectoria de căutare X k +1 = X ^ . În caz contrar, punctul de încercare este exclus din considerare și o nouă direcție aleatorie este selectată din punctul X k, k = 0,1,2,.

În ciuda simplității acestei metode, principalul său dezavantaj este faptul că nu se știe dinainte câte direcții aleatorii vor fi necesare pentru a obține un nou punct de traiectorie de căutare X k +1, ceea ce face costul unei iterații prea mare. În plus, deoarece informațiile despre funcția obiectiv Ф(Х) nu sunt utilizate la alegerea direcției de căutare, numărul de iterații în metoda de căutare aleatorie este foarte mare.

În acest sens, metoda de căutare aleatorie este utilizată pentru a studia obiectele de design puțin studiate și pentru a scăpa din zona de atracție a minimului local atunci când se caută extremul global al funcției obiectiv /6/.

2.2. Metoda coborării coordonate

Spre deosebire de metoda de căutare aleatorie, în metoda de coborâre a coordonatelor, ca posibile direcții de căutare sunt alese direcții paralele cu axele de coordonate, iar deplasarea este posibilă atât în ​​direcția de creștere, cât și de descreștere a valorii coordonatelor.

Datele inițiale în metoda coborării coordonatelor sunt dimensiunea pasului h și punctul de pornire al căutării X 0 = (x1 0, x2. 0,…, xn 0). Începem mișcarea din punctul X 0 de-a lungul axei x1 în direcția coordonatelor crescătoare. Obținem un punct de test X ^ cu coordonate (x1 0 +h, x2 0 ,…,xn 0), cu k = 0.

Să comparăm valoarea funcției Ф(Х ^) cu valoarea funcției din punctul de căutare anterior Х k. Dacă Ф(Х ^) £ Ф(Х k) (presupunem că este necesară rezolvarea problemei minimizării funcției obiectiv Ф(Х)), atunci punctul de încercare este inclus în traiectoria de căutare (Х k +1 = Х ^).

În caz contrar, excludem punctul de probă din considerare și obținem un nou punct de probă, deplasându-se de-a lungul axei x1 în direcția coordonatelor descrescătoare. Obținem un punct de test X ^ = (x1 k -h, x2. k ,…,xn k). Verificăm dacă Ф(Х ^) > Ф(Х k), apoi continuăm deplasarea de-a lungul axei x2 în direcția coordonatelor crescătoare. Obținem un punct de testare X ^ = (x1 k, x2. k +h,...,xn k), etc. Când se construiește o traiectorie de căutare, este interzisă mișcarea repetată de-a lungul punctelor incluse în traiectoria de căutare. Obținerea de noi puncte în metoda de coborâre a coordonatelor continuă până când se obține punctul X k, pentru care toate punctele de probă 2×n vecine (în toate direcțiile x1, x2.,…,xn în direcția de creștere și scădere a valorii fiecărei coordonate) va fi mai rău, adică Ф(Х ^) > Ф(Х k). Apoi căutarea se oprește și ultimul punct al traiectoriei de căutare X* = X k este selectat ca punct minim.


3. Metode de căutare la prima comandă

3.1. Structura metodei de căutare gradient

În metodele de căutare de ordinul întâi, vectorul gradient al funcției țintă grad (Ф(Х k)) este selectat ca direcție pentru căutarea maximului funcției obiectiv Ф(Х), iar vectorul antigradient -grad (Ф( Х k)) este ales pentru a căuta minimul. În acest caz, proprietatea vectorului gradient este utilizată pentru a indica direcția celei mai rapide schimbări în funcție:


Pentru studierea metodelor de căutare de ordinul întâi, următoarea proprietate este de asemenea importantă: vectorul gradient grad (Ф(Х k)) este direcționat de-a lungul normalei la dreapta de nivel a funcției Ф(Х) în punctul Х k (vezi Fig. 2.4). Liniile de nivel sunt curbe pe care funcția ia o valoare constantă (Ф(Х) = const).

În acest capitol ne vom uita la 5 modificări ale metodei gradientului:

metoda gradientului cu pas constant,

metoda gradientului cu diviziunea pasilor,

cea mai abruptă metodă de coborâre

metoda Davidon-Fletcher-Powell,

metoda adaptativă pe două niveluri.

3.2. Metoda gradientului cu pas constant

În metoda gradientului cu pas constant, datele inițiale sunt precizia necesară e, punctul de plecare al căutării X 0 și pasul de căutare h.

Noi puncte sunt obținute folosind formula.

Bună prieteni! În acest articol ne vom uita la conceptele și principiile de bază ale SEO care afectează motoarele de căutare Yandex și Google. Deci să mergem!

Principii de bază ale optimizării pentru motoarele de căutare SEO

Importanța postării invitaților

Nu cu mult timp în urmă a existat un adevărat tam-tam cu privire la interzicerea utilizării motoarelor de căutare. Ea a fost creditată cu un personaj spam. Dar, cu toate acestea, postarea oaspeților este încă foarte populară în rândul agenților de marketing pentru promovarea unei resurse pe internet. Principalul lucru care vi se cere este să creați conținut de calitate.

Crearea unei atmosfere favorabile pe resursa web pentru utilizatori

Indiferent de activitățile SEO pe care le desfășurați, ar trebui să vă amintiți că designul adecvat al site-ului web este o garanție a traficului acestuia. Și într-adevăr, indiferent la ce trucuri mergi pentru a promova o resursă web, toate acestea vor fi inutile dacă site-ul tău nu este interesant pentru utilizator. Prin urmare, este necesar să se creeze o interfață simplă și ușor de înțeles. Doar în acest caz site-ul tău are șansa să se claseze înalt în motoarele de căutare.

Elementul principal al oricărei resurse web este plasarea de conținut de calitate

Atât pentru azi, succes tuturor și ne revedem!

Datorită complexității și puținelor cunoștințe ale obiectelor de design, atât criteriile de calitate, cât și limitările problemei de optimizare parametrică sunt, de regulă, prea complexe pentru utilizarea metodelor clasice de căutare a unui extremum. Prin urmare, în practică, se acordă preferință metodelor de optimizare pentru motoarele de căutare. Sa luam in considerare principalele etape ale oricărei metode de căutare.

Datele inițiale din metodele de căutare sunt precizia necesară a metodei e și punctul de plecare al căutării X 0 .

Apoi este selectată dimensiunea pasului de căutare h, iar după o regulă se obțin puncte noi X k +1 prin punctul anterior X k la k= 0, 1, 2, … Obținerea de noi puncte continuă până când este îndeplinită condiția de oprire a căutării. Ultimul punct de căutare este considerat soluția problemei de optimizare. Toate punctele de căutare alcătuiesc traiectoria de căutare.

Metodele de căutare diferă unele de altele în procedura de alegere a mărimii pasului h(pasul poate fi același la toate iterațiile metodei sau calculat la fiecare iterație), algoritmul pentru obținerea unui nou punct și condiția pentru oprirea căutării.

Pentru metodele care utilizează o dimensiune constantă a pasului, h ar trebui aleasă mult mai puțină precizie e. Dacă la dimensiunea pasului selectată h Dacă nu este posibil să obțineți o soluție cu precizia necesară, atunci trebuie să reduceți dimensiunea pasului și să continuați căutarea din ultimul punct al traiectoriei existente.

Este obișnuit să folosiți următoarele ca condiții de terminare a căutării:

1) toate punctele de căutare învecinate sunt mai proaste decât precedentul;

2) ç F(X k +1 )–F(X k ) ç £ e, adică valorile funcției obiective F(X)în punctele adiacente (nou și anterioare) diferă între ele printr-o sumă nu mai mare decât precizia necesară e;

3) ,i = 1, …, n, adică toate derivatele parțiale la noul punct de căutare sunt practic egale cu 0, adică diferă de 0 cu o sumă care nu depășește precizia e.

Algoritm pentru obținerea unui nou punct de căutare X k+1 la punctul anterior X k diferit pentru fiecare metodă de căutare, dar fiecare nou punct de căutare nu trebuie să fie mai rău decât cel anterior: dacă problema de optimizare este o problemă de căutare minimă, atunci F(X k +1 ) £ F(X k ).

Metodele de optimizare pentru motoarele de căutare sunt de obicei clasificate în funcție de ordinea derivatei funcției obiectiv utilizate pentru obținerea de noi puncte. Astfel, în metodele de căutare de ordin zero nu este nevoie să se calculeze derivate, ci mai degrabă funcția în sine este suficientă F(X). Metodele de căutare de ordinul întâi folosesc derivate parțiale I, iar metodele de ordinul doi folosesc matricea derivatelor a doua (matricea Hessiană).

Cu cât este mai mare ordinea derivatelor, cu atât este mai justificată alegerea unui nou punct de căutare și cu atât este mai mic numărul de iterații ale metodei. Dar, în același timp, fiecare iterație necesită forță de muncă datorită necesității calculului numeric al derivatelor.

Eficacitatea metodei de căutare este determinată de numărul de iterații și de numărul de calcule ale funcției obiectiv F(X) la fiecare iterare a metodei.

Sa luam in considerare cele mai comune metode de căutare, aranjandu-le in ordinea descrescatoare a numarului de iteratii.

Pentru metodele de căutare de comandă zero următorul lucru este adevărat: în metoda de căutare aleatorie este imposibil să se prezică în avans numărul de calcule F(X)într-o singură iterație N, iar în metoda coborârii coordonate N£2× n, Unde n- numărul de parametri controlați X = (X 1 , X 2 .,…, X n ).

Pentru metodele de căutare la prima comandă sunt valabile următoarele estimări: în metoda gradientului cu pas constant N = 2 × n; în metoda gradientului cu diviziunea în trepte N=2 × n + n 1 , Unde n 1 – numărul de calcule F(X), necesar pentru verificarea condițiilor de zdrobire în trepte; în cea mai abruptă metodă de coborâre N = 2 × n + n 2 , Unde n 2 – numărul de calcule F(X), necesar pentru calcularea mărimii optime a pasului; și în metoda Davidon-Fletcher-Powell (DFP). N = 2 × n + n 3 , Unde n 3 – numărul de calcule F(X), necesar să se calculeze o matrice care aproximează matricea Hessiană (pentru cantități n 1 , n 2 , n 3 raportul este valabil n 1 < n 2 < n 3 ).

Și, în sfârșit în metoda de ordinul doi- Metoda lui Newton N = 3 × n 2 .

La obținerea acestor estimări, se presupune că derivatele sunt aproximativ calculate folosind formule de diferențe finite, adică pentru a calcula derivata de ordinul întâi, sunt necesare două valori ale funcției obiectiv. F(X), iar pentru derivata a doua – valorile funcției în trei puncte.

În practică, metoda de coborâre cu cea mai abruptă și metoda DFT au găsit o utilizare pe scară largă ca metode cu un raport optim între numărul de iterații și intensitatea muncii lor.

Să începem să ne uităm la metodele de căutare la comandă zero. În metoda de căutare aleatorie, datele inițiale sunt precizia necesară a metodei e, punctul de plecare al căutării X 0 = (X 1 0 , X 2 0 , …, X n 0 ) și dimensiunea pasului de căutare h.

Căutarea de noi puncte se efectuează într-o direcție aleatorie, pe care pasul specificat este amânat h, obținându-se astfel un punct de probă și verificarea dacă punctul de încercare este mai bun decât punctul de căutare anterior. Pentru problema de căutare minimă, aceasta înseamnă că:

(6.19)

Dacă această condiție este îndeplinită, atunci punctul de încercare este inclus în traiectoria de căutare (
). În caz contrar, punctul de încercare este exclus din considerare și este selectată o nouă direcție aleatorie din punct X k , k= 0, 1, 2, … (Fig. 6.3).

X k +1

F(X)

În ciuda simplității acestei metode, principalul său dezavantaj este faptul că nu se știe dinainte câte direcții aleatorii vor fi necesare pentru a obține un nou punct pe traiectoria de căutare. X k +1 , ceea ce face costul unei iterații prea mare.

Orez. 6.3. Spre metoda de căutare aleatorie

În plus, deoarece alegerea direcției de căutare nu folosește informații despre funcția obiectiv F(X), numărul de iterații în metoda de căutare aleatorie este foarte mare.

În acest sens, metoda de căutare aleatorie este utilizată pentru a studia obiectele de design puțin studiate și pentru a scăpa din zona de atracție a minimului local atunci când se caută extremul global al funcției obiectiv.

Spre deosebire de metoda de căutare aleatorie, în metoda de coborâre a coordonatelor, ca posibile direcții de căutare sunt alese direcții paralele cu axele de coordonate, iar deplasarea este posibilă atât în ​​direcția de creștere, cât și de descreștere a valorii coordonatelor.

Datele inițiale în metoda de coborâre prin coordonate sunt dimensiunea pasului hși punctul de plecare al căutării X 0 = (X 1 0 , X 2 . 0 ,…, X n 0 ) . Începem mișcarea dintr-un punct X 0 de-a lungul axei x 1 în direcția coordonatelor crescătoare. Să obținem un punct de testare
(X 1 k + h, X 2 k ,…, X n k), k= 0. Să comparăm valoarea funcției F(X) cu valoarea funcţiei la punctul de căutare anterior X k .

Dacă
(presupunem că trebuie să rezolvăm problema minimizării F(X), atunci punctul de încercare este inclus în traiectoria de căutare (
) .

În caz contrar, excludem punctul de încercare din considerare și obținem un nou punct de încercare, deplasându-se de-a lungul axei X 1 spre scăderea coordonatelor. Să obținem un punct de testare
(X 1 k h, X 2 k ,…, X n k). Verifica daca
, apoi continuăm deplasarea de-a lungul axei x 2 în direcția coordonatelor crescătoare. Să obținem un punct de testare
(X 1 k + h, X 2 k ,…, X n k), etc.

Când se construiește o traiectorie de căutare, este interzisă mișcarea repetată de-a lungul punctelor incluse în traiectoria de căutare.

Obținerea de noi puncte în metoda coborârii coordonate continuă până când se obține punctul X k pentru care toate 2× vecine n puncte de încercare (în toate direcțiile X 1 , X 2 , …, X nîn direcţia creşterii şi scăderii valorilor coordonatelor) va fi mai rău, adică
. Apoi căutarea se oprește și ultimul punct al traiectoriei de căutare este selectat ca punct minim X*= X k .

Să ne uităm la funcționarea metodei de coborâre prin coordonate folosind un exemplu (Fig. 2.21): n = 2, X = (X 1 , X 2 ), F (X 1 , X 2 ) min, F(X 1 , X 2 ) = (X 1 – 1) 2 + (X 2 – 2) 2 , h= 1, X 0 = (0, 1) .

    Începem să ne mișcăm de-a lungul axei X 1 în sus

coordonate. Să obținem primul punct de testare

(X 1 0 + h, X 2 0 ) = (1, 1), F() = (1-1) 2 + (1-2) 2 = 1,

F(X 0 ) = (0-1) 2 + (1-2) 2 = 2,

F( ) < Ф(Х 0 )  X 1 = (1, 1).

    X 1 din punct X 1

=(X 1 1 + h, X 2 1 ) = (2, 1), F( ) = (2-1) 2 + (1-2) 2 = 2,

F(X 1 ) = (1-1) 2 + (1-2) 2 = 1,

acesta este F( ) > Ф(Х 1 ) – punctul de încercare cu coordonatele (2, 1) este exclus din considerare, iar căutarea minimului continuă din punct X 1 .

    Continuăm deplasarea de-a lungul axei X 2 din punct X 1 spre creşterea coordonatelor. Să obținem un punct de testare

= (X 1 1 , X 2 1 + h) = (1, 2), F( ) = (1-1) 2 + (2-2) 2 = 0,

F(X 1 ) = (1-1) 2 + (1-2) 2 = 1,

F( ) < Ф(Х 1 ) X 2 = (1, 2).

    Continuăm deplasarea de-a lungul axei X 2 din punct X 2 spre creşterea coordonatelor. Să obținem un punct de testare

= (X 1 2 , X 2 2 + h) = (1, 3), F( ) = (1-1) 2 + (3-2) 2 = 1,

F(X 2 ) = (1-1) 2 + (2-2) 2 = 0,

acesta este F( ) > Ф(Х 2 ) – punctul de încercare cu coordonatele (1, 3) este exclus din considerare, iar căutarea minimului continuă din punct X 2 .

5. Continuați să vă deplasați de-a lungul axei X 1 din punct X 2 spre creşterea coordonatelor. Să obținem un punct de testare

= (X 1 2 + h, X 2 2 ) = (2, 2), F( ) = (2-1) 2 + (2-2) 2 =1,

F(X 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

acesta este F(X ^ ) > Ф(Х 2 ) – punctul de încercare cu coordonatele (2, 2) este exclus din considerare, iar căutarea minimului continuă din punct X 2 .

6. Continuați să vă deplasați de-a lungul axei X 1 din punct X 2 spre scăderea coordonatelor. Să obținem un punct de testare

= (X 1 2 - h, X 2 2 ) = (0, 2), F( ) = (0-1) 2 +(2-2) 2 = 1,

F(X 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

acesta este F( ) > Ф(Х 2 ) – punctul de încercare cu coordonatele (0, 2) este exclus din considerare, iar căutarea minimului este finalizată, deoarece pentru punctul X 2 Condiția pentru oprirea căutării este îndeplinită. Punctul minim al funcției F(X 1 , X 2 ) = (X 1 – 1) 2 + (X 2 – 2) 2 este X * = X 2 .

În metodele de căutare de ordinul întâi, ca direcția de căutare a maximului funcției obiectiv F(X) este selectat vectorul de gradient al funcției obiectiv grad(F(X k )) , pentru a găsi minimul – vectorul antigradient - grad(F(X k )) . În acest caz, proprietatea vectorului gradient este utilizată pentru a indica direcția celei mai rapide schimbări în funcție:

.

Următoarea proprietate este de asemenea importantă pentru studierea metodelor de căutare de ordinul întâi: gradient vectorial grad(F(X k )) , direcționat normal către linia nivelului funcției F(X) la punct X k .

Linii de nivel– acestea sunt curbe pe care funcția ia o valoare constantă ( F(X) = const).

Această secțiune discută cinci modificări ale metodei gradientului:

– metoda gradientului cu pas constant,

– metoda gradientului cu diviziunea pasilor,

– metoda celei mai abrupte coborâri,

– metoda Davidon-Fletcher-Powell (DFP),

– metoda adaptativă pe două niveluri.

În metoda gradientului cu pas constant, datele inițiale sunt precizia necesară e, punctul de plecare al căutării X 0 și pasul de căutare h.

X k+1 = X k – h× gradF(X k ), k=0,1,2,… (6.20)

Formula (2.58) se aplică dacă pentru funcție F(X) trebuie să găsiți minimul. Dacă problema de optimizare parametrică este pusă ca o problemă de căutare maximă, atunci pentru a obține noi puncte în metoda gradientului cu pas constant, se utilizează formula:

X k+1 = X k +h× gradF(X k ), k = 0, 1, 2, … (6.21)

Fiecare dintre formulele (6.20), (6.21) este o relație vectorială care include n ecuații. De exemplu, luând în considerare X k +1 = (X 1 k +1 , X 2 k +1 ,…, X n k +1 ), X k =(X 1 k , X 2 k ,…, X n k ) :

(6.22)

sau, în formă scalară,

(6.23)

În forma generală (2.61) putem scrie:

(6.24)

De regulă, o combinație de două condiții este utilizată ca o condiție pentru oprirea căutării în toate metodele de gradient: ç F(X k +1 ) - F(X k ) ç £ e sau
pentru toți i =1, …, n.

Luați în considerare un exemplu de găsire a unui minim folosind metoda gradientului cu un pas constant pentru aceeași funcție ca și în metoda coborării coordonatelor:

n = 2, X = (X 1 , X 2 ), =0.1,

F(X 1 , X 2 ) = (X 1 – 1) 2 + (X 2 – 2) 2 min, h = 0,3, X 0 = (0, 1).

    Să obținem un punct X 1 conform formulei (2.45):

F(X 1 ) = (0.6–1) 2 + (1.6–2) 2 = 0,32, F(X 0 ) = (0 –1) 2 + (1–2) 2 = 2.

F(X 1 ) - F(X 0 ) =1,68 > = 0,1  continua căutarea.

    Să obținem un punct X 2 conform formulei (2.45):

F(X 2 ) = (0.84–1) 2 + (1.84–2) 2 = 0.05,

F(X 1 ) = (0,6 –1) 2 + (1,6–2) 2 = 0,32.

F(X 1 ) - F(X 0 ) =0,27 > = 0,1  continua căutarea.

    În mod similar, obținem X 3:

F(X 3 ) = (0.94–1) 2 + (1.94–2) 2 = 0.007,

F(X 3 ) = (0,84 –1) 2 + (1,84–2) 2 = 0,05.

Întrucât este îndeplinită condiția de oprire a căutării, găsit X * = X 3 = (0,94, 1,94) cu precizie = 0.1.

Traiectoria de căutare pentru acest exemplu este prezentată în Fig. 6.5.

Avantajul incontestabil al metodelor de gradient este absența costurilor inutile pentru obținerea punctelor de testare, ceea ce reduce costul unei iterații. În plus, datorită utilizării unei direcții de căutare eficiente (vector gradient), numărul de iterații este redus semnificativ în comparație cu metoda de coborâre a coordonatelor.

În metoda gradientului, puteți reduce ușor numărul de iterații dacă învățați să evitați situațiile în care se efectuează mai mulți pași de căutare în aceeași direcție.

În metoda gradientului cu împărțirea pașilor, procedura de selectare a mărimii pasului la fiecare iterație este implementată după cum urmează.

e, punctul de plecare al căutării X 0 h(de obicei h= 1). Puncte noi se obțin folosind formula:

X k+1 = X k – h k × gradF(X k ), k=0,1,2,…, (6.25)

Unde h k– dimensiunea pasului per k iterația de căutare, la h k trebuie îndeplinită următoarea condiție:

F(X k h k × gradF(X k )) £ F(X k ) - h k ×½ gradF(X k ) ½ 2 . (6.26)

Dacă valoarea h k este astfel încât inegalitatea (2.64) nu este satisfăcută, atunci pasul este împărțit până când această condiție este îndeplinită.

Împărțirea în trepte se realizează conform formulei h k = h k ×a, unde 0< A < 1.Такой подход позволяет сократить число итераций, но затраты на проведение одной итерации при этом несколько возрастают.

Acest lucru facilitează înlocuirea și extinderea procedurilor, datelor și cunoștințelor.

În metoda de coborâre cu cea mai abruptă, la fiecare iterație a metodei gradientului este selectat pasul optim în direcția gradientului.

Datele de intrare sunt exactitatea necesară e, punctul de plecare al căutării X 0 .

Puncte noi se obțin folosind formula:

X k+1 = X k – h k × gradF(X k ), k=0,1,2,… , (6.27)

Unde h k = arg minF(X k h k × gradF(X k )) , adică pasul este selectat pe baza rezultatelor optimizării unidimensionale în raport cu parametrul h (la 0< h < ¥).

Ideea principală a celei mai abrupte metode de coborâre este că, la fiecare iterație a metodei, dimensiunea maximă posibilă a pasului este selectată în direcția celei mai rapide scăderi a funcției obiectiv, adică în direcția vectorului antigradient al funcţie F(X) la punct X k. (Fig. 2.23).

Atunci când alegeți dimensiunea optimă a pasului, este necesar dintr-o varietate de X M = (X½ X= X k h× gradF(X k ), h Î / h = 22(2 h-1)2=8(2h-1)=0.

Prin urmare, h 1 = 1/2 – pas optim la prima iterație a metodei celei mai abrupte de coborâre. Apoi

X 1 = X 0 – 1/2gradF(X 0 ),

X 1 1 =0 -1/2 = 1, X 2 1 = 1-1/2 = 2  X 1 = (1, 2).

Să verificăm dacă sunt îndeplinite condițiile de terminare a căutării la punctul de căutare X 1 = (1, 2). Prima condiție nu este îndeplinită

F(X 1 )-F(X 0 ) = 0-2 =2 > = 0,1, dar corect

adică toate derivatele parțiale cu acuratețe poate fi considerat egal cu zero, punctul minim se găsește: X*=X 1 =(1, 2). Traiectoria de căutare este prezentată în Fig. 6.7.

Astfel, metoda cea mai abruptă de coborâre a găsit punctul minim al funcției obiectiv într-o iterație (datorită faptului că liniile de nivel ale funcției F(X 1 , X 2 ) = (X 1 – 1) 2 + (X 2 – 2) 2 . ((X 1 – 1) 2 + (X 2 –2) 2 = const este ecuația unui cerc, iar vectorul antigradient din orice punct este direcționat precis către punctul minim - centrul cercului).

În practică, funcțiile obiectiv sunt mult mai complexe, liniile au și o configurație complexă, dar în orice caz este adevărat: dintre toate metodele de gradient, cea mai abruptă metodă de coborâre are cel mai mic număr de iterații, dar găsirea pasului optim. utilizarea metodelor numerice prezintă unele probleme, deoarece în problemele reale apărute la proiectarea SRE, utilizarea metodelor clasice pentru găsirea unui extremum este aproape imposibilă.

Pentru problemele de optimizare în condiții de incertitudine (optimizarea obiectelor stocastice), în care unul sau mai mulți parametri controlați sunt variabile aleatoare, se utilizează o metodă de optimizare a căutării adaptive pe două niveluri, care este o modificare a metodei gradientului.

X 0 și valoarea inițială a pasului de căutare h(de obicei
). Puncte noi se obțin folosind formula:

X k+1 = X k – h k+1 × gradФ(Х k), k= 0,1,2,…, (6.28)

unde este pasul h k +1 poate fi calculat folosind una dintre cele două formule: h k +1 = h k + l k +1 ×a k, sau h k +1 = h k × exp(l k +1 ×a k ) . Factorul de reducere este de obicei ales l k =1/ k, Unde k– numărul de iterație al metodei de căutare.

Sensul utilizării coeficientului l k este că la fiecare iterație se face o anumită ajustare a mărimii pasului și cu cât numărul de iterație al metodei de căutare este mai mare, cu atât următorul punct de căutare este mai aproape de punctul extremum și cu atât ajustarea pasului ar trebui să fie mai atentă (mai mică). pentru a preveni îndepărtarea de punctul extremum.

Magnitudinea A k determină semnul unei astfel de ajustări (cu A k>0 treapta crește și când A k <0 уменьшается):

A k =semn((gradF(X k ), gradF(X))} ,

acesta este A k este semnul produsului scalar al vectorilor de gradienți ai funcției obiectiv în puncte X kȘi , Unde =X k h k × gradF(X k ) punct de testare și h k este pasul care a fost folosit pentru a obține punctul X k la iterația anterioară a metodei.

Semnul produsului scalar a doi vectori ne permite să estimăm mărimea unghiului dintre acești vectori (notăm acest unghi ). Dacă  9, atunci produsul scalar trebuie să fie pozitiv, în caz contrar negativ. Ținând cont de cele de mai sus, nu este greu de înțeles principiul ajustării mărimii pasului în metoda adaptivă pe două niveluri. Dacă unghiul dintre antigradienţi   (unghi ascuțit), atunci direcția de căutare este din punct X k este ales corect, iar dimensiunea pasului poate fi mărită (Fig. 6.8).

Orez. 6.8. Selectarea direcției de căutare când  

Dacă unghiul dintre antigradienţi   (unghi obtuz), atunci direcția de căutare este din punct X k ne îndepărtează de punctul minim X*, iar treapta trebuie redusă (Fig. 6.9).

Orez. 6.9. Selectarea direcției de căutare când > 

Metoda se numește două niveluri, deoarece la fiecare iterație de căutare nu se analizează unul, ci două puncte și se construiesc doi vectori antigradient.

Acest lucru, desigur, crește costul efectuării unei iterații, dar permite adaptarea (ajustarea) mărimii pasului h k +1 asupra comportamentului factorilor aleatori.

În ciuda ușurinței de implementare, metoda cea mai abruptă de coborâre nu este recomandată ca o procedură de optimizare „serioasă” pentru rezolvarea problemei optimizării neconstrânse a unei funcții a mai multor variabile, deoarece funcționează prea lent pentru utilizare practică.

Motivul pentru aceasta este faptul că cea mai abruptă proprietate de coborâre este o proprietate locală, deci sunt necesare schimbări frecvente în direcția de căutare, ceea ce poate duce la o procedură de calcul ineficientă.

O metodă mai precisă și mai eficientă pentru rezolvarea unei probleme de optimizare parametrică poate fi obținută utilizând derivatele secunde ale funcției obiectiv (metode de ordinul doi). Ele se bazează pe aproximarea (adică înlocuirea aproximativă) a funcției F(X) funcţie j(X),

j(X) = Ф(Х 0 ) + (X - X 0 ) T × gradF(X 0 ) + ½ G(X 0 ) × (X-X 0 ) , (6.29)

Unde G(X 0 ) - Matricea Hessian (Hessian, matricea derivatelor secunde), calculată la punct X 0 :

2 F(X) 2 F(X) . . . 2 F(X)

X 1 2 X 1 X 2 X 1 X n

G(X) = 2 F(X) 2 F(X) . . . 2 F(X)

X 2 X 1 X 2 2 X 2 X n

2 F(X) 2 F(X) . . . 2 F(X)

X n X 1 X n X 2 X n 2 .

Formula (2.67) reprezintă primii trei termeni ai expansiunii funcției F(X)într-o serie Taylor în vecinătatea unui punct X 0 , prin urmare, la aproximarea funcției F(X) funcţie j(X) apare o eroare de cel mult ½ ½ X-X 0 ½½ 3 .

Ținând cont de (2.67), în metoda lui Newton datele inițiale sunt exactitatea necesară e, punctul de plecare al căutării X 0 iar noi puncte sunt obținute folosind formula:

X k +1 = X k G -1 (X k ) × gradФ(Х k), k=0,1,2,…, (6.30)

Unde G -1 (X k ) – matrice inversă matricei Hessian, calculată la punctul de căutare X k (G(X k ) × G -1 (X k ) = eu,

I = 0 1 … 0 - matrice de identitate.

Să luăm în considerare un exemplu de găsire a unui minim pentru aceeași funcție ca în metoda gradientului cu pas constant și în metoda coborării coordonatelor:

n = 2, X = (X 1 , X 2 ), = 0.1,

F(X 1 , X 2 ) = (X 1 – 1) 2 + (X 2 – 2) 2 min, X 0 =(0, 1).

    Să obținem un punct X 1 :

X 1 = X 0 – G –1 (X 0)∙grad Ф(X 0),

Unde

grad Ф(X 0) = (2∙(x 1 0 –1)), 2∙(x 1 0 –1) = (–2, –2), adică

sau

X 1 1 = 0 – (1/2∙(–2) + 0∙(–2)) = 1,

X 2 1 = 1 – (0∙(–2) + 1/2∙(–2)) = 2,

X 1 = (1, 2).

Să verificăm dacă sunt îndeplinite condițiile de terminare a căutării: prima condiție nu este îndeplinită

F(X 1 )-F(X 0 ) = 0 - 2  = 2 > = 0.1,

dar corect

adică toate derivatele parțiale cu precizie  pot fi considerate egale cu zero, se găsește punctul minim: X* = X 1 = (12). Traiectoria de căutare coincide cu traiectoria celei mai abrupte metode de coborâre (Fig. 2.24).

Principalul dezavantaj al metodei lui Newton este costul calculării Hessianului invers G -1 (X k ) la fiecare iterare a metodei.

Metoda DFT depășește deficiențele atât ale celei mai abrupte metode de coborâre, cât și ale metodei lui Newton.

Avantajul acestei metode este că nu necesită calculul Hessianului invers, iar direcția - N k × gradF(X k), unde N k- o matrice simetrică definită pozitivă care este recalculată la fiecare iterație (pasul metodei de căutare) și aproximează hessianul invers G -1 (X k ) (N k ® G -1 (X k ) cu spor k).

În plus, metoda DFT, atunci când este utilizată pentru a găsi extremul unei funcții de n variabile, converge (adică oferă o soluție) în nu mai mult de n iterații.

Procedura de calcul a metodei DFT include următorii pași.

Datele de intrare sunt precizia cerută e, punctul de pornire al căutării X 0 și matricea inițială N 0 (de obicei matricea de identitate, N 0 = I).

    Pe k Este cunoscută iterația metodei, punctul de căutare X k și matricea N k (k = 0,1,…).

    Să notăm direcția de căutare

d k = -N k × gradФ(Х k).

Găsirea mărimii optime a pasului l k in directia d k folosind metode de optimizare unidimensională (la fel ca în metoda de coborâre cu cea mai abruptă a fost selectată valoarea în direcția vectorului antigradient)

H. Să notăm v k = l k × d kși obțineți un nou punct de căutare X k +1 = X k + v k .

4. Verificați dacă este îndeplinită condiția pentru oprirea căutării.

Dacă ½ v k ½£ e sau ½ gradF(X k +1 ) ½£ e, atunci se găsește soluția X * = X k +1 . În caz contrar, continuăm calculele.

5. Să notăm u k = gradФ(Х k +1) - gradФ(Х k) și matrice N k +1 calculează folosind formula:

H k +1 = H k +A k + B k , (6.31)

Unde A k = v k . v k T /(v k T × u k ) , B k = - H k × u k . u k T . H k /(u k T × H k × u k ) .

A kȘi ÎN k sunt matrici auxiliare de dimensiune n X n (v k T corespunde unui vector rând, v kînseamnă vector coloană, rezultatul înmulțirii n-linie dimensională pe n-coloana dimensională este o cantitate scalară (un număr), iar înmulțirea unei coloane cu un rând dă o matrice de dimensiune n X n).

6. Măriți numărul de iterație cu unul și mergeți la punctul 2 al acestui algoritm.

Metoda DFT este o procedură de optimizare puternică care este eficientă în optimizarea majorității funcțiilor. Pentru optimizarea unidimensională a mărimii pasului în metoda DFT se folosesc metode de interpolare.

Mulți specialiști SEO vorbesc despre tot felul de modalități magice de a „aduce site-ul tău în TOP 3 în două săptămâni”. Orice manager atent cunoaște de mult principiul brânzei gratuite și înțelege că munca de calitate costă întotdeauna mult. Principiul principal al optimizării pentru motoarele de căutare este simplu - fii mai unic, mai rapid și mai autorizat decât concurenții tăi. În mâinile unui profesionist SEO calificat, instrumentele SEO pot provoca o creștere a traficului și a conversiilor, în timp ce munca unui profesionist SEO autodidact se poate solda cu o interdicție a site-ului și un dezastru pentru campania ta.

Optimizarea site-ului intern

Structura resursei este unul dintre cele mai importante elemente de promovare. Dacă etichetele de pagină nu sunt aliniate cu interogările populare și harta linkurilor este prost concepută, nici cumpărarea de linkuri, nici comportamentul crescut nu vor ajuta site-ul să ajungă în top. Optimizarea internă este munca minuțioasă de analiză și finalizare a materialelor la linia necesară - între lizibilitatea utilizatorului și saturația cu fraze cheie importante. Puteți citi mai multe despre calitatea textelor în acest articol.

Construirea de legături

Citarea și evaluarea autorității unei resurse reprezintă numărul de link-uri lăsate de utilizatori pe surse externe. În teorie, un link organic este o recomandare pentru un motor de căutare, semn că pagina la care este legată este de înaltă calitate și de încredere. Desigur, această abordare a clasificării autorității site-urilor a dat naștere unei piețe uriașe pentru comercianții de linkuri și a unui număr mare de resurse, al căror scop este doar de a crește masa de linkuri pentru bani, de a o crește artificial. Motoarele de căutare Google și Yandex luptă împotriva unor astfel de brokeri de linkuri, excluzându-i din rezultatele căutării și reducând importanța linkurilor lor la zero. În 2013, este logic să achiziționați numai link-uri permanente de înaltă calitate din resurse autorizate (vârstă lungă de nume de domeniu, PR ridicat, prezență în directoare mari și trafic uriaș). Astfel de link-uri sunt costisitoare, cu toate acestea, aduc trafic suplimentar și practic garantează un clasament ridicat pentru site-ul tău.

Emularea factorilor comportamentali

Cea mai importantă tendință a noului an este că căutarea începe să se concentreze asupra oamenilor. Mulți specialiști în optimizare folosesc cu succes emularea comportamentală de mult timp. De exemplu, dacă un utilizator introduce interogarea „Cea mai delicioasă cafea din oraș” și găsește pagina „Cafenea 1”, merge la ea, se uită la mai multe pagini timp de 3-10 minute și apoi continuă să adauge pagina favoriților lui – acesta este un semn bun pentru motorul de căutare.că „Casa de cafea 1” este foarte bun. Să ne uităm la un alt exemplu. Pentru aceeași cerere, există o poziție „Coffee shop 2”, din care utilizatorii fug după 15 secunde și nu se mai întorc. Acesta este un minus imens, care demonstrează că „Coffee Shop 2” este plictisitor și neinteresant. Folosind cu pricepere aceste cunoștințe, un specialist SEO competent poate ridica rapid și fără investiții uriașe o resursă în TOP10 sau chiar TOP3.

Marketingul social

Un subiect separat este optimizarea site-ului web pentru nevoile rețelelor sociale (așa-numitul SEO 2.0). Ideea principală a acestor măsuri este de a scrie și posta informații pe rețelele de socializare care să încurajeze discuția și, ca urmare, o creștere a traficului. Marketingul social include și like-urile utilizatorilor (Google+, Facebook). Clicurile vizitatorilor dvs. pe butoanele acestor rețele pot și vă vor crește clasarea în rezultatele căutării.