1. Adăugarea unui site nou în Rambler este posibil făcând clic pe linkul http://www.rarabler.ru/doc/add_site.shtml.Numele acestui motor de căutare este derivate din cuvântul englez Rambler, care se traduce ca „Vagabond”.Având în vedere că în îndepărtatul 1996, internetul din Rusia abia începea a fi dezvoltat.Pe timpurile celea nu era încă nici un motor de căutare, Rambler a fost un pionier în sistemul de căutare rus.

    Rambler scanează “cîmpurile” de pe internet în căutarea de noi resurse pe cont propriu. Cu toate acestea, pentru upload rapid în baza de resurse al motorului de căutare ne putem ifolosi de înregistrare manuală, care este posibilă numai pentru resursele situate în zonele vorbitoare de limbă rusă: Ru (Federaţia Rusă), Ua (Ucraina), by (Belarus), KZ (Kazahstan), kg (Kârgâzstan), uz (Uzbekistan), GE (Georgia).Pentru a adăuga un site situate în altă zonă, trebuie să se aplice cererea pentru înregistrare.

    Programul de indexare prelucrează redirecționarea, dar numai dacă redirecţionarea este efectuată într-un domen .ru sau în domenele unor ţări din CSI.

    Rambler prelucrează toate paginile „dinamice” cu numele de pagină cum ar fi *.asp*,*.php*,*.pl*,*/cgi-bin/*etc. pentru site-uri vizitate (conform Top100), precum şi site-uri care conţin informaţii utile unice pentru utilizatorii motorului de căutare.Pentru site-urile rămase este procesată doar o parte din aceste pagini.

    Fragmentele de tăguri HTML, marcate cu <script>…</script>, Rambler nu le indexează.

    Atunci când se lucrează cu Macromedia Flash se indexează toate linkurile într-un obiect, dar textul nu este indexat, astfel încât este recomandat să se creeze html-versiunea a Flash site-ului.Textul invizibil, şi frame-urile nu sunt recomandate.Rambler nu indexează o porțiune a documentului, care depășește 200 Kbytes, deaceea documentele mari, ar trebui să fie împărțite în mai multe părţi.Atunci când este efectuată indexarea se ia în considerare numai informaţiile pe care utilizatorul le poate vedea pe pagină.

    Căutarea utilizează datele Top 100. Robotul special verifică de două ori pe zi și adaugă în baza de date a motorului de căutare paginile noi de pe toate site-urile care se conțin în Top rating 100 şi au pus un contor pe paginile lor. După schimbarea de informaţii în clasamentul TOP 100, reînoirea în sistemul de căutare are loc timp de una sau două zile. Dacă site-ul este înregistrat în Top 100, acesta va fi găsit după unele interogări, chiar dacă informaţia a fost ştearsă din baza de indexare.

    Relevanţa pentru interogarea de căutare Rambler creşte atunci când:

    1. Pentru un număr mare de linkuri de la cuvintele cheie într-un anumit document;
    2. Solicitarea de localizare în numele (tăg <title>), titlurile documentelor (tag-uri <H1><H6>) și tăgurile cu format fizic sau logic;
    3. Forme aproape de cuvintele de interogare (caz, numărul, declinarea, etc, etc);
    4. Distantei mici dintre părţile component ale unei interogări de căutare (de exemplu, după cererea „SEO cursuri” fraze pe pagină „SEO Cursurile” i se vor acorda prioritate mai mare decât expresia „cursul de promovare de site-uri şi SEO”);
    5. Frecvenţa relativ mare de cuvinte cheie în document;
    6. Popularității mari de resurse (estimată prin valoarea contorului Top 100 şi numărului de linkuri tematice la resursele externe);
    7. Titlu mare la referința documentului (determinată de numărul de linkuri din surse sigure).

    Rambler indexează site-uri de pe internet avînd la bază propriile reguli, astfel fiind diferit de alți roboţi. Şi dacă în alte sisteme de căutare avem realizări mari fiind în top, în Rambler acest succes poate fi exact opus. Prin urmare, este important să știm ce foloseşte Rambler atunci când are loc indexarea site-ului nostru.
    Robotul sistemului Rambler se numește StackRambler.

    1. Rambler caută doar domenurile din zona”rusă”, dar putem face o cere privind indexarea Rambler. Singurul minus este acela că domenurile Internationale .com, .net, .org, etc sunt indexate într-un ritm mai lent, de exemplu, robotul Rambler ar vizita site-ul nostru nu la fel de rapid cum ar putea fi de dorit.
    2. Participarea în clasamentul Top 100 adaugă mai multe avantaje în „ochii ” motorului de căutare Rambler: în primul rând, site-ul nostru va fi indexat literalmente în aceeaşi zi şi în al doilea rând, în rezultatele de căutare primele cîteva poziții sunt date la site-urile participante în clasament. Prin urmare, dacă nu avem o concurenţă foarte mare, vom fi pe prima pagină a unei cereri cheie fără costuri suplimentare.
    3. Robotul StackRambler neagă categoric existenţa de META tăguri şi le ignoră complet. Singura excepţie este pentru <meta tag-ul name=”robots”> Toate comentariile găsite în document de asemenea, nu sunt luate în considerație de către robot. Cuvintele cheie ale site-ului trebuie să includă următoarele tăguri (după importanţă): <title>; <h1> .. <h4>; <b>, <strong>, <u>.

    Cu cît mai frecvent cuvintele sunt evidenţiate în document, cu atît mai des pagina noastră va apărea în rezultatele interogării.

    1. Poziţia în rezultatele de căutare este determinată de relevanţa site-ului nostru către cerere, adică, cît mai multe (în procente) pagini care să coțină interogarea de căutare, şi cît mai mult să fie selectate. Prin urmare, pentru site-uri Rambler mai mare prioritare au celea cu o tematică.
    2. Robotul indexator poate găsi cu uşurinţă hyperlinkuri Flash ascunse şi va  indexa paginile găsite pe ele. Însăși flash pagina Rambler nu va fi atinsă, de exemplu, un text scris în flash-meniu, robotul nu va indexa.
    3. Rambler se ocupă corect de toate site-urile dinamice: fişiere cu extensia  pl, php,asp şi altele. În acest caz, există unele limitări. De exemplu, dacă site-ul nostru nu prea este vizitat (conform Top 100), sau informaţia cu privire la aceasta nu este unica, Rambler va indexa, doar o parte din aceste pagini.
    pagerankmd.wordpress.com

Pentru a adăuga site-ul în google este nevoie de o pagină specială  http://www.google.ru/intl/ru_extra/addurl.html. Google realizează un algoritm sofisticat de ranking al site-ului, care include în sine în jur la 100 de criterii cu diferite greutăţi specifice. Deoarece algoritmul poate să se modifice, tehnologiile folosite anterior pot deja să nu lucreze adică să nu fie utile. Este important de ținut cont de acest lucru în caz că site-ul va pierde în poziții.

De aceea optimizarea site-ului este o sarcină nu de o zi și întotdeauna este nevoie de a schimba metodele și strategia.

Cei mai principali factori pentru google în prezent sunt:

  1. Rankingul paginii – este valoarea absolută, care este evaluată în mod regulat pentru fiecare pagină de către Google și este introdusă în indexul lui. Trebuie amintit că este important cantitatea şi calitatea de legături, redirecționate de pe alte site-uri pe al nostru. Ultima înseamnă că pentru ca rata site-ului nostru să fie mare, este important ca site-urile care redirecționează spre al nostru să posede un ranking mare și regulat să fie înnoite cu informație cât mai nouă.
  2. MiniRank/LocalRank- este modificația la PageRank, bazată pe structura linkurilor unui site. Aşa cum motoarele de căutare fac ranking la paginile web și nu la site, paginile web vor obține un ranking diferit una de alta, deaceea LokalRanking acționează considerabil asupra PageRankingului.
  3. Textul linkurilor (Anchor text)- este conținutul linkurilor, care redirecționează spre site-ul corespunzător. De exemplu dacă cineva creează un link spre un site cu mesajul “Atrageți atenție la site-ul acesta minunat”, atunci așa link este în zadar. Dar însă să presupunem că noi comercializăm cu anvelope de mașini de la reprezentanții oficiali, iar linkul de pe alt site sună “anvelope de mașini de la reprezentanții oficiali”.Așa un link ne va ajuta să ridicăm rankingul, atunci când cineva prin google caută anvelope de mașini.
  4. Semantica – un factor nou care duce la cele mai mari diferenţe în rezultate. Acest concept se referă la valoarea de cuvinte şi relaţia lor. Google a cumpărat o companie numita Applied Semantics în 2003, şi a folosit tehnologia sa pentru programul de publicitate contextuală. În conformitate cu principiile aplicate de semantica, crawler încearcă să determine care cuvinte au aceeaşi semnificaţie şi sunt utilizate întotdeauna împreună.

Să luăm în considerație doi termeni legați de metoda de ranking a paginilor web în Google:

Hilltop și SandBox.

1.Hilltop – un algoritm care a fost creat în 1999, în principal, el se uită la relaţia dintre paginile de „Expert” şi ” Authority „. „Expert” – o pagină care este legată cu referinţe la multe alte documente relevante.

2.SandBox – este o problemă destul de mare cu care se confruntă toți SEO-specialişti, care lucrează pentru a promova Web site-uri în limba engleză.

Google SandBox – dificultatea cea mai frecventă cu care se întâlnesc noile situri engleze în Google este crearea interogărilor de căutare competitive care ar putea crea o concurență considerabilă.

SandBox- o concepție destul de efectivă din câteva condiții:

În primul rând nu toate site-urile noi sunt afectate de acest lucru. Se consideră că la site-urile ruse SandBoxul nu se răspândeşte. Din site-urile ce nimeresc în SandBox unele site-uri sunt afectate mai tare decât altele și timpul care este necesar pentru a ieși di SandBox variază de la un site la altul.

Iar în al doilea rând ceva decide care interogări pot face concurență în anumite condiții de căutare. În unele cazuri site-ul nu poate ocupa nici un loc cu nici un cuvânt cheie din cele peste 50 000 de rezultate în timpul căutării, iar uneori în deosebi nu dă nici un rezultat al căutării cu nici un cuvânt cheie. SandBox are un bun efect ca un instrument eficient de a combate spam-ul. Astfel interzicând site-urilor noi să-și ridice rankingul în primele 6-12 luni, Google radical micșorează eficacitatea de optimizare a unui site nou sub o promovare rapidă.

Google este orientat spre a dărâma efortul celor care se așteaptă la un rezultat imediat în strategia de optimizare pe care o posedă. Mulţi specialişti noi de optimizare cred că dacă vor introduce multe cuvinte cheie pe paginile site-ului și vor cumpăra câteva linkuri scumpe, vor avea un succes mare și imediat în căutări, pentru ca munca lor să nu fie în zadar, însă evident că Google „nu este cointeresat în muncă de doi bani”. De aceea Google SandBox transformă așa lucru ușor  într-o strategie dificilă, astfel făcând-ui pe specialiștii începători să se dezamăgească. Dar Google SandBox atinge în așa mod nu toate site-urile noi. Putem presupune că mai există și alți factori de care trebuie să ținem cont în lucrul SandBoxului. Google se folosește de o mulțime de filtre:

  1. Norma după care linkurile noi se adaugă la site(pentru a ocoli SandBoxul, cel mai bine este de a alege o tactică treptată);
  2. Nivelul cu care linkurile acestea ajung de pe diferite IP-adrese(este preferabil o gamă largă);
  3. Nivelul de aceeași identitate a textului pe care o au aceste link-uri (Anchor text)(ar fi bine de încercat o mică modificație).

Aceste caracteristici ale linkurilor diferă site-ul optimizat al unui spammer, de unul care conține o informație utilă și care acumulează linkurile cinstit cu timpul. Site-urile care sunt implicate în periculoase tehnici SEO pe pagină, cum ar fi pagini de intrare cu redirectare sau  supraîncărcate cu cuvinte cheie, la fel în cele mai mari cazuri vor fi introduse în SandBox. Desigur, aceste site-uri, în general, au o şansa de a fi amendate pur şi simplu pentru faptul că utilizează o metodă  „neagră” de optimizare. Pentru a „zbura sub radar”, atunci când este lansat un nou site în limba engleză, ar trebui să evităm optimizarea bruscă a paginilor site-ului şi o creştere bruscă de opţiuni de intrare.

O abordare de a evita  încadrarea în SandBox este de a lansa un nou site pe un subdomeniu care este deja indexat. Odată ce subdomeniul va fi indexat, ar fi bine de utilizat  redirecţionarea 301 pentru a redirecţiona Google păianjenul (şi vizitatorii site-ul nostru) la start pe noul domeniu. Ce înseamnă Redirect 301 și pentru ce se folosește.Redirect 301 –  Permanent Redirect sau Moved Permanently și se folosește în cazurile următoare:

  • atunci când se schimbă numele de domeniu sau în cazul în care domeniul vechi nu ne aranjează şi site-ul va fi transferat pe unul nou
  • atunci când se deplasează pagina / secţiunea site-ului, de exemplu la schimbarea CMS(Content management system-sistemul de dirijare a conținutului) a site-uli
  • Pentru alipirea numelui site-ului cu www sau fără, în scopuri de a păstra PageRankul site-ului

Pentru a evita Google SandBox trebuie să aderăm la o poziţie reţinută. Aceasta înseamnă –  a lucra pentru a construi treptat o structură cu aspect natural de link-uri primite. O modalitate de a deveni un SEO-”geniu „este pur şi simplu de planifica tot în avans. De fiecare dată când pornim site-ul nou, trebuie să punem domeniul în perioada de aplicare cât mai curând posibil pentru indexarea Google. Nu este atât de importantă că încât nu este un conţinut plin, dar vom avea șansa să avansăm pe viitor. Crearea unui şablon mic cu link-uri multiple de intrare şi de ieşire şi o cantitate mică de conţinut unic va informa Googălul că site-ul nostru există. În astfel de cazuri, păianjenul va avea posibilitatea pentru a vizita și indexa site-ul nostrul, ceea ce ne va oferi șansa de a fi în afara SandBoxului, când de fapt ne vom ocupa serios de lucrul pentru finalizarea site-ului. Aceasta este una dintre acele strategii care nu ne va afecta ci poate chiar ajuta, fiind o metodă relativ ieftină şi care necesită foarte puţin efort pentru a fi pusă în aplicație. Există oare moduri de a reduce şansele de a fi inclus în SandBox, nu, nu există nici o metodă universală. Trebuie doar să se ia în considerație faptul că pentru ratingurile de Google este nevoie de timp. Chiar dacă site-ul este plasat temporar în Sandbox, ceea ce face imposibil de a obţine imediat un bun plasament pentru cuvintele cheie competitive, între timp se poate face alt lucru, putem planifica alte cuvinte cheie diferite de cele ce sunt. Iar din momentul ce ne vom îndepărta în cele din urmă din SandBox, ni se oferă imediat șansa de a ne apropia mult mai aproape de scopul pe care îl avem.

Ce este indexat de motorul de căutare Google? Sistemul indexează următorul text:

  1. În tăgul <title> (preferinţă având acele cuvinte cheie care sunt mai aproape de începutul tăgului de start, se indexează pînă la 1129 de caractere);
  2. Lincurile <а href=”file   exempl”>Cuvîntul cheie</а>;
  3. În tăgul <noframes>;
  4. Între tăgul <html>;
  5. Între tăgul <body> , dacă el nu se află în alt tăg;
  6. În tăgul <option>;
  7. În tăgul <img   alt = „Cuvîntul cheie”>.

Google nu indexează textul:

  1. Între tăgul  <style>;
  2. META – descriere;
  3. Între tăgul <meta http-equiv > ;
  4. Conținutul tăgului <!   — Comments   —> ;
  5. În denumirea fișierelor, <а   href=”keyword.html”>text</a> .

Ce afectează livrarea rezultatelor în motorul de căutare Google?
Rezultatele căutării emise de Google, sunt compuse din următorii factori:

  1. Paginile Page Rank. Numărul de pagini de la alte site-uri care se leagă de paginile noastre şi popularitatea lor. De exemplu, un link de pe site-ul http://www.kremlin.ru are mai multă greutate decât câteva referințe la http://www.narod.ru/ ~ Vasya.
  2. Cuvinte cheie în Anchor-text (textul este plasat mai sus de referinţă, de exemplu, „o carte despre SEO”).
  3. Densitatea cuvintelor cheie pe pagină
  4. Apropierea cuvintelor cheie unul de altul.

Cuvintele cheie conțin o mai mare greutate, dacă acestea sunt evidențiate în mod special, sunt mari sau sunt situate în interiorul a <H1> tagului.

Ce ar trebui să evităm atunci când optimizăm site-ul?Google verifică constant calitatea resurselor indexate şi în caz de încălcare a mai multor regulamente se face excluderea lor din baza sa de date. Prin urmare, nu trebuie niciodată să recurgem la următoarele metode:

  1. Text ascuns sau link-uri ascunse;
  2. Cloaking sau redirecţionări mascate;
  3. Interogări automate;
  4. Cuvinte care nu sunt legate de subiect;
  5. Mai multe pagini, subdomenii sau domenii cu conținut duplicat substanţial;
  6. Portal pagini pentru motoarele de cautare, sau alte metode pentru înlăturare de cookie , cum ar fi programe ajutătoare, unde conţinutul original este aproape sau complet absent.

La sfârşitul lunii februarie 2007, Google a şocat comunitatea SEO-atunci când a anunţat combinaţiile de rezultate de căutare Google Personalized Search, Google Personalized Homepage și Google Search History la rezultatele căutării principale. Acest lucru înseamnă că, atunci când vom merge la Google – la contul nostru (de exemplu, Gmail), Google ne va oferi niște rezultate nu oarecare, dar uşor modificate rezultate de căutare bazate pe link-uri, pe care făceam clic anterior pe filele noastre (Google Bookmarks) şi m . n.

Nemulţumirea SEO-specialiştilor a apărut, datorită faptului că acum este mai dificil să spunem care site este situat pe prima pozitie in Google pentru un anumit cuvânt cheie şi care site este pe poziția a doua. Foarte curând, fiecărui utilizator îi vor fi date rezultatele de căutare proprii. Cel mai mult dintre toate, sperie dezvoltatorii care promit promovarea site-urilor clienţilor şi promit anumite poziţii în căutări, de exemplu, dacă vom asigura clientul ca site-ul său va fi în primul rând după unele cuvinte-cheie in rezultatele Google,în momentul căutării noastre, iar la căutarea clientului se va arăta că el este situat pe a 4-a sau a 40-a poziţie. Desigur, toate aceste tulburări sunt uşor de înţeles, dar nu foarte deranjant este acest lucru pentru următoarele motive:

În primul rând, Google încă din iunie 2005 sa ocupat de acest lucru, ca utilizatorii să primească rezultatele personalizate, când programul a fost conceput. Majoritatea oamenilor nu observă aceste modificări, deoarece acestea au fost foarte minore. Singurul lucru care sa schimbat acum – goolge a crescut cantitatea de resurse pentru personalizare, care vor fi luate în considerare.

În al doilea rând, noi și așa obţinem rezultate diferite în ​​Google, în funcţie de locaţia noastră, deoarece se utilizează diferite centre de date. Este timpul pentru a termina de lucrat numai cu un simplu SEO, şi a începe utilizarea internet marketingului, încetând să se concentreze resursele asupra campaniei de optimizare si promovarea site-ului numai pe clasament şi dirijarea traficului.Internet marketingul nu implică doar atragerea traficului din motoarele de căutare, dar implică de asemenea, conversia vizitatorilor în cumpărători.

În final, trecerea la căutarea personalizată va fi un alt motiv pentru scrierea tăgurilor title şi meta tăgurilor pentru fiecare pagină a site-ului.Din moment ce aceste tăguri vor fi găsite mai atractive de către utilizatori, acest lucru, va aduce cele mai multe clicuri, şi acesta va fi un factor decisiv care va afecta  căutarea personalizată. Noi nu trebuie să uităm, de asemenea, despre conţinutul de calitate a site-ului.Conținutul  a fost mult timp Principiul central al Google – Content is a King (conţinutul este regele).Dacă vom avea un conţinut unic şi interesant pentru utilizatori, atunci site-ul nostru va avea un loc pe drept meritat în rezultatele de Google.

Aproximativ 95% din text în cele 25 de miliarde de documente indexate de Google, constau dintr-un vocabular mic de zece mii de cuvinte. Acest lucru înseamnă că aproape orice interogare de căutare va returna milioane de documente.Astfel, calculul de relevanţă a documentului este o problemă netrivială de matematică.Pentru a face acest lucru, este utilizată o combinaţie de metode matematice sofisticate. În plus, modificările de conţinut Web în mod constant, astfel ca rata de relevanţă trebuie să fie constant recalculate. Poziţia centrală în algoritmii clasamentului de Google o ocupă PageRankul.

Rezultatul final al PageRankului este o măsură „importantă” pentru PR paginii, care ia valori de la PR0 la PR10 şi sunt evaluate de către analiza de link-uri primite.Cantitatea lor şi calitatea vorbeşte despre importanţa acestei pagini pentru Web-comunitate. Nivelul de PR, pe care îl vedem este o valoare rotunjită puternic şi cifra exactă este cunoscută doar pentru programatorii Google. Figura PR variază pe o scară logaritmică, adică valoarea de PR5 pe ordinea de magnitudine este mai mare de PR4.

Iată cum lucrează PageRank.Să presupunem că pe pagină  se află  linkuri.Dacă unul din linkurile acestea conduc spre pagina , atunci  va transmite  din nivelul său de “importanță” paginii .

Nivelul de semnificaţie (de exemplu, PR) paginii   este suma tuturor acestor valori de la toate link-urile primite. Dacă să ne imaginăm un set de pagini care se leagă de pagina , ca , apoi „importanţa» paginii  se calculează după formula următoare:

Pentru a găsi PR paginii, trebuie să ştim mai întâi de PR din toate paginile care se leagă de acesta. Cu toate acestea, metodele matematice ne permit să rezolvăm această problemă. Pentru a face acest lucru, se crează o matrice de hyperlink-uri, , în care coloana rânduli  i j vor fi următoarele:

Aceasta este o matrice stochastică, adică matricea în care toate coloanele şi / sau rânduri – rânduri de numere nenegative real, oferind o unitate totală. Formăm  vectorul    ale cărui elemente sunt valorile de PR, aceasta este, „importanţa” de pagini. În conformitate cu termenii noştri vectorul se obţine staţionar.

ce reprezinta SEO?

Posted: aprilie 18, 2011 in Uncategorized

SEO este o abreviere pentru Search Engine Optimization. In principiu acest tip de servicii se adreseaza proprietarilor de site-uri ce isi doresc un trafic ridicat printr-o pozitionare mai buna in rezultatele cautarilor prin motoarele de cautare precum Google, Yahoo sau MSN.

Istoria acestor tipuri de servicii a inceput in perioada 1996-1997, in momentul in care apareau primele motoare de cautare. Astfel webmasterii incepeau sa isi inscrie site-urile in motoarele de cautare si sa isi adapteze codul paginii pentru nevoile simpliste ale spiderilor (instrumentele folosite de motoarele de cautare pentru a indexa website-uri).

In scurt timp webmasteri au inceput sa primeasca ajutorul unor consultanti in acest domeniu. Scopul acestor consultanti, mai tarziu numiti Search Engine Optimizers, era sa gaseasca un algoritm dupa care ar putea fi scrise site-urile, pentru o expunere mai mare si pentru sanse de indexare ridicate.

Dupa curentul initial de studiu al algoritmilor de sortare si indexare al motoarelor de cautare, a aparut perioada de spam cu cuvinte cheie („keyword spamming”). Ce insemna aceasta? Insemna inserarea de cuvinte cheie in pagina, cu text de culoarea backgroundului paginii pentru a fi practic invizibile pentru utilizatori dar vizibile pentru motoarele de cautare.

Ca urmare, motoarele de cautare au creat filtre de sortare a acestui tip de spam, pentru a curata masa imensa a internetului de acest „zgomot” de keyworduri.

Perioada anilor 2000 a adus reconcilierea intre reprezentantii motoarelor de cautare si „optimizatori”. Spammeri au disparut sau s-au transformat in specialisti SEO. Tehnicile spam tind sa fie inlocuite de optimizare bazata pe un continut bine scris, usor de inteles de motoarele de cautare.

O serie de metode de a castiga o pozitie mai buna in indexul motoarelor de cautare:

-Folositi un domeniu la .com care sa contina una dintre cuvintele cheie ale site-ului
-Folositi, in loc de cod javascript in fisierele HTML, fisiere externe incluse.
-Includeti clasele de culori si fonturi din fisiere .css
-Folositi tag-uri H1 pentru titlurile paginilor.
-Adaugati o pagina ‘sitemap’ paginii.
-Nu creati pagini cu marimi mai mari de 100k etc.

Continua lectura:

Operanzi de cautare avansata pe Google
Webdesigner, artist sau arhitect?
Interactiune mai simpla

PageRankMD

Posted: aprilie 5, 2011 in Uncategorized

PageRank a fost dezvoltat la Universitatea Stanford de către Larry Page (de la care își trage și numele[3]) și apoi și de Serghei Brin, ca parte dintr-un proiect de cercetare despre un nou gen de motor de căutare. Proiectul a demarat în 1995 și a dus, în 1998, la un prototip funcțional denumit Google. La puțin timp după aceea, Page și Brin au înființat firma Google Inc., compania din spatele motorului de căutare Google. Deși este doar unul din factorii care determină poziția rezultatelor căutării Google, PageRank continuă să furnizeze baza tuturor dispozitivelor de căutare ale motorului Google.[4]

PageRank se bazează pe analiza citărilor, teorie dezvoltată în anii 1950 de Eugene Garfield la Universitatea de Stat Pennsylvania; fondatorii Google citează lucrările lui Garfield în lucrarea lor originală. Analiza legăturilor web a fost dezvoltată întâi de Jon Kleinberg și de echipa lui, în cadrul proiectului CLEVER de la Centrul de Cercetare Almaden al companiei IBM.

Google ia în considerare doar legăturile de la situri ce au un PageRank („PR”) mai mare sau egal cu 4. Google consideră un link dinspre un sit drept un vot de încredere. Totuși Google evaluează valoarea acelui link la o valoare procentuală mai mică decât valoarea PR a sitului de unde provine acel link. PageRankul dat paginii A de către pagina B scade direct proporțional cu numărul de linkuri aflate pe pagina B. Între o pagină care are un PR de 4 cu numai 2 linkuri, și alta ce are un PR 6 dar are 5 linkuri, este indicat un link de la pagina cu PR 4. Conform lui Sergey Brin și Larry Page, cofondatori ai Google, PageRank-ul unei pagini se calculează conform formulei:

PR(A) = (1 – d) + d * SUM ((PR(I->A)/C(I)) unde:

  • PR(A) este PageRank-ul paginii A.
  • d este in general 0,85.
  • PR(I->A) este PageRank-ul paginilor I care conțin un link catre A.
  • C(I) este numărul de linkuri ale paginii I.
  • PR(I->A)/C(I) este valoarea PR pe care A o primește de la I.
  • SUM (PR(I->A)/C(I)) este suma tuturor valorilor PR pe care A le primește de la paginile care conțin linkuri către ea.