Supplemental Index

2003-as bevezetése óta az úgynevezett Supplemental Index számos vita és kérdés tárgyát képezi: Mi a Supplemental Index egyáltalán, hogyan kerül bele egy oldal, és hogyan juthat ismét ki onnan, milyen hatással van a Supplemental Index az oldalak helyezésére? Mivel ez a blogpost valamivel terjedelmesebbre sikeredett, felosztottuk a témát 3 cikkre és 3 napra.

A Google maga azt írja, hogy a Supplemental Result a Supplement Index-ből ered. Ott olyan oldalak vannak állítólag, amelyek nem tesznek eleget a normál index-szel szembeni összes elvárásnak. Példaként megnevezik, hogy esetleg túl magas a paraméterek száma ahhoz, hogy az oldal bejuthasson az első indexbe, és ezért található a másodikban. Az első illetve második indexbe való besorolás a tájékoztatás szerint automatikusan történik.

Bár a Google már korábban eltávolította a kezdőoldaláról az indexe méretére vonatkozó adatokat, mégis valószínűleg kiindulhatunk abból, hogy tíz milliárdnál is jóval több honlap lehet a Google indexben. Ha hiszünk a Wikipedia szakértőitől származó becsléseknek, a Deep Weben, tehát a világháló azon részén, amelyet az olyan keresőmotorok, mint a Google nem indexeltek, 500 milliárd körüli a honlapok száma. Mivel a Google-t is behatárolják a technikai korlátok, és mivel a több indexelt oldal nem feltétlenül jelenti az index minőségének javulását, a Google kénytelen megfontolni, melyik oldalakat veszi fel. Úgy tűnik, hogy a Google itt egy kétlépcsős rendszerre épít: első és második – vagy más néven Supplemental – Index. Mivel az első indexbe való felvétel korlátai meglehetősen restriktívek, vannak olyan oldalak, amelyek nem kerülnek be, bár keresett információkat tartalmaznak, ezek számára létezik a második index, amelynél enyhítették a felvételi kritériumokat.

Annak megállapítására, hogy egy domain-nek vannak-e és ha igen, hány oldala van pillanatnyilag a Google Supplemental-Index-ben, jelenleg használható (a Google időnként megváltoztatja ezt) a következő lekérdezés: site:domain.tld *** -gjfhgh. Hogy egy domain-nek egyetlen oldala se legyen a Supplemental Index-ben, az rendkívül szokatlan, néhány mindig ott található – még a Wikipedia vagy maga a Google esetében is. Az első és a második indexben található oldalak aránya jelzés lehet, hogy a domain-nel esetleg problémák vannak. Osszuk el a Supplemental Index-ben található oldalak számát az első indexben találhatók számával. Minél közelebb van ez az érték az 1-hez, annál több oldala érintett az adott domain-nek. Míg egy domain esetében az összes oldalainak szűk 6%-a már meglehetősen jó eredménynek számít, a linkkatalógusok gyakran 70%-a vagy még magasabb arányban érintett. A nagyon nagy, sok százezer oldallal rendelkező honlapok esetében sajnos már nem megbízható ez a módszer – ilyenkor a Google túl pontatlanul adja meg a Supplemental Indexben található oldalak számát.

Supplemental Index – Miért pont én?

Ahogy leírtuk, szinte minden domain oldalainak egy része a Supplemental Indexben található. A cél az lenne, hogy ezt az arányt a lehető legalacsonyabban tartsuk. Aki átfutja a Wikipedia második indexben található oldalait, látni fogja, hogy a Google meglehetősen jó a csekély többletértékkel rendelkező oldalak felismerésében: főként dokumentációk, kevés vagy másutt is fellelhető tartalommal rendelkező cikkek vagy felhasználói oldalak csúsznak be ide. El is jutunk ezzel azokhoz a pontokhoz, amelyek egy honlapot a Supplemental Indexbe juttathatnak:

Duplicate Content
Duplicate Content azaz kettős tartalmak – ez egy évek óta aktuális téma és aktuális is marad. A Google – többek között, sőt főként az ügyfelek / keresők érdekében – nem érdekelt abban, hogy egy keresésnél az első helyeket olyan oldalak foglalják el, amelyek mind ugyanazt a tartalmat kínálják. Így a harmadik Amazon-Partnershop vagy a negyedik Wikipedia-másolat igen hamar unalmassá válna, és legkésőbb a második olyan SERP-oldaltól kezdve, amelyen csak másolatokat talál, másfelé fog tovább keresni az érdeklődő. A Google tehát igyekszik felismerni az ilyen tartalmakat. Ilyenkor nem csupán komplett honlapokról van szó, már egyes szövegkivonatok is okozhatnak gondot. Bár az úgynevezett külső kettős tartalom a problémásabb, azaz az olyan tartalom, amely más domain-en is fellelhető, azért a belső kettős tartalom is gondot okozhat – ha túllép egy bizonyos mértéket.

Különösen gyakori és egyben súlyos a kettős tartalom a cím- valamint a Meta-Description-Tag-ban, ez – a kettős-tartalom szűrő számára – nem lebecsülendő relevanciával bír, így igen hamar problémákhoz vezethet.

Rossz belső linkelés
A belső linkelés és linkszerkezet az egyik legelhanyagoltabb, ugyanakkor az egyik legösszetettebb tématerülete az onpage-optimalizálásnak. Arra kell törekednünk, hogy minden oldal jól és rövid úton elérhető legyen és a bejövő, belső linkek száma és minősége tükrözze az oldal projekten belüli értékét. Ami elsőre egyszerűnek hangzik, az oldalak számának növekedésével meglehetősen komplikálttá válik és gyakran egyik oka annak, hogy kedvezőtlenül alakul az első illetve a második indexben található oldalak aránya.

Kevés vagy semmi tartalom
Gyakran érintettek az olyan oldalak, amelyek csak néhány szónyi szövegből és egyébként a szokásos HTML-vázból – navigáció és footer – állnak. Érthető, hiszen ilyen kevés tartalom esetén meglehetősen csekély annak esélye, hogy épp azt keresse valaki. Ezek gyakran olyan oldalak, amelyeket nem is azért hoztak létre, hogy jó pozíciót érjenek el a keresőmotoroknál: templates, kapcsolat-oldalak, grafikával teli oldalak vagy egy fórum tagjainak profiloldalai.

URL-szerkezet
A Google kedveli a statikus HTML-oldalakat. A tartalmakat nem túl gyakran változtatják, ezek többnyire értékesebbek, mint a dinamikusak, vannak rendes, a Googlebot által kiértékelhető HTTP-Header-ek és nem áll fönn annak veszélye, hogy a Google rosszul programozott, dinamikus adatbankokba téved. Ahogy a Google maga írja, egy dinamikus oldal paramétereinek száma befolyásolja azt, hogy az adott oldal az első vagy a második indexben jelenik-e meg.

Beérkező linkek
Ahogy a SEO területén oly gyakran, a bejövő linkek minősége és mennyisége lehetőséget ad a saját projekt egyedi határainak némi módosítására. Az olyan kijelentések, hogy “a nagy oldalak sokat megengedhetnek maguknak”, nem légből kapottak, és aki azt gondolja, hogy három-négy, cikkjegyzékekből származó backlink-kel bejuttathat egy komplett, néhány százezer oldal terjedelmű termékkatalógust az indexbe, az ne csodálkozzon, ha az oldalai nagy része a Supplemental Index-ben köt ki – ha egyáltalán felveszik bármelyik indexbe.

Supplemental Index – Hogyan menekülhetek meg a Google Pokolból?

Az első két részben láthattuk, milyen is az index kettéosztása, hogyan tudhatjuk meg, hogy egy saját projektünknek hány oldalát érinti ez, és mely kritériumok vezethetnek oda, hogy egy oldal az elsőből a másik indexbe csúszik át. Az már a mindenkori projekttől függ, hogy kell-e további lépéseket tenni, vagy a Supplemental Index-ben található oldalak aránya olyan csekély, hogy az nem okoz további kárt. Amennyiben, mint ennél a domain-nél, csak kevés és jelentéktelen oldalak találhatók a második indexben, akkor dönthetünk úgy, hogy nem változtatunk, és a jövőben is figyelemmel kísérjük a helyzetet. Ha azonban sok és fontos oldalak csúsztak át a Supplemental Indexbe, akkor cselekednünk kell.

Első lépésként fel kell deríteni, miért kerültek oldalak a második indexbe. A tegnapi pontok segíthetnek ebben, galád módon azonban előfordulhat, hogy több pont vagy a felsoroltak tetszőleges kombinációja áll a háttérben. Gyakran az is jó ötlet, ha valakit, aki nem olyan mélyen érintett a projektben, mint mi magunk, megkérünk, hogy kívülállóként vessen egy pillantást az oldalakra. Megkérhetünk ismerős webmestert, témába vágó fórumok olvasóit vagy alkalmas SEO-konzultánst is. Az így felfedezett pontokat megfelelően kezelnünk kell. A tegnap felsorolt pontokhoz alább adunk néhány ötletet, végső soron azonban ez nagyon egyedi, az adott projektre szabott folyamat:

Duplicate Content
Előszöris be kell azonosítani, milyen fajta kettős tartalomról van szó. Ha más oldalak engedély nélkül átveszik az Ön tartalmait, akkor tennie kell ez ellen. Ez már nálunk is előfordult, meg is tettük a megfelelő lépéseket. Az üzemeltető lakhelyétől függően ez talán nem egészen egyszerű vagy nagyon bonyolult, sőt előfordulhat, hogy lehetetlen. A Google azonban előrelátóan gondoskodott az ilyen esetekről is és viszonylag gyorsan feldolgozza a DMCA-kérelmeket. Ha felkínálja a tartalmakat, akár RSS/XML-Feed-ként vagy más formában, akkor fontolja meg, mely adatokat és kinek ad át.

Ha Ön vesz át tartalmakat beszállítóitól, amelyeket sokan mások is ugyanígy megkapnak, akkor alaposan mérlegelnie kell, milyen adatokat vesz át közvetlenül és melyeknél van szükség utómunkálatokra. Rendkívül sok adatot kap, például XML-fájlokat affiliate-hálózatokból, és túl időigényes lenne a leírások és adatok átdolgozása és kiegészítése? Akkor úgy tűnik, a Google elérte a célját. Már igencsak elmúltak azok az idők, amikor a domain nevek az oldal kommerciális jellegére utaltak és tartalomként elegendő volt 10 Espotting-link.

Ha belső kettős tartalom fordul elő az oldalán, például túl gyakran utal szövegesen más blogbejegyzésekre, akkor meg kell próbálnia csökkenteni az ilyesmit. Sikert ígérő módszer lehet a bejegyzések egy oldalon belüli idézésének növelése, a bejegyzést összefoglaló bevezető rész hosszának csökkentése.

Fontos, hogy a cím- és Meta-Description-Tag minden oldalnál egyedileg és különbözőképp legyen beállítva. Sok eszköz van, sőt Publishing-rendszerek is, amelyek ide standardként gyakran ugyanazokat az adatokat írják be. Ezért ezeket megfelelően állítsa át. Inkább hagyja el teljesen a Meta-Tag-eket, semhogy azokban mindenütt ugyanazt adja meg – a Title-Tag esetében nem fogja megúszni ezt a munkát.

Rossz belső linkelés
Ahogyan a tegnapi részben már utaltam rá, a belső linkelés és a linkszerkezet az egyik alapvető téma az OnPage-Optimalizálásban. Itt sok és súlyos hibát lehet elkövetni, de jelentős előnyre is szert tehetünk a konkurenciával szemben. Egyrészt biztosítani kell, hogy minden oldal röviden, néhány kattintással elérhető legyen a kezdőlapról belső linkek útján. A belső linkek minősége és mennyisége is legyen tükre az adott oldalak értékének. Lehetséges módszerek az egy témához tartozó oldalak összelinkelésére például az oldaltérkép vagy a belső, kisebb téma-hubok. Itt arra érdemes ügyelnünk, hogy ezek az oldalak ne tűnjenek kopár link-sivatagnak. Jó, ha emlékezetünkben tartjuk azt a szabályt, hogy az egy oldalon lévő linkek számát körülbelül 100-ban korlátozzuk.

Kevés vagy semmi tartalom
A legtöbb projektnek – különösen az olyanoknak, amelyek kész fórumokat/blogokat/CMS-szoftvereket használnak – egy sor olyan oldala van, amelyek nem nyújtanak többletértéket. Így például gyakran minden egyes fórumtagnak saját oldala van, amelyen az utolsó 5-10 bejegyzést leszámítva nem találhatók információk; a blogrendszereknek vannak Paging-opciói, amelyek a sok oldalon kívül nem hoznak hasznot és a Content-Management-rendszerek először létrehoznak egy sereg standardoldalt, amelyeket valójában soha nem töltenek meg tartalommal. Fussa át ezeket az oldalakat és próbálja meg kiszedni őket az indexből. Ez történhet a Robots.txt-vel vagy a Robots-Meta-Tag alkalmazásával. Alternatívaként természetesen teljesen törölheti is ezeket az oldalakat. Ahogy egy másik bejegyzésben már említettem, ma már nem azt kellene célul kitűznünk, hogy lehetőleg minél több, hanem lehetőleg minél jobb oldalaink legyenek bent a Google-Indexben.

URL-szerkezet
Ahogy a SEO-Tutorialban olvasható, rendkívül fontos a jó URL-szerkezet megfelelő és idejekorán történő kiválasztása. Sajnos sok kész megoldásnál, sőt egyedileg írt weblapokon is előfordul, hogy nem tulajdonítanak olyan fontosságot az URL-szerkezetnek, amilyen megilletné. Ha statikus HTML-oldalakból álló projekteket készít, az elvileg még elég egyszerű: tartsa magát a szokásos szabályokhoz (beszédes, rövid fájlnevek, elválasztásként kötőjel) és a web-szervere meg a Google már gondoskodnak a többiről.

Dinamikus oldalak esetében viszont lényegesen összetettebb a feladat. Ha paramétereket használ, akkor ezek egyszerűek legyenek és a számuk lehetőleg legyen alacsony. Semmi esetre sem szabad Session-ID-knak a Googleindex-be jutniuk, kerüljön minden olyan paraméternevet is, amelyek a Session-re emlékeztetnek (sid, s, session). Ha a Mod_Rewrite vagy hasonló technika segítségével szép URL-eket hoz létre, akkor ügyeljen arra, hogy az Ön oldala csak egy cím alatt legyen elérhető. Kész megoldásoknál az oldalak sokszor mind a régi, paraméterezett, mind az új, beszédes URL alatt elérhetők és akkor a Googlebot maga választhat, melyik oldalt veszi fel. Ilyenkor gyakran úgy dönt, hogy egyáltalán nem veszi fel az adott oldalt, vagy csak a Supplemental Indexbe.

Beérkező linkek
Amit egy kicsi gall falu számára a varázsital, azt jelentik a keresőmotorok számára a külső, bejövő linkek. Mindkettő képes arra, hogy a piac soványka, legyőzött játékosait nagy és erős legényekké varázsolja. Minél nagyobb az Ön oldalaira mutató linkek száma és minél jobb a minőségük, annál inkább megbízik a Google az Ön oldalaiban és feltételezi, hogy a hibák, amelyeket elkövet, nem szándékosak. Ha tehát megpróbál megmenekülni a Google Supplemental Index poklától, akkor csak ajánlani tudjuk, hogy ezzel párhuzamosan törekedjen új és jó linkek beszerzésére – és ez alatt nem jegyzékeket és cikkszolgálatokat értünk.

Reméljük, hogy ezzel a cikkel korrekt információkkal szolgáltunk a Google Supplemental Indexéről. Aki most úgy dönt, hogy eszközöl néhány változtatást a projektjeiben, az jó, ha tudja, hogy sokkal nehezebb és hosszadalmasabb út vezet a Supplemental Indexből kifelé, mint oda befelé. A változások hatása tehát nem másnap reggel fog megmutatkozni – töltse föl a raktárait elegendő mennyiségű kávéval, teával vagy sörrel.

Share

Egy hozzászólás
Hozzászólok »

  1. [...] Ez a kezdeményezés azonban csak akkor működik jól, ha a cikkekre is mutatnak beérkező linkek. Egy terjedelmes oldal, amelyben nincsenek Inbound-linkek, predesztinálva van a Supplemental Index-re. [...]