gátfutó verseny

Hogyan kerülhet a weboldalad a Google első helyére?

2021. január 28.

Másnak is hasznos lenne? Oszd meg!

Már érted, mi a keresőmotorok valódi célja. Organikus találatok a jelenlegi üzleti modell szerint mindenképpen szerepelni fognak a keresők találati listájában a jövőben is. Hogyan tudod elérni, hogy a te oldalad is ott legyen közöttük, ráadásul minél jobb helyezést érjen el?

Mi a legjobb Google találati lista helyezés kulcsa?

A találati listán a jó helyezéshez alapvetően három dolog kell:

  • a robotok bejárják az oldalad és a tartalmát lementsék
  • a tartalom indexelve legyen, azaz a keresőmotor feldolgozza és hozzákapcsoljon metaadatokat
  • az algoritmus relevánsnak ítélje bizonyos kulcsszavak esetén és rangsorolja előre
játékrobotok sorakoznak egy polcon

Keresőrobotok – a felfedezők

Az internet, a weboldalak száma olyan nagy, hogy emberként már áttekinthetetlen, felfoghatatlan. Az oldalak, tartalmak száma folyamatosan nő. A világháló méretéről és növekedéséről érdemes megnézni ezeket a statisztikákat, amelynek adatai elemzéseken, becsléseken alapulnak.

A teljes nagyságáról nem is áll rendelkezésre megbízható adat, ezért a feltérképezés alapvető módszere a linkről linkre haladás, ezeken keresztül új oldalak felfedezése. A webhelyek számbavétele így is csak automatikus módszerekkel oldható meg. Ezt a feladatot végzik a robotok.

Mivel nem tudjuk, mekkora a web, így nehéz megállapítani, mekkora részét járták már be robotok. Óvatos találgatások szerint ez az arány kb. 40-70% között lehet.

Mit csinálnak a keresőrobotok?

A weboldalak felderítését, az újdonságok megjelenését tehát keresőrobotok (robot, spider vagy crawler néven is ismertek) végzik. Ezek olyan programok, amit a keresőmotorok működtetnek azért, hogy adatokat gyűjtsenek az internetről. Úgy kell elképzelni őket, mintha egy végtelen nagy könyvtár könyveit néznék végig.

Ha egy keresőrobot meglátogat egy weboldalt, egyrészt az egész oldal tartalmát elmenti egy adatbázisba (az indexbe), másrészt megjegyzi a belőle kifelé, más oldalakra mutató linkeket.

A tartalmukat majd az indexben részletesen feldolgozzák, címkékkel látják el. A kifelé mutató linkeket pedig további felfedezésekre használják.

Hogyan találnak rá a robotok az új oldalakra?

Két módja lehetséges új oldalak felfedezésének. Az egyik, ha mutat rá link, amit követni tudnak. Friss, újonnan indult oldalak esetén külső linkek megszerzése sok időbe is telhet, hiszen ehhez érdemi tartalomra van szükség.

A másik megoldás ennél gyorsabb. Hozz létre és tölts fel webhelytérképet, ez nagyon fel tudja gyorsítani az oldal felfedezését.

Mi történik, ha a robotok nem szöveges tartalmat találnak?

A robotok minden egyes megtalált URL-t megpróbálnak feltérképezni és letölteni. Ha az URL-en nem szöveges tartalom található, például kép, videó vagy hangfájl, akkor általában a tartalmat nem képesek elemezni, csak a tartalomhoz kapcsolt metaadatokat. Az ilyen tartalmak esetében ezért érdemes minél több metaadatot megadni a szerepeltetett állományról, kitölteni a képek adatait és nagy figyelmet fordítani az alt szövegre.

Habár a robotok használnak mesterséges intelligenciát például a képek tartalmának elemzésére, még így is csak korlátozott mennyiségű, és nem mindig megbízható információ áll rendelkezésükre. Ennek ellenére lementik és indexelik ezeket az oldalakat is, és ezek aztán megjelenhetnek találatként is.

Hányféle keresőrobot van?

Nagyon sokan működtetnek keresőrobotokat. A keresőmotoroknak is egyedi robotjaik vannak. Ezek közül legismertebb természetesen a Googlebot, de működik még a Bingbot, DuckDuckBot, Baiduspider, Yandex Bot, stb.

Mi befolyásolja a bejárások gyakoriságát?

Ugyan a bejárás folyamatosan zajlik, de mivel nem áll rendelkezésre korlátlan erőforrás, így a robotok munkáját szabályozzák. A szabályok minden keresőmotornál kicsit különböznek, de a céljuk ugyanaz: friss tartalmakat felfedezni és lementeni.

Szelektálják az oldalakat, hogy milyen gyakran ellenőrzik, megjelent-e friss tartalom. Többek között az oldalra mutató linkek, a látogatók száma, a tartalom alapján döntenek, hogy milyen fontos egy oldal. Ez meghatározza, milyen gyakran ellenőrzik újra, egy-egy alkalommal hány aloldalt térképeznek fel és mentenek le az indexbe.

Hogyan akadályozd a robotokat?

Furcsa ezt hallani, hiszen szeretnél a találatok között megjelenni. Azonban vannak olyan oldalak, amiket érdemes kizárni a bejárásból. A bejárást lehet szabályozni, vagyis javaslatokat lehet tenni a keresőrobotoknak.

Lehet, hogy nem akarod minden oldalad a találati listán viszontlátni, még akkor sem, ha arra mutatnak külső linkek. (pl. egy kampányod dedikált landing page oldalát). A véges erőforrások miatt is érdemes lehet megfontolni, hogy melyik aloldalakat engeded bejárni: egy webáruházban fontosabbak a termékoldalak mint az impresszum vagy egyéb technikai oldal.

A robotok elsőként mindig a kiszemelt weboldal robots.txt fájlját töltik le, és megvizsgálják az abban leírt szabályokat. Nem minden robot tekinti ezeket kötelezőnek, inkább javaslatként kezelik. Ebben a fájlban megadhatod azokat a területeket, amiket nem engedsz feltérképezni.

Az egyes oldalak, bejegyzések esetében elhelyezett noindex címke pedig arra ad javaslatot a keresőknek, hogy az oldalt ne jelenítsék meg a találatok között.

Hogyan segítsd a robotokat?

A robotok tevékenységének “segítése” a keresőoptimalizálás alapja. Érdemes a bejárást, feltérképezést megkönnyíteni.

Segíthetsz a feltérképezésben, ha a Search Console-on keresztül töltesz fel webhelytérképet. A webhelytérkép létrehozásában egy SEO plugin segítsége a leghatékonyabb. Ha ezt megteszed, a oldalad friss tartalmairól azonnal értesítést kapnak a keresőmotorok.

Optimalizáld az oldalad betöltési sebességét. Ha ennek jó az értéke, akkor a robotok gyorsan be tudják járni az egész oldalt anélkül, hogy nagyobb terhelést okoznának. Ha egy oldal lassú vagy szerverproblémák lépnek fel, akkor lehetséges, hogy nem lesz idő és erőforrás az összes aloldalra.

Alakíts ki minél laposabb oldalhierarchiát, azaz minden tartalmad minél kevesebb kattintással legyen elérhető. Az egyes oldalak ne legyenek 3-4 klikkelésnél messzebbre egymástól. Legyen egyértelmű és kényelmesen használható a navigáció.

Használd a canonical elemet oldalaidnál, hogy ugyanarra a tartalomra ne pazarolj többször robot-erőforrást.

Mennyit kell várni?

Megjósolhatatlan, mikor fogják a keresőmotorok bejárni és az indexbe menteni az új oldalad. Webhelytérkép használatával ez sok esetben felgyorsítható. Anélkül pár nap, de akár pár hónap is lehet a várakozási időd.

Új tartalom esetében a már említett algoritmus határozza meg, milyen gyakran járják be az oldalad robotok, amelyek például az oldalad korát, látogatottságát, linkjeit veszik figyelembe.

Mi okozhat problémát a feltérképezésben?

A robotok általi bejárás és feltérképezés kritikus pont a keresőoptimalizálásban. Ha ez nem történik meg, akkor nemhogy jó helyezést nem érsz el, de be sem kerülsz abba az adatbázisba, ahonnan a keresőmotorok a találati lista elemeit válogatják. Milyen problémák merülhetnek fel és hogyan orvosolhatod őket?

  • Még nem fedezték fel a robotok a weboldalt. Javasolt megoldás: webhelytérkép feltöltése Search Console-ban, vagy linkek építése külső oldalakról például vendégblogolással. A közösségi médiában történő megosztások is sokat segíthetnek.
  • A feltérképezés le van tiltva a robots.txt-ben. Javasolt megoldás: robots.txt beállításainak ellenőrzése.
  • Az oldal technikai problémákkal küzd. Javasolt megoldás: oldalbetöltés fejlesztése, képek optimalizálása, oldal hierarchia átgondolása.
  • Nem ítélik fontosnak az oldalad tartalmát a robotok. Javasolt megoldás: fejleszd a blogodat, folyamatosan tegyél közzé minőségi, felhasználóbarát tartalmat!
  • Korlátozott hozzáférésű oldalaid vannak. Ha a felhasználóidtól azt kéred, jelentkezzenek be, töltsenek ki egy űrlapot vagy egy kérdéssort ahhoz, hogy bizonyos tartalmakhoz hozzáférjenek, akkor ezeket a robotok nem fogják tudni elemezni. Javasolt megoldás: gondold végig, nem zársz-e el fontos tartalmakat a robotok elől.
  • Árva oldalaid vannak. Ha nem mutat belső link minden oldalra, csak az oldal saját keresőjével lehet megtalálni egy tartalmat, az a robotok nem fedezik fel. Nem, ők nem fogják a keresőmezőt használni. Javasolt megoldás: ellenőrizd, minden oldalad elérhető-e valamilyen belső linken.
  • Nem szövegformátumban használt szöveg. Ha például kép formátumban írsz ki valamit (pl. képen szereplő szöveg, kattintható ábra szöveges felirattal), azt a robotok nem tudják szövegként értelmezni. Javasolt megoldás: azt a szöveget, amit indexelni szeretnél, mindig szöveg formátumban használd, amely szerepel az oldal HTML kódjában.
  • Hibás a navigáció. Sokszor előforduló hibák: eltérő eredményeket adó mobilos és asztali gépre kialakított navigáció; nem HTML-ben szereplő (hanem pl. Javascript által létrehozott) listaelemek ; különböző típusú látogatók számára létrehozott egyéni navigációs lehetőségek; fontos oldalakra mutató linkek hiánya a navigációban. Javasolt megoldás: navigáció ellenőrzése: egyértelmű, könnyen követhető, HTML-ben elérhető-e.
  • Ha úgy tűnik, semmi sem segít (vagy ezt megelőzendő), hozz létre Google Analytics fiókot az oldalhoz.
könyvtár belső, végeérhetetlennek tűnő polcokkal

Weboldalak indexelése – élet egy könyvtárban

Ha megtörtént a weboldal bejárása, feltérképezése, akkor a robotok az URL-lel együtt elmentik a tartalmat egy óriási adatbázisba, az indexbe. Az indexelés aztán olyan, mint egy könyvtárban egy nagyon részletes katalóguscédula létrehozása.

Az indexelés célja, hogy a keresőmotorok összeszedjenek minden információt egy weboldalról, és ezek alapján a keresésekre szupergyors választ tudjanak adni.

A feltérképezés tehát nem ugyanaz, mint az indexelés, nincs rá garancia, hogy megtörténik a bejárás után. Az tehát, hogy feltérképezte egy robot az oldalad, még nem biztosítja azt, hogy megjelenjen a keresőben.

Az indexelés során a robotok feldolgozzák és elemzik az oldalad szöveges tartamát és metaadatait. Az elemzés során több száz szempontot vesznek figyelembe, ezek segítségével nem csak a tartalmat elemzik, hanem az oldal minőségét is értékelik.

Minden olyan oldal, ami indexelve (elemezve) van, nagyon gyorsan kikereshető. Ha valaki beír egy keresőkifejezést, akkor innen, az indexből „érkezik” a válasz azért, hogy a keresés igazán gyors legyen.

A keresőmotorok tehát nem járják be minden egyes kereséskor weboldalak sokaságát, hanem a saját adatbázisuk tartalmában keresnek. A keresés indításakor átfésülik az indexet, aztán kevesebb mint egy másodperc alatt kikeresik a legjobb választ adó oldalakat. Ezalatt a szemvillanásnyi idő alatt a keresőmotorok sorba is rendezik a találatokat.

Mi okozhat problémát az indexelésben?

  • robots.txt beállításai. Ebben a fájlban szabályozhatod az egyes robotok számára hogy mely oldalakat járhatják be és indexelhetik.
  • noindex címke használata. Egyes oldalakon, bejegyzéseknél használhatod ezt a címkét, és megakadályozhatja, hogy az oldaladat a keresők szerepeltessék a találati listában.
  • Oldalak jelszóval védettsége. A robotok nem tudnak felderíteni, letölteni olyan tartalmakat, amelyek elérése jelszóval védett.
sporpálya szélén álló dobogó a nyerteseknek

A rangsor

A különböző keresőmotorok eltérő módszereket és szempontokat alkalmaznak a találati oldalak rangsorolására, ezek az algoritmusok. A legtöbb kereső nemcsak az index adatait veszi figyelembe, hanem a keresést indító felhasználóról összegyűjtött adatokat is.

A találatok sorba rendezésekor először a keresési kifejezést elemzik, és megállapítják a keresési szándékot. Jó, ha a saját tartalmaid előállításakor figyelembe veszed, ha valaki például “12 terítékes szabadon álló mosogatógép” kifejezésre keres, akkor nem bejegyzéseket szeretne majd olvasni, hanem konkrét termékekre kíváncsi.

Ugyancsak elemzik a keresés indításakor a kereső helyét. Ha valaki “éttermek a közelben” kifejezést ír be, akkor más-más találatokat fog látni a világ különböző pontjain.

A weboldalakat felsoroló rangsor kialakításának szempontjai, és ezek súlyozása nem ismert pontosan. Biztosan számít a webhely technikai állapota (betöltési sebesség, vannak-e szerverproblémák), az oldalra mutató linkek (nemcsak a számuk számít, hanem az is, milyen oldalon szerepelnek), a navigáció, reszponzivitás, felhasználóbarát jelleg, illetve maga a tartalom és a tartalomhoz kapcsolt adatok. Mennyi, milyen minőségű, milyen hosszúságú tartalmat publikált a weboldal és az oldal egésze mennyire egységesen kezeli a témakörét.

Becslések szerint több száz olyan szempont lehet, amely befolyásolja a rangsort, ahogyan a találatok megjelennek.

Miben segít a keresőoptimalizálás?

Ha ismered a keresőmotorok működését, már könnyebb olyan weboldalakat létrehozni, amiket a robotok be tudnak járni és az indexelésre erőforrásokat biztosítanak. A keresőoptimalizálás az indexbe kerülés egész folyamatában tud segíteni, illetve annak fejlesztésében, hogy a rangsor kialakításakor a weboldalad minél előrébb jelenjen meg, minél jobb helyezést érjen el.

A keresőoptimalizálás folyamata során a webhely technikai, tartalmi és kapcsolati állapotát is ellenőrizni, értékelni kell, és a fejleszthető területekre koncentrálva már nem is lesz elérhetetlen a Google első hely.

A NEKTONIK minden anyaga, cikke, ajánlata egy helyen elérhető, keresd fel azt az oldalt is!

Másnak is hasznos lenne? Oszd meg!

Hasonló témájú cikkek keresése: