Laatst bewerkt op 25 januari 2018 door Garenne Bigby inSitemaps
Asitemapwordt gedefinieerd als een eenvoudige map of gids die naast de inhoud op deze pagina's ook informatie bevat samen met andere details op webpagina's die op een website staan. Zoekmachines zullen hun werk doen door een sitemap te crawlen om alle informatie te vinden en te identificeren die van toepassing is op een specifieke zoekopdracht die is uitgevoerd. De pagina's in de directory worden weergegeven in een logische hiërarchische volgorde, waarbij de meest relevante pagina's bovenaan worden weergegeven en de minst relevante pagina's dichter bij de onderkant.
Er zijn twee hoofdtypen sitemaps, XML en HTML. XML-sitemaps hebben een unieke structuur, in die zin dat ze nooit door de eindgebruiker worden gezien en alleen worden gebruikt als een manier om een zoekmachine te informeren over: de inhoud van een webpagina op een site, hoe vaak de inhoud van de pagina's wordt bijgewerkt en ten slotte het algemene belang van de pagina's in relatie tot elkaar.
Voor gebruikers zal een sitemap de navigatiemogelijkheden verbeteren en de website in het algemeen gebruiksvriendelijker maken. Het thema van de site krijgt meer samenhang en gebruikers kunnen de onderdelen van de website en de links allemaal op één pagina bekijken. Het kan worden gezien als een skelet waarop moet worden gebouwd.
Een sitemap is een belangrijk onderdeel van elke website en hoewel het tijd kost om er een helemaal vanaf nul te maken, kan het als een investering worden beschouwd. Afgezien van het feit dat het erg belangrijk is om gewoon een website te hebben, zou je de tijd moeten nemen om deze zo goed mogelijk te optimaliseren. Als de spiders de site niet kunnen crawlen, wordt deze niet geïndexeerd en wordt de inhoud niet gerangschikt op de resultatenpagina's van zoekmachines. Als het niet is gerangschikt op een pagina met zoekresultaten, zal het waarschijnlijk niet door gebruikers worden bezocht. Als gevolg hiervan zal het geen verkeer, inkomsten of advertenties genereren.
EenHTML-sitemapis zo gestructureerd dat het kan worden gebruikt door individuen die internet gebruiken, zodat ze worden geholpen bij het vinden van de inhoud waarnaar ze op internet zoeken. De sitemaps bevatten niet alle pagina's van een website, waardoor het voor alle zoekmachines en individuele gebruikers gemakkelijk is om de informatie te vinden die ze zoeken op een site. Wanneer een sitemap wordt gemaakt, is het van vitaal belang om te weten dat sommige indelingen niet kunnen worden ingediend bij de webmasterhulpprogramma's van Google. Slechts een paar ondersteunde indelingen kunnen worden ingediend.
Wat is een sitemap in SEO?
Tegenwoordig is zoekmachineoptimalisatie niet voldoende om een website hoog te laten scoren in zoekmachines en online goed zichtbaar te maken. De concurrentie tussen websites is hevig en ze doen allemaal hun best om zo hoog mogelijk te scoren in zoekmachines en meer zichtbaarheid te krijgen. Dit heeft het gebruik van sitemaps in combinatie met SEO aan het licht gebracht om beter te scoren in zoekmachines.
Zoekmachines crawlen een website en controleren op metatags en .txt-bestanden, naast andere gegevens die relevant kunnen zijn bij het beoordelen van het belang van de inhoud met betrekking tot de zoekopdracht. Wanneer een HTML-sitemap wordt gemaakt, wordt deze op de startpagina van de website geplaatst om ervoor te zorgen dat deze alle afzonderlijke pagina's binnen de website bevat. Hierdoor hebben websitebezoekers toegang tot alle informatie van elke pagina van de website, precies daar op de eerste pagina die ze zien. Hierdoor groeit het aantal pagina's dat door de zoekmachine wordt gecrawld en geïndexeerd, wat leidt tot een hogere pagerank.
Met een XML-sitemap kan een website-eigenaar specifieke informatie invoeren over de pagina's die door de zoekmachines moeten worden gecrawld. Bovendien kunnen website-eigenaren de hiërarchie of prioriteit van de inhoud van de website aanpassen en meer informatie bekijken, zoals wanneer de inhoud voor het laatst is bijgewerkt. Wanneer een sitemap wordt gemaakt, is het belangrijk dat u informatie zoals zoeken op trefwoorden begrijpt, zodat u inhoud kunt maken die trefwoordspecifiek is voor de website. Dit resultaat is een hogere ranking voor de website binnen zoekmachines.
Wanneer een HTML-sitemap wordt gemaakt, moet u er zeker van zijn dat elke individuele link gepaard gaat met een korte beschrijving van de inhoud van de link. Als dit is gebeurd, moet u trefwoorden toevoegen over de informatie in deze tags. Als gevolg hiervan zal de zoekmachine de sitemap rijk vinden met de relevante zoekwoorden. Wanneer dit gebeurt, kun je omhoog klimmen in de rankings op de pagina's met zoekresultaten van zoekmachines.
Waarom zijn XML-sitemaps belangrijk voor SEO?
Hoewel XML-sitemaps niet algemeen worden beschouwd als een tool die specifiek is voor SEO, zorgen ze er in feite voor dat een website nauwkeurig wordt gerangschikt op de resultatenpagina van een zoekmachine. De zoekmachine gebruikt gegevens van de sitemap die zich op een specifieke plaats bevindt. Dit is belangrijk omdat er letterlijk miljoenen websites zijn die moeten worden doorzocht en u ervoor wilt zorgen dat u uw eigen website geen slechte dienst bewijst door af te zien van een XML-sitemap.
XML-sitemaps worden herkend door alle populaire zoekmachines, waardoor één enkel bestand kan worden ingediend; en wanneer er wijzigingen zijn aangebracht aan de website, kan het bestand indien nodig eenvoudig worden bijgewerkt. Dit zorgt ervoor dat u zonder veel gedoe de inhoud van de website kunt verbeteren. En wanneer u een sitemapgenerator gebruikt, wordt het nog eenvoudiger.
Omdat webpagina's zijn gerangschikt op basis van hun relevantie van inhoud met betrekking tot specifieke zoekwoorden, was SEO een beetje lastig vóór HTML. Dit komt omdat inhoud op internet blogs, multimediabestanden en dergelijke omvat. Met XML-sitemaps kunnen zoekmachines een website voldoende crawlen en indexeren, en kunnen alle zoekmachines op de hoogte worden gesteld van de sitemap door deze in het robots.txt-bestand in te voegen.
Kortom, sitemaps verbeteren de positie van een website in de resultaten van zoekmachines, waardoor de SEO-inspanningen worden gestimuleerd. Wanneer een website hoog scoort op de resultatenpagina van een zoekmachine, wordt de website zichtbaar voor een groter aantal internetgebruikers, waardoor het verkeer naar de website toeneemt. Al met al komt dit zowel de maker van de website als de gebruiker ten goede. De gebruiker krijgt informatie over de beste websites die overeenkomen met zijn zoekopdracht en stelt de websites beschikbaar voor gebruikers zodra ze daarom vragen. Dit is allemaal te danken aan het succesvol crawlen en indexeren van de website door de spiders van de zoekmachine.
Het is best practice bij het gebruik van een enkele XML-sitemap dat deze minstens één keer per dag wordt bijgewerkt als de website zo vaak verandert. Vervolgens wilt u Google pingen om deze wijzigingen te verwerken, zodat ze nauwkeurig worden weergegeven op de pagina's met zoekresultaten. Een tip is om zoveel mogelijk URL's in elke XML-sitemap te plaatsen - vaak worden er maar een paar links in elke sitemap geplaatst, en dit maakt het moeilijk voor Google om alle individuele sitemaps binnen een redelijke tijd te downloaden - in wezen vertraagt het de laadtijd. Gebruik alle ruimte in elke sitemap zodat uw website niet achterblijft terwijl u uw best doet om deze geoptimaliseerd te houden.
Wat is het gebruik van robots txt-bestand in SEO?
Idealiter bezoeken en indexeren zoekmachines een website en inhoud regelmatig, maar soms zal er inhoud zijn die niet geïndexeerd zou moeten worden, omdat het niet bedoeld is om beschikbaar te zijn voor de bezoekers van uw website. Een voorbeeld hiervan is het hebben van twee versies van één pagina – zoals een recept, de ene is om in de browser te bekijken en de andere om te printen. De versie voor afdrukken kan worden uitgesloten van crawlen, anders kunt u door de zoekmachine worden gestraft voor het hebben van dubbele inhoud. Ook als er gevoelige informatie op de website staat die niet door de wereld mag worden gezien, mogen deze pagina's niet worden geïndexeerd. De beste praktijk zou in dit geval zijn om deze informatie in de eerste plaats niet op de website te hebben als deze zo gevoelig is. Wanneer u de moeite neemt om afbeeldingen, JavaScript en stylesheets uit te sluiten van indexering, bespaart u ook wat bandbreedte, maar u moet met de crawlers communiceren om deze items uit de buurt te houden. Dit is waar de robots.txt om de hoek komt kijken.
Een manier om dit te doen is door een robots.txt-bestand te gebruiken. Dit is het tekstbestand dat op een website moet worden geplaatst en dat de zoekrobots vertelt welke pagina's ze niet mogen crawlen of indexeren. Het is niet verplicht voor SEO, maar zoekmachines zullen gehoorzamen aan wat hen wordt gevraagd in een robots.txt-bestand. Extreem gevoelige gegevens mogen niet in bestanden op een website worden geplaatst en mogen alleen worden beschermd met een robots.txt-bestand. De locatie van het robots.txt-bestand is essentieel. Het moet in de hoofdmap staan, anders kunnen zoekmachines het niet vinden. Ze doorzoeken niet een hele website om alleen het robots.txt-bestand te vinden. Ze kijken eerst in de hoofdmap en als die er niet is, gaan ze ervan uit dat die niet bestaat. Dus als het op de verkeerde plaats staat, kan uw hele website worden geïndexeerd terwijl dat niet uw bedoeling is.
Wat heeft dit met SEO te maken? Het bestand Robots.txt voorkomt dat extra of gevoelige informatie wordt gecrawld en geïndexeerd. Dit zorgt ervoor dat uw website wordt geïndexeerd met alleen de informatie die u wilt dat uw gebruikers te zien krijgen. Met betrekking tot zoekmachineoptimalisatie is het van vitaal belang dat uw website alleen de informatie geeft die u van plan bent aan uw bezoekers. Dit betekent dat de informatie niet ook aan zoekmachines wordt gepresenteerd. Wanneer u alles wat op een website staat crawlt en indexeert, loopt u het risico van dubbele inhoud, wat een boete kan opleveren.
Hoe dien ik een sitemap in bij Google?
Nadat de sitemap is gemaakt, moet deze worden geüpload naar de website en vervolgens worden ingediend bij Google. Dit kan direct viaDe zoekconsole van Google. Voordat u uw sitemap kunt indienen, moet u uw domein verifiëren via de Google-zoekconsole. Vervolgens kan Google u identificeren als de website-eigenaar.
Voor het indienen van uw sitemap moet u:
Selecteer uw website op de startpagina van de zoekconsole.
- Klik op kruipen.
- Klik op sitemaps.
- Klik op sitemap toevoegen/testen.
- Typ sitemap.XML.
- Klik ten slotte op sitemap verzenden.
Het wordt ten zeerste aanbevolen om een sitemap in te dienen na het updaten of publiceren van uw eigen website. Dit zorgt ervoor dat de zoekmachines de meest recente versie van uw website hebben om degenen die een zoekopdracht voor uw website uitvoeren beter van dienst te zijn. Een sitemap is van vitaal belang voor goede SEO-praktijken, en SEO is van vitaal belang om verkeer en inkomsten naar de website te halen. Aan de andere kant zijn sitemaps essentieel om zoekmachines de website te laten crawlen en indexeren, zodat de inhoud ervan kan worden gerangschikt in de zoekresultaten. Het helpt de gebruiker bij het navigeren en begrijpen van uw website, maar het helpt ook bij de communicatie met zoekmachines. Het is belangrijk dat SEO met betrekking tot een sitemap niet over het hoofd wordt gezien. Het is een essentieel onderdeel om spiders een website te laten crawlen en indexeren. Investeer de tijd die nodig is om een geweldige sitemap te ontwikkelen. Er wordt zoveel moeite gestoken in het ontwikkelen van geweldige inhoud en de tijd nemen om ervoor te zorgen dat al die prachtige inhoud wordt gecrawld en geïndexeerd, zorgt ervoor dat u het echt de moeite waard maakt om de moeite te doen.
Auteur:Garenne BigbyWebsite: http://garennebigby.com
Oprichter van DYNO Mapper en vertegenwoordiger van het adviescomité bij het W3C.
Rug