Etikettarkiv: sitemap

Skapa en XML-sitemap manuellt

I ett tidigare blogginlägg tog vi upp hur man skapar en XML sitemap för WordPress automatiskt med hjälp av ett tillägg. Eftersom att många kodar sina webbplatser själva istället för att använda ett publiceringssystem så tänkte vi även kika på hur man kan göra detta manuellt.

Filen vi ska jobba med ska heta sitemap.xml och för en mindre hemsida är det enklast att lägga den direkt i public_html-mappen. Filen ska vara sparad som UTF-8 och detta kan du ställa in i de flesta texteditorer.

Vi börjar med att lägga till följande i filen:

<?xml version="1.0" encoding="UTF-8"?>
     <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
</urlset>

Läs mer

Dela: Facebooktwittergoogle_pluslinkedinmail

Säg ja till Google

SEO, Search Engine Optimization, sökmotorsoptimering, sökmotorsvänlig hemsida och länkutbyte (link exchange). Vad är det som avses egentligen med sådan uttryck?

Sammantaget är det olika sätt för att komma högre upp på sökningar hos exempelvis Google.

Om man rådfrågar olika experter om hur man optimerar sin sida gällande just SEO kommer man troligtvis få många vitt skilda svar eftersom det inte är någon exakt vetenskap och dessutom väldigt mycket beror på vad man har för hemsida och resurser att lägga. Företag som aktivt sysslar med sökmotorsoptimeringar försöker på olika sätt få reda på hur sökningar görs hos populära sökmotorer, men de företag som erbjuder sökmotorer, exempelvis Google, är lika ivriga med att förbättra och förändra sökmotorerna för att se till att kvaliteten på sökningen bibehålls och att inte fel sidor får bra placeringar. Exempelvis Google ”straffar” dessutom hemsidor som enligt dem använder fula knep för att få högre placeringar genom att helt eller delvis plocka bort dem från deras sökbara index.

Det jag tänkte gå igenom här är generella riktlinjer man kan ta hänsyn till när man uppdaterar sin hemsida, men vill man ha mer specifika förslag gällande sin hemsida bör man vända sig direkt till ett av de företag som erbjuder sökmotorsoptimering av hemsidor.

Den åtgärd som är absolut enklast att göra är att sätta rätt titlar och beskrivningar på sidorna. I vår kunskapsdatabas har vi beskrivit de vanligaste inställningarna.

Att notera gällande just nyckelord (keywords) är att man ska använda enbart ett fåtal ord och jag rekommenderar att man väljer ut två eller tre ord som är specifika för just den sidan man gör. Även beskrivning (description) ska man vara försiktig att skriva för mycket text i då en rad i princip ska vara tillräcklig som sammanfattning för sidan.

Gällande ALT-inställningen på bilder skall detta inte heller utnyttjas för att få med extra sökord utan det ska vara ett kortare uttryck som beskriver bilden som presenterats. På länkar skall man se till att titlar och länkinformation korrekt avspeglar vad det länkar till och specifikt undvika generella begrepp som ”Klicka här” och ”Läs mer”.

Tillhandahåll helst en översiktsida (Sitemap) av alla sidor på din webbplats eftersom det förenklar möjligheten för sökmotorn att hitta och indexera alla sidor snabbare, särskilt om sidan följer ett visst format. En kortfattad information om Sitemap hittar du även i ett av våra tidigare blogginlägg.

Undvik allt vad flash-hemsidor innebär. De må vara vackra och lättnavigerade, men sökmotorer kan inte indexera flash-filer *. Sökmotorer ser enbart en text-version av din hemsida och tar bort även JavaScript och kommentarer. Det fokuseras alltså på den texten som syns på sidan för att få en korrekt representation om vad besökaren kan tänkas vara intresserad för. Om man därför gör sidan bättre anpassad för användande av textläsare och andra verktyg som normalt används av de med synsvårigheter, exempelvis Braille-terminal som blinda kan använda, förbättrar man även möjligheten för sökmotorer att indexera sidan. Undvik helt att använda table för annat än just tabeller (listningar), istället bör CSS används. W3C har sammanställt en hel del riktlinjer om just användarvänlighet som de kallar för Web Accessibility Initiative (WAI).

Om du använder Firefox finns dessutom tillägget Fangs som försöker presentera sidan som en textläsare skulle se den.

En bok som ofta rekommenderas när det diskuteras hemsidors användarvänlighet är Understanding Accessibility från HiSoftware.

P3P (Platform for Privacy Preference Project) är en annan sak som man bör ta hänsyn till även om det inte direkt hör till sökmotorsoptimeringar. Det är ett sätt att beskriva hur man hanterar integritet på hemsidan men används oftast när man behöver komma ihåg en besökares val mellan olika sidor med hjälp av kakor (cookies). Jag känner inte till någon sökmotor som i dagsläget använder sig av den informationen för att påverka placeringen, men det är oavsett en bra sak att tillhandahålla.

På Wikipedia finns mer information om vad kakor (cookies) är.

Till ens hemsida ska man välja ett bra domännamn som både är besökarevänligt (det ska gå att berätta i telefon) samt att det gärna ska vara sökmotorvänligt. Som sökmotorer ser det separeras ord med bindestreck, så om man har ett domännamn biltvätt.com och någon söker på bil tvätt kanske placeringen blir något lägre än om domännamnet hade varit bil-tvätt.com, men det motsatta är också en möjlighet. Alternativet här är att registrera flera alternativa domännamn som på ett korrekt sätt innehåller de sökord som man vill använda sig av, men jag rekommenderar att man är försiktig här. Ett fåtal domännamn kan säkert hjälpa upp placeringen om man ställer in dem rätt, men man bör absolut inte registrera alla sökord som man kan tänka sig.

Att tänka på är att alla domännamn förutom huvudsidan måste använda en permanent omdirigering (HTTP-status 301) till huvudsidan för att sökmotorer inte ska anse att sidorna konkurrerar om samma utrymme och istället minska huvudsidans placering. I vår LoopiaDNS-tjänst stödjer vi i dagsläget inte permanent omdirigering och inte heller för parkerade domännamn i Loopia Kundzon, men man kan skapa det genom att lägga till domännamn med hemkatalog på UNIX-server och sedan ställa in det med en .htaccess-fil:

RewriteEngine On
RewriteRule .* http://www.loopia.se/%1 [R=permanent,L]

Länkning till ens hemsida är dock mer viktigt när det gäller placeringar då sökmotorer anser att en populär och användbar sida också blir länkad ofta. Undvik dock länkfarmning (en sida med enbart massor med länkar) och intern länkning (samma person, företag eller organisation har flera hemsidor som länkar till varandra) då det har missbrukats och exempelvis Google straffar sådant med mycket sämre placering. En del som sysslar med sökoptimering rekommenderar att man sprider ut hemsidor på olika ip-adresser för att de ska undvika att klassas som intern länkning, men så vitt jag vet räcker inte det utan man behöver ha hemsidor hos olika Internettjänsteleverantörer med egna AS-nummer för att helt undgå den risken. Det jag snarare rekommenderar är kontakta andra företag och organisationer i samma eller liknande bransch och höra om det går att utbyta länkar och information. Notera dock att utbytet ska gynna båda lika mycket för att den man ska kontakta ska acceptera länkutbytet. Det gäller alltså att hemsidan ska vara välbyggd ochuppdaterad med information som kan tillföra något till andras webbplatser.

När någon länkar till ens huvudsida gäller det också att det blir rätt länkat. Om länkningen görs med någon av ens nyckelord som titel kommer sökningar på det nyckelordet lite högre än vad det annars skulle vara. Skillnaden mellan …

<a href="http://kallejohan.example.org">
   Tvättsvamp via kallejohan i Västerås
</a>

… och …

<a href="http://kallejohan.example.org">
   kallejohan
</a>

… kan vara avgörande om man säljer tvättsvamp. Också här gäller att det ska vara korrekt överensstämmande och inte använda sig av generella beskrivningar som ”Klicka här” naturligtvis.

Apropå uppdaterad gillar sökmotorer generellt en sida som är uppdaterad och aktuell, så ofta är det att en blogg eller nyhetsbrev får högre placering på sökmotorer än företagets huvudsida. Tillbakalänkning från bloggen och nyhetsbrev är något som jag absolut rekommenderar, men främst är naturligtvis att hålla hemsidan uppdaterad och aktuell.

Lite länkar som kan hjälpa dig med just ditt hemsidesarbete:

* Vissa sökmotorer som Google kan indexera text från .swf-filer. Dock är detta väsentligt mer begränsat än indexering av webbsidor baserade på HTML och CSS.

Dela: Facebooktwittergoogle_pluslinkedinmail

Säg nej till Google

För några dagar sedan publicerade vi en artikel om Sitemap – ett protokoll som hjälper sökmotorer förstå logiken bakom din webbplats för att på så sätt kunna indexera den lättare. Motsatsen till Sitemap är protokollet robots.txt – eller Robots Exclusion Standard som det egentligen heter.

Med robots.txt berättar du vad sökmotorer INTE skall indexera. Det kan exempelvis vara material som ligger på din webbplats men som du anser vara irrelevant för sökmotorer, eller duplikat av texter som finns lagrade på andra ställen på din webbplats.

Protokollet bygger på en mycket enkel textfil med namnet robots.txt. Den placerar du i webbplatsens rotkatalog, dvs www.din-domän.se/robots.txt. Nedan följer ett exempel hur en robots.txt-fil kan se ut:

User-agent: *
Disallow: /sopkorg/
Disallow: /cgi-bin/knasskript/

Detta exempel påverkar alla sökmotorer (robotar / webbspindlar) genom asterisk-tecknet (*) och säger att de kan indexera allt utom katalogerna /sopkorg/ och /cgi-bin/knasskript/.

För att säga åt en specfik webbspindel (i detta fall Googles) att inte indexera något på webbplatsen gör du som följer:

User-agent: Googlebot
Disallow: /

För att tillåta att en specifik webbspindel (även i detta fall Googles) indexerar din sida, men inga andra, gör du som följer:

User-agent: Googlebot
Disallow:

User-agent: *
Disallow: /

Ett alternativ till filen robots.txt är att använda en speciell meta-tagg direkt i dina .html-dokument. Precis som alla meta-taggar placerar du den mellan taggarna <head> och </head> i din kod. Denna kan se ut som följer:

<meta name="robots" content="noindex, nofollow">

Namnet (name) på meta-taggen är ”robots” och content-attributet kan ha följande värden: ”index”, ”noindex”, ”follow” och ”nofollow” för att markera huruvida sidan skall indexeras eller ej samt för att markera huruvida länkar i dokumentet skall följas eller ej.

För båda dessa metoder är det viktigt att poängtera att sökmotorer (och andra webbspindlar för den delen) kan välja att ignorera instruktionerna i dessa. Dessutom är instuktionerna publikt läsbara vilket innebär att alla kan ta reda på vilka kataloger eller filer du inte vill ska indexeras, detta kan alltså potentiellt användas ”emot dig” av illvilliga spindlar. Sådant som kan klassas som konfientiellt bör alltså inte explicit anges i en fil av typen robots.txt – det bör å andra sidan inte finnas tillgängligt på en oskyddas webbplats alls.

Mer information, vanliga frågor och exempel på hur du kan använda robots.txt hittar du på sidan www.robotstxt.org.

Dela: Facebooktwittergoogle_pluslinkedinmail

Hjälp din sökmotor

Att hjälpa Google och andra sökmotorer att hitta just din hemsida, och materialet på den, är något som gått och blivit big business. Förkortningen SEO (Search Engine Optimization) är idag något av ett hushållsnamn och de som bemästrar tekniken kan tjäna stora pengar.

Det finns många sätt att hjälpa sökmotorer hitta ”rätt” material på den webbplats du tillhandahåller. En teknik, som det dock inte talas så mycket om, är att använda protokollet Sitemap (eller webbplatskarta som det kallas på svenska).

En Sitemap är en XML-fil som du lägger upp på din webbplats. I den beskrivs vilka delsidor din webbplats består av, hur ofta de uppdateras och vilken prioritet de har gentemot varandra. På så vis kan du kan hjälpa sökmotorerna förstå logiken bakom din hemsida och ge dem en hint om när det kan vara dags att söka igenom ditt material igen.

Protokollet Sitemap är en vedertagen standard och används av alla stora sökmotorer från bland annat Google, Yahoo och Microsoft. Dock skall noteras att en Sitemap inte på något vis garanterar en bättre position i olika sökresultat. Däremot hjälper den alltså sökmotorerna att bättre förstå din sida och kan därigenom hjälpa dem att göra ett bättre jobb.

Här är ett exempel på hur en Sitemap-fil kan se ut:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.loopia.se/</loc>
      <lastmod>2008-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
   <url>
      <loc>http://www.loopia.se/webbhotell/</loc>
      <lastmod>2008-01-15</lastmod>
      <changefreq>weekly</changefreq>
      <priority>1.0</priority>
   </url>
</urlset>

Som du ser är innehållet mycket logiskt och enkelt att förstå. De intressanta taggarna här är <loc>, <lastmod>, <changefreq> och <priority> som kapslas in mellan <url> och </url>. Varje sådant block ger information till sökmotorerna om en specifik delsida på din webbplats.

I exemplet ovan har vi listat två delsidor på webbplatsen www.loopia.se, www.loopia.se/ och www.loopia.se/webbhotell/. Detta görs alltså med taggen <loc>. Taggen <lastmod> anger datumet då delsidan senast ändrades, <changefreq> anger en uppskattning om hur ofta detta sker och <priority> anger vilken prioritet sidan har (mellan 0.0 och 1.0) gentemot andra delsidor på webbplatsen.

För mer information om vad en Sitemap kan göra för dig, hur du skapar en sådan och hur du får sökmotorerna att hitta den, se sidan sitemaps.org, den officiella sidan för protokollet. Du hittar även detaljerad information om Sitemaps på Wikipedia.

Dela: Facebooktwittergoogle_pluslinkedinmail