Etikettarkiv: sökmotor

En sökmotoroptimerares tips – SEO-ordlista

När vi pratar om sökmotoroptimering dyker det allt som oftast upp olika termer och fraser. Även om termerna känns självförklarande, är det lätt att blanda ihop dem och för den oinvigde blir det svårt att hänga med. Därför bjuder vi idag på en ordlista med några av de mest förekommande SEO-termerna och dess betydelse.  Läs mer

Dela: Facebooktwittergoogle_pluslinkedinmail

Ajax blir sökmotorvänligt

Ajax* är ett samlingsnamn för ett gäng tekniker som webbutvecklare kan använda sig av för att bättra på surfupplevelsen. Det gör det möjligt att ladda nytt innehåll utan att ladda om hela sidan. Används det på rätt sätt så upplevs webbsajten snabbare och kan göras mer lik ett traditionellt program som du kör direkt på din dator (du vet där vi höll till innan vi flyttade oss till molnet). Ajax har fått rejält fotfäste och används ivrigt runt om på nätet, vår kundzon är t ex fullmatad av det.

En gigantisk baksida med tekniken har varit att sökmotorerna inte kunnat indexera Ajax-sidor på ett bra sätt. Och med tanke på hur mycket trafik som drivs genom sökmotorerna vill du ju inte hamna utanför deras synfält.

Nu har dock Google börjat indexera Ajax-sidor för fulla muggar. Riktigt najs – men innan du lutar dig tillbaka och väntar på att din fräcka webbtjänst ska bli indexerad så behöver du kontrollera att du gjort saker på ett sätt som gör Google nöjda. Din kod måste nämligen uppfylla deras villkor för att hamna under luppen. Så surfa först in och kolla deras kom-igång-guide.

Använder du Ajax på din sajt idag? Varför, varför inte?

* Asynchronous JavaScript and XML

Dela: Facebooktwittergoogle_pluslinkedinmail

Säg nej till Google

För några dagar sedan publicerade vi en artikel om Sitemap – ett protokoll som hjälper sökmotorer förstå logiken bakom din webbplats för att på så sätt kunna indexera den lättare. Motsatsen till Sitemap är protokollet robots.txt – eller Robots Exclusion Standard som det egentligen heter.

Med robots.txt berättar du vad sökmotorer INTE skall indexera. Det kan exempelvis vara material som ligger på din webbplats men som du anser vara irrelevant för sökmotorer, eller duplikat av texter som finns lagrade på andra ställen på din webbplats.

Protokollet bygger på en mycket enkel textfil med namnet robots.txt. Den placerar du i webbplatsens rotkatalog, dvs www.din-domän.se/robots.txt. Nedan följer ett exempel hur en robots.txt-fil kan se ut:

User-agent: *
Disallow: /sopkorg/
Disallow: /cgi-bin/knasskript/

Detta exempel påverkar alla sökmotorer (robotar / webbspindlar) genom asterisk-tecknet (*) och säger att de kan indexera allt utom katalogerna /sopkorg/ och /cgi-bin/knasskript/.

För att säga åt en specfik webbspindel (i detta fall Googles) att inte indexera något på webbplatsen gör du som följer:

User-agent: Googlebot
Disallow: /

För att tillåta att en specifik webbspindel (även i detta fall Googles) indexerar din sida, men inga andra, gör du som följer:

User-agent: Googlebot
Disallow:

User-agent: *
Disallow: /

Ett alternativ till filen robots.txt är att använda en speciell meta-tagg direkt i dina .html-dokument. Precis som alla meta-taggar placerar du den mellan taggarna <head> och </head> i din kod. Denna kan se ut som följer:

<meta name="robots" content="noindex, nofollow">

Namnet (name) på meta-taggen är ”robots” och content-attributet kan ha följande värden: ”index”, ”noindex”, ”follow” och ”nofollow” för att markera huruvida sidan skall indexeras eller ej samt för att markera huruvida länkar i dokumentet skall följas eller ej.

För båda dessa metoder är det viktigt att poängtera att sökmotorer (och andra webbspindlar för den delen) kan välja att ignorera instruktionerna i dessa. Dessutom är instuktionerna publikt läsbara vilket innebär att alla kan ta reda på vilka kataloger eller filer du inte vill ska indexeras, detta kan alltså potentiellt användas ”emot dig” av illvilliga spindlar. Sådant som kan klassas som konfientiellt bör alltså inte explicit anges i en fil av typen robots.txt – det bör å andra sidan inte finnas tillgängligt på en oskyddas webbplats alls.

Mer information, vanliga frågor och exempel på hur du kan använda robots.txt hittar du på sidan www.robotstxt.org.

Dela: Facebooktwittergoogle_pluslinkedinmail

Hjälp din sökmotor

Att hjälpa Google och andra sökmotorer att hitta just din hemsida, och materialet på den, är något som gått och blivit big business. Förkortningen SEO (Search Engine Optimization) är idag något av ett hushållsnamn och de som bemästrar tekniken kan tjäna stora pengar.

Det finns många sätt att hjälpa sökmotorer hitta ”rätt” material på den webbplats du tillhandahåller. En teknik, som det dock inte talas så mycket om, är att använda protokollet Sitemap (eller webbplatskarta som det kallas på svenska).

En Sitemap är en XML-fil som du lägger upp på din webbplats. I den beskrivs vilka delsidor din webbplats består av, hur ofta de uppdateras och vilken prioritet de har gentemot varandra. På så vis kan du kan hjälpa sökmotorerna förstå logiken bakom din hemsida och ge dem en hint om när det kan vara dags att söka igenom ditt material igen.

Protokollet Sitemap är en vedertagen standard och används av alla stora sökmotorer från bland annat Google, Yahoo och Microsoft. Dock skall noteras att en Sitemap inte på något vis garanterar en bättre position i olika sökresultat. Däremot hjälper den alltså sökmotorerna att bättre förstå din sida och kan därigenom hjälpa dem att göra ett bättre jobb.

Här är ett exempel på hur en Sitemap-fil kan se ut:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.loopia.se/</loc>
      <lastmod>2008-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
   <url>
      <loc>http://www.loopia.se/webbhotell/</loc>
      <lastmod>2008-01-15</lastmod>
      <changefreq>weekly</changefreq>
      <priority>1.0</priority>
   </url>
</urlset>

Som du ser är innehållet mycket logiskt och enkelt att förstå. De intressanta taggarna här är <loc>, <lastmod>, <changefreq> och <priority> som kapslas in mellan <url> och </url>. Varje sådant block ger information till sökmotorerna om en specifik delsida på din webbplats.

I exemplet ovan har vi listat två delsidor på webbplatsen www.loopia.se, www.loopia.se/ och www.loopia.se/webbhotell/. Detta görs alltså med taggen <loc>. Taggen <lastmod> anger datumet då delsidan senast ändrades, <changefreq> anger en uppskattning om hur ofta detta sker och <priority> anger vilken prioritet sidan har (mellan 0.0 och 1.0) gentemot andra delsidor på webbplatsen.

För mer information om vad en Sitemap kan göra för dig, hur du skapar en sådan och hur du får sökmotorerna att hitta den, se sidan sitemaps.org, den officiella sidan för protokollet. Du hittar även detaljerad information om Sitemaps på Wikipedia.

Dela: Facebooktwittergoogle_pluslinkedinmail