Søgemaskiner er programmer som kan scanne det store World Wide Web (www) for indhold og vise indholdet til brugere som søger med søgeord eller sætninger i en rangeret rækkefølge.
Danskernes foretrukne søgemaskine er ubetinget Google, men der findes også en del andre søgemaskiner som f.eks Bing, Yahoo og DuckDuckGo.
Hvordan virker en søgemaskine?
Ifølge InternetLiveStats, bliver der foretaget cirka 5.5 milliarder søgninger om dagen på Google. Eller hvad der svarer til mere en 60,000 søgninger per sekund.
Hver gang nogen foretager en søgning skal søgemaskinen hurtigt finde de mest relevante resultater blandt mere end 130 trillioner af sider. Bare lige for at opsummere er “én trillion”: En milliard, milliarder.
For at søgemaskinerne hurtigt kan levere de rigtige og mest relevante resultater til hver søgning, er der selvfølgeligt lavet en del forarbejde inden din søgning. Google og de andre søgemaskiner vil gerne forsøge at holde mange af mekanismerne bag søgemaskinernes arbejde hemmeligt, men marketing folk tjener penge på at vide hvordan søgemaskinerne virker.
Hvis man ved hvordan søge maskinerne finder, organiserer og udvælger resultater kan man også lettere optimere sin hjemmeside så den får bedre positioner i resultaterne.
En søge maskine består primært af et netværk af websites som på forhånd er indekseret af søgemaskinen. Men det stopper ikke her, Alle små dele på hjemmesiden bliver nøje gransket og gennemgået af søgemaskinen, det kunne f.eks være, billeder, video og tekster. Hjemmesideejere benytter sig af Søgemaskineoptimering i håbet om at forbedre deres chancer for at blive synlige i søgeresultaterne.
Søgemaskinerne bruger 3 grund elementer:
- Web Crawlere
- Søge indeksering
- Søge Algoritmer
Hvordan søgemaskiner crawler, indekserer og bedømmer indhold.
Når man ser det udefra kan en søgemaskine virke relativt simpel. Du intaster et søgeord eller en søgefrase, og du får en liste med relevante sider retur. Men denne simple udveksling af svar på dine søgefraser eller søgeord og de svar du får er alt andet end simpelt.
Der foregår voldsomt meget arbejde bag kuliserne.
Arbejdet starter lang tid inden du foretager din søgning. Søgemaskinerne arbejder døgnet rundt på at undersøge alle nye hjemmesider, og gemme informationen. Denne information gemmes på en måde så det er nemt at finde frem igen. Det er en 3 trins raket, hvor websiden først crawles af en robot, dernæst bliver siden indekseret, og slutteligt bliver siden rangeret udefra søge algoritmerne.
Crawling
Søgemaskinerne er dybt afhængige af dens web crawlers, bots eller spiders. Kært barn har mange navne og alle begreberne dækker egentligt over præcis det samme, et stykke computer software som kan gennemgå en hjemmeside for indhold, data, links, billeder, videoer osv.
Disse robotter starter med en liste af hjemmesider. Algoritmerne bestemmer så hvilke hjemmesider som skal crawles først eller hyppigst, og hvor dybt og grundigt den enkelte hjemmeside skal gennemgåes.
Crawlers besøger alle sider på listen systematisk, og følger sidens interne og eksterne linkstruktur for at bevæge sig rundt på din hjemmesides indhold og sider.
Over tid vil disse robotter have styr på hvilke sider der linker til hinanden, og hvilken vej link strukturen går både internt og eksternt. Det er kritisk for din hjemmeside at du sikrer dig at din hjemmeside nemt og uden besvær kan crawles af robotterne. Hvis din hjemmeside ikke er tilgængelig og åben for søgemaskinerne er Teknisk SEO fra MOFA løsningen, som kan sikre dig at søgemaskinerne kan crawle din hjemmeside. Hvis robotterne ikke kan crawle din side, kan den ikke blive indekseret, det betyder at din side ikke bliver synlig i søgeresultaterne.
Hvis du er usikker på hvorvidt din side er tilgængelig for søgemaskinernes spiders, kan du altid teste den med et Site Audit tool.
Værktøjet opdager adgangs problemer, og kommer med konkrete forslag til hvordan de skal fikses.
Indeksering
Efter en bot har fundet en hjemmeside som den har adgang til, ser den på din hjemmeside lidt på samme måde som din browser.
Alt indhold gennemgåes, inklusiv billeder, video, og andre type af dynamisk indhold.
Robotten organiserer alt indholdet, inkluderet billeder, HTML, Tekst, og søgeord. Denne proces gør at crawleren får en forståelse for hvad der er på din hjemmeside og hvilke søgeord din hjemmeside er relevant for.
Søgemaskinerne gemmer herefter alt denne information, i et kæmpe indeks, en gigantisk database om man vil. Dette kæmpe katalog har så alle muligheder for at finde indholdet frem fra alle de hjemmesider den har crawlet og gemt, når nogen søger efter noget som matcher indholdet på hjemmesiden.
Google’s indeks, the Caffeine Index, fylder omkring 100,000,000 gigabytes and fylder adskillige server parker. Disse parker er tusindevis af computere som aldrig bliver slukket, og er fordelt over hele verden.
Hvis du vil vide hvad en crawler ser når den besøger din hjemmeside kan du bruge dette værktøj gratis. Crawler værktøj. Du kan også bruge værktøjet til at fine ud af hvorfor crawlers ikke indekserer din side korrekt.
Med din robots.txt fil kan du angive hvilke sider du ønsker robotterne skal crawle.
Rangering
I den sidste del, skal søgemaskinerne gennemgå alt informationen og vende tilbage med de mest korrekte svar i forhold til søgningerne.
Dette gør de med søgealgoritmer, som basalt set kan betragtes som regler som søgemaskinerne følger når de skal analysere hvad en bruger leder efter når han søger. Alt sammen for at besvare brugerens søgeforespørgsel bedst muligt.
Algoritmerne består af mange faktorer som tilsammen tilsikrer at kvaliteten af siderne i deres indeks er højt. På denne måde kan Google sørge for at de hjemmesider som bliver rangeret i toppen af søgeforespørgslerne er relevante. Mange af de ranking faktors som bliver brugt af algoritmerne handler også om at se på at det indhold du har på din hjemmeside er af høj kvalitet, og at brugerne som kommer ind på din side finder det de kom efter.
For at teste at algoritmerne gør deres job som de skal, bruger Google også rigtige mennesker som Vurdere søgekvaliteten, og som aktivt er med til at forbedre algoritmen. Dette er faktisk en af de få gange hvor det er mennesker og ikke software som er inde over hvordan en søgemaskine virker.
Hvordan søgemaskinerne laver tilpassede resultater
Søgemaskinerne er intelligente, og de forstår at forskellige resultater passer til forskellige mennesker. Det er også derfor dine søgeforslag er personlige og afspejler hvad Google tror DU leder efter.
Hvis du har prøvet at søge efter det samme af nogle omgange på flere forskellige enheder eller browsere har du formentligt oplevet dette. Søgeresultaterne kan variere i position afhængigt af en del forskellige faktorer.
Det er også derfor når man arbejder med SEO, at man arbejder med en decideret rank tracker for at overvåge placeringer på forskellige søgeord. På denne måde bliver resultatet ikke påvirket af dine personlige resultater. Dine personlige resultater kan påvirkes af f.eks:
- Sprog
- Placering
- Søge historik
- Mobil/Desktop
Forståelsen for hvordan søgemaskiner virker er det første skridt på vejen til at opnå bedre placeringer i Googles søgeresultater, og hermed få mere organisk trafik. Hvis søgemaskinerne ikke kan finde, crawle og indeksere dine sider, har du tabt på forhånd.
Den bedste måde at komme i gang er at optimere din hjemmeside for SEO. Ved at sende de rigtige signaler til søgemaskinerne, kan du sørge for at Google ser din hjemmeside som meget relevant når folk søger efter præcis din virksomhed, dir produkt eller din service. At give søgemaskinerne og dens brugere præcis hvad de søger efter er en del af vejen til succes med SEO, og en succesfuld online virksomhed.
Online synlighed med SEO?
Udfyld formularen herunder, så kontakter jeg dig hurtigst muligt.