Hop direkte til testværktøjet ←
Måske har du læst om den nye grænse, som Google har sat for hvor mange MB, de er villige til at crawle på en side. Hvis du ikke har:
Når Googlebot crawler indhold til Google Search, henter den kun de første 2 MB af en understøttet filtype og de første 64 MB af en PDF-fil. Set fra et renderingsperspektiv hentes hver ressource, der er refereret i HTML’en – eksempelvis CSS og JavaScript – separat, og hver enkelt ressource er underlagt den samme filstørrelsesgrænse, som gælder for andre filer (dog med undtagelse af PDF-filer).
Når denne grænse nås, afbryder Googlebot hentningen og sender udelukkende den allerede downloadede del videre til indeksering. Filstørrelsesgrænsen anvendes på ukomprimerede data. Andre Google-crawlere, som for eksempel Googlebot Video og Googlebot Image, kan have andre grænser.
Skal du gå i panik?
Med 99% sikkerhed NEJ!
Der er ikke mange websites, der har sider, der fylder 2MB for en filtype.
Men tvivl og SEO hører ikke sammen, vel?
Test din sides størrelse
Her har du et nemt lille værktøj, du kan teste sider med. Indtast blot den fulde URL (eller copy/paste den ind), og så kan du med det samme få svar. Og dermed sandsynligvis en rolig nattesøvn:
Googlebot 2 MB grænse-tjek
Tjek om din sides HTML overskrider Googlebots crawl-grænse på 2 MB
Størrelse af HTML-respons
Sidedetaljer
Hvad er Googlebots 2 MB grænse?
Googlebot har en grænse på ca. 2 MB for den rå HTML-størrelse, den crawler pr. side. Overstiger din sides HTML denne grænse, stopper Googlebot med at læse resten af indholdet.
Det betyder, at indhold, links og struktureret data efter de 2 MB ikke bliver indekseret. Det rammer typisk store kategorisider, lange produktlister eller sider med for meget inline CSS og JavaScript.
Se, det var jo ikke så slemt, vel?
Hvis du nu "dumper":
Tag fat i os og få hjælp!
Rosenstand out!



Tak Thomas! Som sædvanlig formår du at tage panikken ud af alt det støj, som LinkedIn er fyldt med.
Tak for det, Leif!