301 redirects og udarbejdelse af en liste med redirects

sep 30, 2022 | SEO | 0 Kommentarer

Jeg har for nyligt været involveret i flere skift af websites hvor det desværre var nødvendigt at lave en hel del 301 redirects. Normalt vil man gerne beholde de eksisterende URL’er hvis de er effektive men en del platforme som eksempelvis Shopify opererer med faste strukturer i URL’er hvor redirects er nødvendige og helt banalt at fastslå – uendeligt vigtige hvis man vil beholde organiske positioner på den korte bane.  Et skift af website eller platform er i øvrigt en god lejlighed til at få ryddet op i gamle redirects og måske fange et par redirects der kunne give værdi.

Der er rigtigt mange gode artikler der forklarer hvad en redirect er, forskelle på 301 og 302 redirects og eksempelvis forskellen på server side redirects og client side redirects. Men hvordan udarbejdes sådan en liste med 301 redirects?

Opdraget her er at der skal udarbejdes en komplet liste med redirects som skal kunne opsættes i en serverkonfigurationsfil som eksempelvis .htaccess. Jeg ser desværre projekter hvor man udelukkende crawler det gamle website og holder det op imod det nye website. Det er også en forsimpling og der skal her redegøres for et tips til udbejdelse af listen med 301 redirects.

Step 1

Den simple model og første skridt kunne være at crawle det eksisterende website i Screaming Frog. det er ganske enkelt et fantastisk værktøj men også et monster en af applikation som kan alt muligt. Den gratis version vil sagtens kunne løse omgaven hvis der er færre end 500 sider der skal crawles. Når man crawler et website skal man være opmærksom på om en URL er canonicalised, dvs. har en instruks til til Google om at indexere den pågældende side under en anden URL. Det er ikke sikkert at Google indexeres siden under den URL men er det sket er der jo under grund til at lave en redirect på URL’en uden canonical. Der er heller ingen grund til at medtage sider der ikke er indekserbare så dem ville jeg i første omgang udelade.

Det vi ender op med er en række URL’er som alle er “indexable”  og således burde findes på Google. Smid dem i Google Sheets eller Excel men vent med at tage stilling til hvor siderne skal redirectes nu og vent til alle steps er gennemførte.

Step 2

Næste step ville være at checke om websitet skulle have indgående links der er broken. Det er værdifuldt at opsøge disse og kan man ikke rette de links på selve de websites kan de tages med i redirects. Værktøj som SEMRush, Ahrefs eller SERanking kan opstøve de links. Tilføj dem i listen nederst i regnearket.

Step 3

Næste step kunne være at checke om der allerede ligger interne redirects i den platform men er ved at sige farvel til. Det kan der sagtens gøre fra gamle migreringer. Min hovedregel er at hvis jeg tror de redirects er yngre end 2 år graver jeg dem frem og påfører dem på min liste.

Step 4

Jeg tager også altid et kig i Google Search Console for at se om der gemmer sig noget spændende der kunne afføde en redirect eller to. Kig særligt under menuen Indeks -> Sider og “Ikke fundet (404). På nuværende tidspunkt burde de redirects vel være fundet i de tidligere steps men intet er forgjort i at tage dem med her. Brug eksporter menuen for at lette arbejdet.

 

 

Google serach console 404

Step 5

Så er der den vilde løsning jeg kun har gjort enkelte gange og som skal beskrives enkelt her. Steppet går ud på crawle Google og samle URL’er de sider op som Google har indexeret. Jeg har brugt et værktøj som hedder Apify som kan scrape Google og høste de første 300 sider Google har indexeret. Har man ikke kastet sig ud i Python er det en god mulighed.

Afslutning

Nu har man så en liste med URL’er fra det eksisterende website men den vil helt sikkert indeholde dubletter fra de forskellige steps! Smid det hele i Excel og brug funktionen “Fjern dubletter”  på fanen Data eller brug Google Sheets og find i menuen Data -> Dataoprydning -> Fjern dubletter. 

Så skal listen naturligvis knyttes sammen med sider fra det nye website. Jeg har endnu ikke fundet andre processer end manuelt at kigge det igennem og knytte de gamle sider sammen med de nye. Men god fornøjelse!

Kim Falkner

Kim Falkner

Digital marketing freelancer

Jeg tilbyder hjælp til virksom-
heder og digitale bureauer
med ondt i digital performance
eller mangel på skarpe resurser.

Tag kontakt til mig her.

ChatGPT og SEO tekster

ChatGPT og SEO tekster

Ligesom snart sagt alle er jeg fuldstændigt begejstret for ChatGPT og dens evner til at skrive...