Jag byggde nyss om min sida helt och har strulat till det rejält.
Först har jag lagt upp fel robots.txt fil där jag nekar Google Bot åtkomst till alla mina sidor. Jag åtgärdade det problemet rätt snabbt och sidan har en bra robots.txt nu. Dock står det fortfarande att 10 326 sidor är blockerade i mina "Verktyg för webbansvariga". Kommer Google Bot automatiskt att kolla upp dessa sidor igen om dom finns länkade på min sida och sedan uppdatera status på dom?
Andra problemet är att en del av koden som hanterar sessioner enbart för olika bots hade ett error vilket resulterade i ett 505 internal error för bots som försökte hämta sidor. Detta pågick i 2-3 dagar och effekten var att jag tappade runt 90% procent av mina dagliga besökare. Jag lyckades fixa till problemet igår och undrar nu om det är något jag kan göra för att minska skadan.
Det verkar som att sidor har försvunnit från Googles sökmotor betyder detta att det är "back from the beginning" för dom sidorna eller finns det något jag kan göra?
Tack på förhand
Jhonne