Neka åtkomst till domän+port i robots.txt?
Google har sedan länge indexerat några tiotusentals sidor på vår sajt (www.vårsajt.se), som det bör vara :)
Dock har google också lyckats indexera vår sajt med portnumret, vilket inte är så bra. Vill ha bort det och jag har inte chans att göra det i t ex .htaccess. Alltså, google har lyckats snappa åt sig www.vårsajt.se:975 vilket jag vill ta bort... går det att fixa detta i robots.txt?
Exempel:
Precis som man skriver
User-agent: *
Disallow: /filnamn.html
Kan man på liknande sätt skriva
User-agent: *
Disallow: www.vårsajt.se:1085
Någon som känner till ett sätt?
Porten är dessutom inaktiv numera, så nu finns det inget att hämta på de (runt 1000) url:er som google indexerad "felaktigt".