Läser man Googles egen infomation om Content Analysis i Webmaster Tools så får man se följande (min fetning).
Själv jobbar jag med en gammal site baserad på postnuke med 7000+ indexerade sidor och det är en hel del dubbla titles och meta descriptions. Håller sakta men säkert på att fixa dem alla med bra dynamiskt genererade dito. Ser även att Google uppfattar det som ett "Problem" att man blockerar vissa sidor med robots.txt. Är detta verkligen något att bry sig om? Filens syfte är väl att blockera vissa filer och kataloger...The Content analysis page shows you potential issues Google found when crawling and indexing your site. We recommend that you review this report regularly to identify changes that potentially increase your rankings in Google search results pages while providing a better experience for your readers.
Har någon av er märkt ngn skillnad i SERPen till följd av aktivitet i Webmaster Tools? Tex lagt till en Site Map, åtgärdat dubbla tags eller rett ut andra "Problems"? Har själv fått bort ett "supplemental result" på första sidan, men det är inte så mycket att hurra över...