En fundering kring värdet/behovet av att "rensa upp" bland de sidor som Google indexerar på en sajt.

Har en portal med ett mycket stort antal sidor (flera tusen). Till saken hör att uppskattningsvis 50% av innehållet ses som duplicerat innehåll. Generellt sett är ju det dåligt, men nu ligger det i sajtens natur att ha den typen av innehåll. Det är ett slags flöde som följer andra sajter och därför visas utdrag från nyheter m.m.

Trots detta har sajten bra ranking på många sätt och vis. Kanske ser Google att besökarna gillar sajten. Vad vet jag.

Hur som helst - jag har även en del egenproducerat innehåll som jag vill att Google ska ranka riktigt högt (är inte där än). Frågan är därför om det kan vara en idé att begränsa indexeringen av alla sidor som är automatiskt genererade?

Tänker mig i första hand att man kan använda en mycket restriktiv sitemap där i princip bara huvudsidan, de statiska sidorna och egna blogginlägg finns med.
I andra hand kanske lägga in noindex på vissa kategorisidor.
Gissar att robots.txt inte är bra i detta sammanhang.

Tanken är att få mer krut från Google till de sidor som jag vill ha mer organisk trafik till. Antar att de annars lätt försvinner i mängden?

Någon som har erfarenhet av att "styra in" Google på detta sätt? Fungerar det?