Vi vet alla vad ett CCS är. Frågan är om Google ser varje sida bara utifrån innehåll som roboten ser eller om den känner igen ett givet CCS och utnyttjar detta.
Värde av sådan kännedom inkluderar:
1) Optimering.
2) Mer korrekt och ändamålsenlig "genomgång" av sajten.
3) Upptäckt av missbruk.
o.s.v.
Jag har alltid haft för mig att Google nog tar in kännedom om plattformen. För mig tycks värdet särskilt i form av optimering vara högt samtidigt som få plattformar täcker upp mycket stora delar av internet.
För några månader sedan upptäckte jag att en "text" var indexerad av Google som var lagrad hos oss. Denna var en Drupal "node" men hörde inte till våra nyheter eller artiklar och dyker därmed inte upp i vår stackåldring, RSS eller något annat där automatiskt. Inga länkar skapas automatiskt till den.
Inte heller hade den någon handgjord djuplänk från någon sida. Artikeln skrev jag åt Kinaportalen så jag hade inget intresse av att den skulle indexeras då jag gjorde den åt dem, den skulle vara unik där och jag särskilt vill ha allt sådant extremt unikt. Utnyttjade bara vår "wordediter" och därmed också få få en lokal kopia som inte blev indexerad.
Först tänkte jag att någon kanske givit den någon djuplänk då den länkade ut till några sajter Men jag såg inte detta. Uppföljning på andra sidor visade att fler sådana texter var indexerade trots att de varken var nyheter eller artiklar.
Djupare uppföljning har inte genomförts. Så om kunskap om plattform används kan jag inte säkert svara på.