Overzicht ongeldige links produceert steeds meer onzin

elja

Nieuw lid
16 aug 2009
535
0
0
#1
Tradetracker heeft een functie : Overzicht ongeldige links.

Nu was ik bij de start daar wel blij mee. Omdat het toen nog wel goed werkte. Ik had zelf wel een mogelijkheid, maar die was nog vrij bewerkelijk.

Sinds een dik jaar begint dit overzicht voor mij steeds meer rommel te produceren. Blijkbaar wordt er ergens iets getriggerd. Maar de informatie blijkt steeds vaker onzin.
Meldingen van links die allang verwijderd zijn. En die dan maar blijven melden zich maar herhalen.
Meldingen over links op niet bestaande pagina´s

Vandaag zag ik een melding van een link op een pagina met een URL van een website waarvan het domein al pakweg 2 ? 3 jaar opgeheven is. Zo vreemd had ik het nog niet meegemaakt.

Ben ik de enige waarbij dit overzicht onderwijl steeds onzinniger wordt?

==> Gevolg is wel dat ik onderwijl regelmatig een heleboel controleerwerk voor niets doe.

Score vandaag : 11 meldingen = 4 zinnig en 7 onzin
 

ram

Nieuw lid
4 feb 2009
182
0
0
#2
@Elja

Heb je die onzin alleen van tradetracker ik kan je verzekeren dat die onzin bij een aantal andere net werken ook voorkomt

Ben al heel wat tijd kwijt geraakt met zoeken ;D

Ben nu zover komt het niet voor in mij systeem laat ik het lekker lopen
 
W

Wim

Guest
#3
Nee, je bent niet de enige.
De cache die bij mensen staat, en die op sommige plaatsen opgeslagen is, blijft je achtervolgen, althans dat denk ik.
Ik heb website statistieken die ik drie jaar geleden gestopt heb op een website en die tellen nog steeds bijna elke dag pagina weergaven.
Ze zeggen het wel vaker. Zet één keer iets op internet en je komt er nooit meer van af.
 

elja

Nieuw lid
16 aug 2009
535
0
0
#4
Ik had eerst ook aan cache gedacht.
Maar het wordt steeds onzinniger.

Daarnaast functioneerde het in eerste instantie wel een tijd lang foutloos. En toen hadden bezoekers natuurlijk ook wel pagina´s in de cache staan.

Het wordt gewoon door de jaren heen erger. En steeds raarder.
Dit lijkt me meer bij Tradetracker liggen.
 

elja

Nieuw lid
16 aug 2009
535
0
0
#5
Tsja als je het toch over de Duvel hebt.

Bij Daisycon had ik nog niet dat probleem. Nu doe ik ook veel minder met Daisycon.
Naar aanleiding van dit gedoe ook daar maar even gekeken.

2 meldingen en Gelijk ook 2 rare meldingen, 1 aan totaal verkeerde website geknoopt. Gelukkig wist ik uit het hoofd waar dat te vinden.
Andere gecontroleerd. Daarvan had ik al alles verwijderd. Er was niets te vinden.
Dus ook weer zo´n controle voor niets.

Dus je hebt gelijk. Daar zie ik ineens dus ook dit soort dingen.
 

ouwesmurf

Nieuw lid
25 jan 2008
3.028
0
0
wfsidee.nl
#6
En toen hadden bezoekers natuurlijk ook wel pagina´s in de cache staan.
Iedereen kan een cache vol hebben. Maar dit wil nog niet zeggen, dat een willekeurige bezoeker "gewoon voor de lol" nu eens
zijn of haar cache gaat nalopen om even ergens te klikken.

Waar we minder bij stil staan is een steeds grotere groep spiderbots, die niet simpel iets komen 'neuzen' maar hele websites
1: 1 kopieren, inklusief links. Jaren her is dat een beetje gestart met de Zweedse Munax, het zijn er nu giga veel meer.

Zoek eens in Google op je eigen domeinnaam, doorgaan tot het bittere end en je komt je domein tegen in de title van talloze zogenaamde statistiek-jongens die veel over je website kunnen "vertellen" en soms hoger scoren dan je eigen website.
Weet Google veel.

Sommigen laten de kopie van je site zien zoals Google haar cache (!) ook laat zien, en dan kan er wel eens iemand ergens op klikken, vergetend dat het een spiegelbeeld is, soms een wat ouder spiegelbeeld, en dat vertelt dan wie de mooiste is in het land ;D

Google was jarenlang de enigste met zo'n cache. Nu zijn het volks-stammen.

En zoals de meeste netwerken spiderbots niet kunnen en/of willen elimineren uit hun bestanden, kunnen ze deze fake-hits ook niet weerhouden. ( enne, niet verder vertellen, als er een sale uit komt .... hoor je mij niet klagen maar je hebt het niet van mij 8) )
 

elja

Nieuw lid
16 aug 2009
535
0
0
#7
@ouwesmurf
Ja, zou het wel kunnen zijn.

Nou, ja, als er een sale uit voort komt, dan komt ie toch ook uiteindelijk uit je eigen website voort. Ook al is het een oudere kopie die ergens anders opgehaald wordt.
 
W

Wim

Guest
#8
Iedereen kan een cache vol hebben. Maar dit wil nog niet zeggen, dat een willekeurige bezoeker "gewoon voor de lol" nu eens zijn of haar cache gaat nalopen om even ergens te klikken.
klein foutje in de werking van de cache.
De bezoeker klikt niet zomaar voor de lol op de cache (Dat zijn favorieten)
De cache is gewoon een oude kopie op de computer en als je browser niet op automatich verversen staat dan gebruikt je browser altijd de cache op de computer bij het laten zien van een webpagina. Dan zien ze dus automatisch de oude versie of ze dat nu bewust zijn of niet en of die cache nu 1 dag of een jaar oud is.
 

ouwesmurf

Nieuw lid
25 jan 2008
3.028
0
0
wfsidee.nl
#9
Daar heb je ook gelijk in Wim, maar dit euvel speelt al jaren.
Maak ik nu gebruik van :
Code:
<META HTTP-EQUIV="Pragma" CONTENT="no-cache">
<META HTTP-EQUIV="Expires" CONTENT="-1">
of andere methoden, en er dus geen cache wordt vastgehouden, blijf ik toch zitten met meldingen van netwerken, en dan vooral sedert het moment
dat zij die zijn gaan registreren. Zoals jij en Elja al aangeven, vaak 'ghost-urls'.

Vervolgens komt het vrij vaak voor, dat bij updates voor consumenten van hetzij browsers, hetzij utilitities, virusbestrijders, adobe plugins
en zeker "pc-versnellers" en "windowsregistratie-opschoners" al of niet per ongeluk de caches worden gereinigd.

En dan krijgt een willekeurige consument ( ik ook ) van deze en gene soms het dringende advies bij snelheidsklachten of niet werkende
websites, 'om maar even de cache te legen'. Zonder erbij te vermelden "alleen de cache van die ene website" met als gevolg dat diegene
geen geschiedenis meer heeft, cache inderdaad leeg maar dan ook van alles.

En ben ik me vervolgens
gaan afvragen : wie bewaren er nog meer een kopie buiten enige vorm van controle. En dat zijn er veel, zoals hierboven aangegeven.
Dat blijken er veel te zijn, en die bewaren alles. Voor van alles en nog wat. Zodat complete sites die al langer dan 6 maanden geleden
van de server zijn verdwenen, nog immer op het net bereikbaar zijn. En dan wordt het ook méér logisch dat een ghost-klik weliswaar
op een verlopen url, gezet is vanuit een ver verwijderd land.

Je verwijzing naar de cache-faktor blijft nog steeds een faktor van belang.
Alleen daarnaast speelt wat de zoekmachine en spiderbots van onze websites langer bewaren dan wij nodig vinden voor een leuke
ranking.

Is in mijn optiek maar 1 oplossing, zoveel mogelijk url's van spiders uitsluiten van toegang. Maar dat heeft weer een ander nadeel :
daalt (visueel stijgt, immers het getal wordt hoger) je Alexa ranking mocht je daarin belang stellen. ;D

Hoewel : een broken links checker regelmatig toepassen helpt ook ........... en kan omzetverhogend werken 8)