Deel dit artikel
-

“Zoekmachines zelf oorzaak onbruikbare zoekresultaten”

Veel internetters kennen het verschijnsel: één partij die in de eerste tien zoekresultaten staat en niet eens verband houdt met de gegeven zoekopdracht. Volgens webmarketingbureau Onetomarket zijn de zoekmachines zelf hier de oorzaak van. Deze zouden verouderde algoritmen hanteren die op een simpele manier achterhaald kunnen worden, zodat hier misbruik van gemaakt kan worden.

Met name zoekmachines die werken met HTML-algoritmen kunnen volgens Onetomarket makkelijk gemanipuleerd worden. Onder meer Ilse en Vindex maken gebruik van dergelijke algoritmen. "Human editors komen er aan te pas om dagelijks de index te schonen, wat dweilen is met de kraan open", aldus Jac van Ommen, de ceo van Onetomarket. De conclusie is volgens hem dat "deze verouderde zoekmachines snel hun software dienen aan te passen om nog interessant te zijn voor het zoekende publiek op internet." Hij voegt daaraan toe dat Ilse inmiddels in gesprek zou zijn met FAST om hun zoekmachinetechnologie binnenkort te gaan gebruiken.

Zoekmachines die wel de goedkeuring van Onetomarket kunnen wegdragen zijn onder meer Altavista, MSN (die technologie van Inktomi gebruiken), Lycos (FAST) en Google, dat een eigen zoeksysteem heeft ontwikkeld. Al deze zoekmachines zouden beter zijn omdat ze werken met meer geavanceerde software, bijvoorbeeld het algoritme 'linkpopulariteit': de vraag hoeveel links er naar een site gemaakt zijn bepaalt daarbij voor een groot gedeelte het succes van die site binnen een zoekmachine. Een ander hier gebruikt algoritme is 'themeranking', waarbij wordt gekeken naar keyword frequentie op een gehele site in plaats van individuele pagina's.

Volgens Onetomarket blijkt uit hun onderzoek dat van de vier grootste databases (Google, Altavista, Fast en Inktomi) gemiddeld 65 procent van de weergegeven sites voorkomt in de andere databases. Met andere woorden: 65 procent van de zoekresultaten is bij deze zoekmachines identiek. Tevens blijkt uit onderzoek naar relevante resultaten dat Inktomi het beste scoort, gevolgd door Fast, Altavista en Google. Wat betreft aantallen blijkt Fast de meeste sites in de database te hebben, gevolgd door Altavista, Google en Inktomi. Als het gaat om de snelheid van het genereren van zoekresultaten zijn Fast en Google de snelste, Altavista en Inktomi zijn aan de trage kant.

Hoe lang doet een zoekmachine erover om een site in een database op te nemen? Deze indexerings-snelheid blijkt het hoogste bij Inktomi, dat er gemiddeld elf dagen over doet. Altavista heeft zestien dagen nodig, Fast negentien dagen en Google zelfs 45 dagen. Dit betekent dat een nieuwe site na de eerste aanmelding pas na anderhalf maand gevonden en geïndexeerd wordt door de 'spider' van de zoekmachine. Als een site helemaal niet aangemeld wordt stuurt een zoekmachine er een zogenaamde 'deep spider' op uit. Hiervoor geldt dat Fast en Google dat gemiddeld zes keer per jaar doen, Inktomi vier keer en Altavista gemiddeld één keer.

Deel dit bericht

33 Reacties

Jeroen Bertrams

De resultaten zijn inderdaad bedroevend bij ilse. Vindex heeft er al iets aan gedaan door met rubrieken te werken, maar daardoor moet je eerst een paar keer klikken en wachten totdat plaatjes geladen zijn voordat je kunt zoeken. Overigens zit er een fout in het artikel. Ilse indexeert een site binnen 24 uur, en niet pas na een aantal dagen, laat staan maanden, zoals andere zoekmachines. Succes,Jeroen, beursgorilla.nl ps. ilse is volgens mij al in zee gegaan met Fast uit Noorwegen, mede omdat het finse bedrijf dat VNU tijdschriften heeft overgenomen daarop heeft aangedrongen. Wordt dit najaar in gebruik genomen.

Gosse AdB

VEROUDERDE ALGORITMEN OF NIEUW REVENUE STREAM Vorige maand is tegen de zoekmachines MSN, Netscape, Directhit, HotBot, Lycos, AltaVista, LookSmart en iWon een klacht ingediend bij de FTC (Artikel "Klacht bij FTC vanwege betaalde links in zoekmachines", 18 juli 2001). Gaat het nu echt om veroudere algoritmes of is het voor genoemde zoekmachines een nieuwe revenue stream?Altavista, MSN, Lycos en Google hebben volgens Onetomarket zoeksystemen die niet verouderd zijn. Het zou aannemelijk kunnen zijn dat een "vreemde eend" in de zoekresultaten bij deze machines betaald heeft voor een hoge plaats in de resultaten. Op zich is er, mijnsinziens, niets op tegen om bedrijven te laten betalen voor een betere plek in zoekresultaten indien dat duidelijk en herkenbaar bij de link wordt vermeld. Nu de reclame-inkomsten terugvallen zijn alternatieve inkomsten nodig. OUD NIEUWSNaast het verbeteren van al dan niet verouderde algoritmes zouden de zoekmachines de indexerings-snelheid van 11 tot 45! dagen moeten terug brengen. Een van de sterkste punten van het internet is dat iedereen op elk moment toegang heeft tot wereld-wijde informatie. Als informatie pas na 45 dagen "vindbaar" is, kan deze behoorlijk verouderd of zelfs waardeloos geworden zijn. Dat is jammer.

Marieke

Google rules! Hetgeen waar ik naar op zoek ben, wordt meestal als eerste weergegeven in de zoekresultaten. En anders staat het zeker bij de eerste 10. En nog snel ook!

Rob Paulich

Is het niet zo dat OTM met talloze links zelf meegewerkt heeft aan de vervuiling van zoekmachines als Ilse? OTM komt nu zelf nog maar amper voor in Ilse, ik weet hoe dat komt.

Pieter

De resultaten bij ilse zijn inderdaad tegenwoordig onbegrijpelijk. Maar ze worden dan ook volgegooid met allerlei spam. Tegelijkertijd zijn ze wel erg selectief met het verwijderen van "spam-pagina's" las ik gisteren. Zo worden de concurrenten van ilse media groep als eerste eruit gehaald, zoals vrouwzijn.nl en een site als ischa.nl die ooit ilse nabouwde. Daarbij gebruiken ze een definitie van spam die hun goed uitkomt. Ik begrijp overigens niet dat ze niet de spam pagina's geautomatiseerd kunnen zoeken en dat dat handmatig moet gebeuren.

Piet Som

"Volgens webmarketingbureau Onetomarket zijn de zoekmachines zelf hier de oorzaak van. Deze zouden verouderde algoritmen hanteren die op een simpele manier achterhaald kunnen worden, zodat hier misbruik van gemaakt kan worden." Wederom een webmarketingburo op zoek naar conclusies na een open-deur onderzoek. Gaan we nu de schuld van misbruik bij de dienstverlener leggen? De zoekmachines worden nog net niet aangeklaagd wegens aanleiding geven tot misbruik.

Jan Gerritsen

Leuke verkapte promotie .. "O wat zijn de zoekmachines slecht met het geven van resultaten"… Gebruik Onetomarket en je komt WEL high in de rankings.Wie is er dan medeverantwoordelijk voor de zgn zoekmachine vervuiling?

Jac van Ommen Onetomarket

Onetomarket waakt ervoor om niet aan spamming van de index deel te nemen. Voor ons zijn aanmeldingen met relevante keywords en geen overdosis aan resultaten het uitgangspunt. Bovendien is het voor Ilse of Vindex beter om een kwalitatief interessante aanbieder op een bepaald keyword in de index te hebben dan pagina's die er niet toe doen of geen aanbod hebben.

Jac van Ommen

Ik begrijp de opmerking van Piet Som. Ik denk dat wij (Onetomarket) aangeven waar de lekken zitten in de software. Niets mis mee toch? Als hierdoor de searchengines tot betere resultaten komen. Neem alle bugs die ondekt worden in softwareapplicaties en nadien hersteld worden. Uiteindelijk zal het ten gunste komen van de gebruikers.

Roel

Piet, je hebt deels gelijk dat niet de volledige schuld bij Ilse gezocht moet worden, maar deels ook weer niet.Doordat Ilse een algoritme gebruikt waarmee gemanipuleerde resultaten redelijk eenvoudig te realiseren zijn, vragen ze toch wel om problemen. Je kan wel lekker aan de kant gaan zitten en hopen dat je site gevonden wordt via Ilse op basis van een goed ontworpen pagina met de juiste keywords (dus op de "eerlijke" manier), maar dat werkt zo niet bij Ilse. Men kan door andere methoden te gebruiken hogere noteringen bereiken. Doordat Ilse zo'n groot bereik heeft in Nederland, heeft ze zelf deze situatie gecreëerd. Het is misschien niet netjes, maar van een onvolkomenheid wordt misbruik gemaakt, dat is gewoon een feit (juist ook door het grote bereik). Ik heb ook wel discussies gehad met mensen van Ilse. Als we zien dat concurrenten oneigenlijke middelen inzetten voor het bereiken van een hoge notering via een eenvoudige methoden, doen wij dat ook, ja. Je kunt wel lijdzaam toezien hoe je niet meer gevonden wordt, maar daar heb je ook niets aan. Uiteindelijk hebben ze gezegd dat wanneer het een "eerlijke" doorway zou zijn deze toegelaten werd, mits het geen grote aantallen zouden zijn. De grote internationale zoekdiensten hadden het daar (in ieder geval) drie jaar geleden al over (misschien eerder?). Ik ben in ieder geval blij dat ze het anders gaan doen. Want een ding is zeker: zonder deze hoeveelheden spam, die de resultaten geen goed doen, ontstaat er een betere zoekdienst. Dus, het is niet de schuld van Ilse dat de resultaten vervuild worden door spammers, maar ze geven wel de aanleiding daartoe. Even een vergelijking: Code Red is ook de schuld niet van Microsoft, maar van de verspreider(s). Dat wil nog niet zeggen dat Microsoft geen patches hoeft te maken die het probleem tegen gaan. Sterker, het wordt van ze verwacht dat ze de onvolkomenheid in het systeem zo snel mogelijk herstellen. Wanneer dit niet zou gebeuren zouden ze marktaandeel verliezen, iets dat Ilse ook kan overkomen, dus is het goed dat ze nu vooruitdenken en niet de index verder laten vervuilen.

Rob Paulich

Een bedrijf dat ervoor kan zorgen dat je hoger in de zoekmachines terecht komt (ook bij Google is dat blijkbaar mogelijk!!!) doet er het beste aan dit vooral niet in Emerce te gaan vertellen.Bel ING op, zeg dat je ervoor zult zorgen dat hun site wellowell spoedig meer kwaliteitsbezoekers zult krijgen en je hebt een contract. Dan bel je de HEMA op en doet hetzelfde. Nu dat er vele zijn die menen het 'ei' van Columbus te hebben gevonden begint de tweede ronde. Wie kan doen wat velen beloven. Ik ga naarstig op zoek.

Rene van Mullem

Volgens mijn metingen heeft Altavista al sinds 18-04-2001 het meeste aantal documenten in de database, daarvoor ging Google met iets daarachter Fast een tijd lang aan de leiding. Meetresultaten aantal documenten zoeksystemen wereldwijd donderdag 16-08-2001: Altavista.com 2.337.510.122Google.com 2.032.880.939Wisenut.com 1.495.332.308 (referentie)Fast.no/Alltheweb.com 1.332.589.036Lycos.com 1.318.775.088Hotbot.com 1.010.153.874Northernlight.com 931.238.728Weptop.com 583.342.142Anzwers.com.au 360.772.657Teoma.com 350.991.864Webcrawler.com/Excite.com 117.509.809Search.aol.com OnbekendSearch.msn.com OnbekendGoto.com/Infoseek.com/Go.com Onbekend Rene van Mullem http://www.botje.nl (Zoeksysteem voor Nederland en Belgie)

Don Laman

Eindelijk zie ik het toverwoord: kwaliteitsbezoekers! Hoewel het afsluiten van contracten een stuk moeilijker is dan Rob doet vermoeden (grote opdrachtgevers geven namelijk liever 10x zoveel uit aan bannercampagnes, omdat ze weten wat de resultaten zijn (bijv. 10.000 views), dan dat ze kiezen voor zoiets 'vaags' als aanmelding, kwaliteit etc.), zouden ze hier supergoed mee kunnen scoren. Roel (aloha :-), heeft ook duidelijk een punt: ilse lokt het wel uit, is niet de schuldige, maar wel verantwoordelijk voor de ontstane puinhoop. En ja, het nodigt uit tot misbruik, ook wij maken ons er wel eens aan schuldig… Sowieso is het hele zoekproces nog heel onvolwassen: 1. de aanbieders van de sites (of hun trafficmasters) kijken alleen naar hits en posities,2. de zoekmachines kijken alleen naar views en het verkopen daarvan,3. de gebruikers zelf zijn natuurlijk in sommige gevallen ook debet aan de slechte 'experience'. In de VS en UK wordt deze hele materie Search Engine Strategies genoemd; het zou mooi zijn als de bedrijven in deze markt zich ook meer met de lange termijn zouden bezig houden dan met het scoren op de korte termijn. Bijvoorbeeld: wanneer komt de eerste Nederlandse 'pay-for-performance' zoekmachine, of gaan bestaande zoekmachines hun toeleveranciers beter begeleiden/faciliteren? Het wordt pas echt wat als partijen 1. en 2. zich meer gaan bezighouden met de nummer 3: de gebruiker! Want hoewel alle marketingbobo's van nu om het hardst schreeuwen dat de gebruiker centraal staat, is dat op dit gebied volslagen onzin!

Christian ter Maat

Soms verduidelijkt een parallel naar de ?oude economie?. In dit geval gerelateerd aan de consumentenbescherming en de creativiteit van merken, bureaus etc. Product Placement, het plaatsen van merken, producten en diensten in met name film en televisie. James Bond rijdt een BMW, Lara Crof een Land Rover en in menig TV programma wordt Coca Cola gedronken en Corn Flakes genuttigd. Niet altijd is het duidelijk of het hier gaat om betaalde publiciteit (sponsoring) te vergelijken met gesponsorde/betaalde vermeldingen/links of om creativiteit m.b.t. de plaatsing van een product (auto, softdrink) in een TV programma middels de creativiteit van merken, bureaus etc. door het optimaliseren van hun E-marketing (incl. adequaat reageren op nieuwe ontwikkelingen).

Rob Paulich

Reactie op o.a. Don Laman. De acegroup heeft een jaar geleden eens informatie opgevraagd bij een bedrijf als OTM maar er blijkbaar geen brood in gezien. De Hollander is misschien niet zo gretig, dat zie je niet alleen bij de grote clubs met een ruim budget. OTM heeft tot in den treure links geplaatst in Ilse die allemaal leidden naar hun eigen site met als doel: klanten trekken voor hun eigen product. Wat Van Ommen nu beweert als reactie op wat anderen zeggen is dus zeker niet altijd zo geweest. OTM is nu een van de bedrijven die bij Ilse op de zwarte lijst staan (inside info dus 100% waar.) Een aantal webmarketingbedrijven hebben zichzelf in de voet geschoten. Dan nog een gewetensvraag aan OTM. Je geeft aan waar lekken zitten, volgens Jac niets mis mee. Alleen, doe je dat nu dat Ilse maatregelen neemt of heb je ze al eens eerder ingelicht, bijvoorbeeld in de tijd dat OTM kokketteerde met de diverse top tien noteringen in Ilse, voornamelijk behaald door hun gebrekkige beveiliging?Misschien heeft Don dus wel gelijk als hij stelt dat je meer naar de VS moet kijken. Aan Joeri (collega van Don) heb ik dat ooit eens uitgelegd maar helaas heb ik hem niet kunnen overtuigen. Dat er veel aan 'buurtje lenen' wordt gedaan door Jan en alleman mag een compliment heten, complete domeinnamen en productnamen worden doorgekopieerd, nu dat het wat complexer is wordt er wat gepiept aan diverse kanten. Search Engine Consultancy is ook in Nederland toch echt al drie jaar oud. Onderzoeken van gedragingen van spiders en followspiders en het verwerken van de bevindingen in je website op de lange termijn zijn het meest effectief en relatief bezien het goedkoopst. Dat moet je door specialisten laten doen die het hun 'core business' achten en die goedkoper kunnen werken, immers, de resultaten komen ten goede aan meerdere klanten. Ilse pakt bedrijven aan die over de schreef zijn gegaan. Achteraf moet je dan niet zeuren. Dat er op de mailinglijst van een mij bekend bedrijf, soortgelijk als OTM, concurrenten van hen staan is eigenlijk een eer maar het geeft wel te denken over de originaliteit en vindingrijkheid van deze bedrijven. In Nederland geef ik geen sites op maar kijk voor de grap {hier; http://websearch.about.com/library/weekly/aa120199.htm?once=true&iam=ask&terms=cloaking } eens. Er zit echt wel wat meer aan vast dan zo nu en dan eens een broncodetje kapen. Verder doe ik er het zwijgen toe want ik ga niemand wijzer maken zonder dat die daarvoor een tegenprestatie levert. Leve de kwaliteitsbezoekers.

Friso

Je hebt gelijk Christian: soms verduidelijkt een parallel naar de oude economie, soms ook duidelijk niet. Wat is je punt?

Isaac

Wat doen de search engines met 'schijn domeinen'? Iedereen kent ze en past ze nog bij de vleet toe: Leg een reeks domeinen vast, neem dezelfde keywords op als in de hoofd-site, meldt ze voortdurend allemaal aan en zorg voor een re-direct naar de hoofd-site…Wat gebeurt er met deze 'link-miechels'? Past dit bij de web-ethiek die search engines menen hoog in het vaandel te hebben? En hoe gaan search engines om met verwachtingen van de aanmelders? Mischien is rechtstreeks betalen voor de hoogste posities niet eens zo'n slechte zaak. Mits er net als bij GoTo bedragen worden vermeld van de kosten van de betaalde ranking. Dan weet je tenminste dat je naar een advertentie kijkt, kun je die links laten liggen.

Jac van Ommen

Beste Rob, waarschijnlijk staan alle bureau's die SEP aanbieden op de zwarte lijst van Ilse. Echter, hebben wij regelmatig met Ilse overleg over het verbeteren van hun zoekmachine. Kokketteren met top 10 posities doen we niet simpelweg omdat we wij altijd overgeleverd zijn aan de de grillen van de zoekmachines. Vandaar ons cost per click systeem. Geen garanties maar wel boter bij de vis. Voor ons geldt tevens dat we niet alleen afhankelijk zijn van Ilse. Er zijn immers meer en betere engines. Gelukkig is Ilse zich hiervan bewust en gaan ze binnenkort over op de technologie van Fast. Leve de kwaliteitsengines.

Jan Gerritsen

Tuurlijk. Ilse gaat haar technologie verbeteren onder meer op aangeven van Onetomarket …

Rik

Grappig dat onetomarket met zo'n artikel komt, een bureau dat search engines manipuleert. Als ik eens kijk naar de klanten van onetomarket en deze vervolgens opzoek in de eerder genoemde search engines dan is het van de zotte. Zoek eens op 'postbank'en kijk hier dan eens naar http://www.lening-lenen.nl/ Meteen een redirect naar de Postbank site. Dan spreek ik nog niet over metatag, keyword, discription, url en title gemanipuleer. En dan zeggen dat de oorzaak verouderde algeritmes zijn van search engines… Ik vraag me af wat voor een methodiek onetomarket heeft gebruikt. Aantal sites in een database is volstrekt onbelangrijk. Aantal documenten is wat telt. De meeste search engines definieren sites namelijk op basis van een domainnaam, In het geval van http://www.lening-lenen.nl/ is dit gewoon een virtual server die redirect en geen pagina's bevat. Volgende wat me opviel is dat Lycos linkpopulariteit meet. Dat is onjuist. Dit doen ze niet. Zo kan ik nog wel even doorgaan.. het stuk barst van de onjuistheden. Google en Fast zijn snel op basis van caching. Moment dat ik met phrases ga werken die een zin vormen en ik ga wat dieper de resultboom in dan is het traag. Kortom, performance op basis van populaire zoektermen is relatief eenvouding en niets mis mee. Maar het wil niet zeggen dat een search engine daarmee direct snel te noemen is. Tot slot is het absurd dat een bedrijf wat geld verdient met het beinvloeden van de relevantranking uitlatingen doet over kwaliteit van een search engine. Ze zijn niet objectief en het ontbreekt aan de kennis om hier iets over te roepen.

Sherlock

Onetomarket zorgt ervoor dat vele sites niet meer te vinden zijn via ilse doordat ze de boel volledig vervuilen met irritante domeinnamen. Toets bijvoorbeeld iets in met "beleggen" of "koersen" en je krijgt (een kleine greep) allen maar redirect links als:  http://www.beleggen-beurs.nl http://financien.koersen.beleggen-beurs.nl/ http://www.aandelen-beleggen.nl http://aandelen.effecten.tarieven-koersen.nl/ http://koers.beurs.tarieven-koersen.nl/ http://beurskoersen.beleggen-beurs.nl/ http://aex.aandelen-beleggen.nl/ http://avgo-aandelen.koersen-beleggen.nl/ http://www.sparen-spaarplan.nl/  Zo zijn er duizenden! Zo heeft de domeinnaam tarieven-koersen.nl alleen al meer dan 6.000 subdomeinen!! Probeer anders eens "routeplanner" of "hypotheek" in te toesten, krijg je opnieuw zo'n lijst. Uiteraard bestaan deze sites niet, maar wijzen ze door naar andere sites en krijgt onetomarket een paar dubbeltjes voor elke keer dat er op zo'n vervuiling wordt geklikt. Dus wie vervuilt hier de boel nou? Overigens ontzettend dom van ilse dat ze dit soort sites niet weigeren, zitten ze daar te slapen of zo?? Op deze wijze worden andere sites volledig de dupe omdat ze pas op plaats 50 komen, tenzij ze geld gaan uitgeven aan piraten als onetomarket, die de boel ondermijnen.De oplossing is overigens simpel: heel Nederland weg bij ilse en vindex, dan is het redelijk opgelost.

johan

Ondanks dat ik deze discussie serieus neem en meedenk wekt het toch ook een beetje op mijn lachspieren. Natuurlijk heeft iedereen wel een statement hierin en ik kan me dan ook goed vinden met wat Roel zegt over de dualiteit van het probleem .. het is een trail and error verhaal maar wel met een menselijk element. Iedereen komt voor zijn/haar toko op, en hierbij wordt de webethiek desnoods genegeerd omdat de anderen het tot slot van rekening ook doen .. en dan zitten we in een vicieuze cirkel – en de vraag wie begon er is niet meer relevant dan … wie gaat er wat aan doen wel. En daar ligt natuurlijk ook de discussie. De searchengines hebben de mogelijk om d.m.v. het concensieus gebruiken van een technologie zeg maar de touwtjes in handen. En zij zijn uiteindelijk de uitvoerende instanties van een zogenaamd webmoraal/ethiek niet de mensen (lees = webmasters.) want blijkbaar zorgen we er met z'n allen voor dat het probleem (lees = databases) gevoed wordt. Ik denk dan ook dat er nationaal/internationaal meer overeenstemming moet komen over de manier waarop geindexeerd wordt. Dus dat wat er nu in de wereld gebeurt (kijk naar de EU) ook een vertaalslag krijgt naar de virtuele wereld, namelijk afstemming en uniformiteit. Ik denk dat dit inderdaad ook een ontwikkeling zal zijn, en hierin ondersteep ik Don Lamans woorden dat het hele zoekproces nog heel onvolwassen is. Maar goed. Nu is het nog niet zover. Er bestaat nog steeds de mogelijkheid om meer invloed uit te oefenen op de ranking. En in deze hele discussie wordt een onderscheid gemaakt tussen eerlijke bedrijven en spammers. Natuurlijk vindt ik ook dat wanneer je qua content misleid wordt dat het spam is. Echter wat te denken aan de bedrijven welke je nu overal binnen de top 20 posities meerder malen tegenkomt? Ik neem aan dat zij een actieve rol hierin hebben? Of zij nou gebruik maken van eerlijke metatags, relevante subdomeinen met een re-direct of een eerlijke cloacking… uiteindelijk zorgen ook zij ervoor dat daar waar zij meerdere posities innemen .. andere eerlijke bedrijven niet kunnen staan. En dat is los van het hele indexerings verhaal welke ligt bij de seachengines juist waar het om gaat. Er is moreel gezien wel een duidelijk onderscheidt tussen zwart en wit, maar in het grijze gebied hebben we blijkbaar ook een polariteit .. zij met een hoge ranking en de rest. Hoe de ontwikkelingen ook zullen zijn op dit gebied, we zullen ten alle tijden zoeken naar manieren om onze eigen belangen te dienen. En voor velen is de ranking daarbij een noodzakelijkheid om economisch te overleven. Uiteindelijk blijft het voor mij ethisch gezien zo dat spammen niet kan en moet worden aangepakt en alle andere trucs zijn een uiting van inventiviteit en creativiteit van mensen en dat is juist wat het internet naar mijn idee zo aantrekkelijk maakt. Ik vindt het hierin ook interessant de link te leggen naar de werkelijkheid, waar het internet steeds meer een afspiegeling van is. Ook hier willen we erkenning en aandacht van anderen en ook hier heiligt het doel vaak de middelen.

Thomas Heezen

Weer zo'n bedrijf dat in het gat in de markt is gedoken van de zoekmachine optimalisatie, die met een "onafhankelijk" onderzoek wat leuke exposure krijgen. Eerder dit jaar hadden we Runner-up, die met het nieuws kwam dat veel grote bedrijven slecht vindbaar zijn. Dit was in ieder geval controleerbaar. Technisch zal Onetomarket ongetwijfeld een goede service bieden, met wat handige software (oa TopDog), maar of ze ook qua marketing communicatie enige service leveren betwijfel ik, aangezien ze met redirects werken. Dit lijkt mij voor een bepaalde merknaam (bv. Postbank) niet de beste manier om bezoekers te lokken. Mensen zullen immers eerder op een (meestal) zichtbare URL klikken waar de naam Postbank als hoofddomein in staat, dan een URL http://www.lening-lenen.nl/. Het feit dat Onetomarket slechts een 10-tal zoekmachines gebruikt voor het positioneren, komt waarschijnlijk doordat een aantal grote Amerikaanse zoekmachines overgestapt zijn op betaalde aanmeldingen.

Jac

Het is jammer dat we weer de discussie krijgen waarin met het beschuldigende vingertje wordt gewezen. Ik denk dat Rik de plank mis slaat door te melden dat het artikel vol met fouten staat. Onze ervaringen zijn anders dan die van Rik, laat ik daar maar even op houden. Wij steken veel tijd in het onderzoeken naar de werking van de meest populaire searchengines en denken op basis hiervan iets daarover te kunnen vertellen. Het lijkt erop dat het niet gewenst dat een partij als Onetomarket haar hoofd boven het maaiveld steekt. Waarom? Het aanmelden bij zoekmachines is namelijk doordrenkt van onduidelijkheden en willekeur. Hierdoor wordt het een grijs en onduidelijk gebied waarin allerlei indianenverhalen hoogtij vieren. Door openheid te geven over de werkwijzen van zoekmachines zal dit uiteindelijk resulteren tot een verbeterde zoekmachine. Immers het dichten van de zwakke plekken zal leiden tot betere resultaten. Ik begrijp daarom niet dat er personen zijn die vervolgens de kritiek bij Onetomarket leggen.Sherlock (een undercover persoon) geeft aan dat wij betere resultaten boeken dan de rest en dat dit vervuiling is. Na onze mening is vervuiling of spam het veelvuldig voorkomen in de top door 1 partij en het aanmelden op niet relevante keywords of op namen van concurrenten. Gelukkig delen veel van de zoekmachines deze mening. Indien wij ons niet zouden houden aan de criteria van de zoekmachines hadden we geen bestaansrecht. Na mijn mening heeft de opmerking van Sherlock en anderen meer te maken met het verlies van eigen gewin wat door het veranderen van de indexcriteria op de helling komt te staan.

Kees Verpalen

To spam or not to spam Feitelijk zouden er voor engines slechts twee criteria dienen te gelden voor hetgeen als vervuiling van de index gedefinieerd zouden worden:1. Een site is te vinden onder irrelevante keywords2. Een site (of bedrijf) bezet te veel posities binnen een top 10 / top 20 Uiteindelijk geldt voor een engine dat er relevante resultaten (vanuit verschillende bronnen) voortvloeien uit een search query. De methodiek die gebruikt wordt door deze sites is dan in principe irrelevant – dus of er nu gewerkt wordt met meerdere domeinnamen, cloaking, nul-frames of wat dan ook is an sich allemaal niet zo boeiend. Door Onetomarket wordt dan ook gekeken naar wat de grote US-indices voor policies hanteren voor hun index. Ten slotte spelen in de US discussies over search engine spam al veel langer. Inktomi (o.m. leverancier voor MSN, HotBot, GoTo, AOL) {beleid; http://inktomi.com/products/search/content_policy.html } : Cloaking/doorway pages that feed Inktomi crawlers content that is not reflective of the actual page.

Ruud

Toch raar, Onetomarket is een lucratieve spam-organisatie en zij mogen vrijuit kritiek leveren op ilse, die spammers aanpakt om zo vervuilde zoekresultaten te voorkomen. En nu gaat onetomarket vertellen welke search engines van belang zijn en welke niet… de wereld op zijn kop, toch?

John Fontaine

Kees Verpalen verwoord eigenlijk precies waar het om gaat, niet verwijzen naar sites met irrelevante woorden en vooral geen overexposure creeëren. Het werkt alleen maar irritatie in de hand als je 'tig' keer een link van hetzelfde bedrijf tegen komt. Steeds meer mensen zoeken vanaf de derde pagina, door meerdere technieken te gebruiken bereik je dus dat je niet van 1 tot 10 links hebt staan maar meer verspreidt over de zoekmachine. Bij veranderende algoritmes zakt de ene link en stijgt de andere.Het blijft met name in de geavanceerdere zoekmachines niet alleen een uitdaging maar zelfs een absolute 'must' om zo hoog mogelijk gepositioneerd te worden met je keywords. Zo lang er snackbars zijn wordt er patat gegeten dus de discussie over de zin en onzin van bedrijven als OTM (ook al hebben ze nu wat boter op het hoofd) is bij voorbaat al oneindig. Als er maar over je geluld wordt, een prima marketingzet dus door deze discussie aan te zwengelen.

Klaas-jan

Ik verbaas me dat een bedrijf als OTM nog zoveel aandacht krijgt van een kwaliteitsblad als Ilse."To spam or not to spam" is that a question? Nee, lijkt me niet. In de voorwaarden van Ilse, Altavista en Google staan duidelijke anti-spam policy´s. Altavista bijvoorbeeld: In order to maintain the integrity of the search index, we must sometimes exclude submissions that manipulate search results. Examples of such manipulation include, but are not limited to, the following: - Pages that contain only links to other pages, or- Pages whose primary intent is to redirect users to another page. Dit is ordinair de praktijk van OTM! Uiteindelijk zijn het de zoekmachines die bepalen welke technieken ze wel of niet toelaten, niet de SEP bureaus.

Anders Floor

Interessant lijstje met aantal documenten in de databases van zoekmachines, Rene van Mullem. Heb je ook een lijstje van het percentage hits dat verwijst naar niet meer bestaande pagina's? Men kan hier nog zo hoog opgeven van Altavista, ik gebruik het al een jaar niet meer omdat naar mijn perceptie zeker 25-30% van de gevonden links niet meer bestaat. Dan liever een zoekmachine met een kleinere, maar up-to-date database. Yahoo gebruik ik om exact dezelfde reden niet meer. Uit eigen onderzoek bleek anderhalf jaar geleden dat aldaar 35% van de links die niet onder de "bovenste" twee lagen vielen, verwezen naar niet meer bestaande sites. Als je een zoekmachine/index om zeep wil helpen, moet je het zo doen. Nog een tip voor de geïnteresseerden in de algoritmen achter de verschillende grote zoekmachines: surf eens langs bij http://www.searchengineforums.com

Rene van Mullem

Een lijstje van het percentage hits dat verwijst naar niet meer bestaande pagina's heb ik helaas niet "Anders Floor", maar wel een versheidsindex (100% = max.) 16-08-2001: Google.com 72,9%Weptop.com 72,6%Fast.no/Alltheweb.com 72,1%Lycos.com 72,0%Hotbot.com 71,2%Teoma.com 71,2%Wisenut.com 68,6%Northernlight.com 66,4%Anzwers.com.au 63,4%Altavista.com 62,2%Webcrawler.com/Excite.com 60,5% Je zou ook kunnen stellen dat hoe dieper een zoeksysteem gaat hoe meer kans dat daar een directory of document naam veranderd. Dit zou ten nadele werken van zoeksystemen die veel pagina's indexeren vooral als er ook dynamische documenten als b.v. database output wordt opgenomen. Dat een zoeksysteem ook populair kan zijn zonder een grote database (zelfs als de spam is meegerekend 😉 is terug te vinden in de metingen die ik regelmatig doe bij Nederlandse zoeksystemen. Meetresultaten aantal documenten (alleen vallend binnen het .nl domein/alle talen) van 8 Nederlandse en 17 internationale zoeksystemen maandag 27-08-2001: Altavista.nl/Nl.altavista.com 13.605.545Lycos.nl 8.068.356Fast.no/Alltheweb.com 7.826.697Botje.nl 5.121.105 (referentie)Google.com 4.991.944Northernlight.com 3.687.290Hotbot.nl 2.299.452Euroseek.com 1.200.000 (geschat)Search.msn.nl 996.818Wwwijzer.nl 800.000 (geschat)Anzwers.com.au 753.836Verdwaald.nl 600.000 (geschat) Bij onderstaande zoeksystemen zijn ook de documenten meegeteld welke niet vallen binnen het .nl domein zoals .be/.com/.net/.org/.nu/.to enz. maar wel een Nederlandse of Belgische oorsprong hebben. Deze getallen laten zich minder goed met elkaar vergelijken en zijn 20% tot 80% hoger dan wanneer het mogelijk was alleen binnen .nl te meten zoals bij bovenstaande zoeksystemen. Wisenut.com 9.221.007Vindex.nl 4.994.756Webcrawler.com/Excite.nl 3.400.000 (geschat)Search.aol.com 3.000.000 (geschat)Track.nl 2.611.215Webtop.com 2.400.000 (geschat)Teoma.com 1.700.000 (geschat)Goto.com/Infoseek.com/Go.com 1.200.000 (geschat)Search.nl 1.000.000 (geschat)Ilse.nl 774.979Zoek.nl 275.696 (Geschat = is onvolledige berekening) Versheidsindex voor bovenstaande metingen (100% = max.) 27-08-2001: Lycos.nl 77,3%Track.nl 76,8%Fast.no/Alltheweb.com 73,6%Anzwers.com.au 71,6%Google.com 71,5%Hotbot.nl 71,4%Search.msn.nl 71,4%Vindex.nl 69,1%Webtop.com 68,9%Wisenut.com 68,6%Zoek.nl 68,4%Northernlight.com 68,0%Botje.nl 65,6%Altavista.nl/Nl.altavista.com 65,2%Ilse.nl 60,3%Euroseek.com (onbekend)Wwwijzer.nl (onbekend)Verdwaald.nl (onbekend)Webcrawler.com/Excite.nl (onbekend)Search.aol.com (onbekend)Teoma.com (onbekend)Goto.com/Infoseek.com/Go.com (onbekend)Search.nl (onbekend) Bekende metasearch engines zoals Vinden.nl, Ixquick.nl/Surfboard.nl maken gebruik van andere zoeksystemen en Webindexen zoals Ecrider.nl, Nl-menu.nl en startpagina's zijn kleine met de hand bijgehouden databases. Rene van Mullemwww.botje.nl (Zoeksysteem voor Nederland en Belgie)

Rene van Mullem

Tot mijn spijt waren de resultaten van de meting van Ilse.nl incorrect. Peter Kentie van Ilse Medie Groep wees mij op een optie, welke actief was toen ik mijn metingen verrichtte. Deze optie leidde ertoe dat het aantal documenten slecht één negende van het ware aantal documenten bedroeg en de versheidsindex een te lage waarde liet zien. Nieuwe meetresultaat aantal documenten 29-08-2001:Ilse.nl 7.022.432Versheidsindex (100% = max.) 29-08-2001:Ilse.nl 70,2% Rene van Mullemwww.botje.nl (Zoeksysteem voor Nederland en Belgie)

Ralph

OTM manipuleert gewoon de verschillende zoekmachines om voor haar clienten een hogere ranking te bereiken, alleen schijnt dit tegenwoordig "webmarketing" te heten. Om met het voorbeeld van de postbank door te gaan http://www.lening-lenen.nl: Deze site heeft een {linkpopulariteit; http://www.altavista.com/sites/search/web?q=link%3Awww.lening-lenen.nl%2F+&pg=q&kl=XX&stq=150 } bij altavista.com van 156! De links komen voornamelijk van *verrassing* OTM zélf en de met haar samenwerkende websites… Volgens mij maakt het echt niet uit of Ilse andere software gaat gebruiken, misbruik zal er altijd blijven. "Als Jantje en Pietje de zoekmachine manipuleren en daardoor een hogere ranking krijgen. Dan gaat Willem dat ook doen. Klein vicieus circeltje dus…

Nike Air Max LTD

Precisely where there could be wedding whilst not love, it will be love whilst not wedding.

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond