Nous avons fermé le blog, c'est à dire fermé les commentaires et trackback, le spam étant devenu trop envahissant et le temps pour nettoyer quotidiennement nous manque.
Nous tâcherons de continuer occasionnellement à poster des billets sur les évolutions du SEO, en attendant, nous remercions les gens qui nous ont soutenus (et notre cafetière préférée).
En espérant vous avoir donné une première vision, une première approche sur le monde passionnant du SEO, vous pouvez toujours nous adresser vos commentaires par email à : 20.notes.sur(a)free.fr
À Bientôt.
]]>Dans un esprit bon enfant, nous vous diffusons ici les paroles de notre chanson sur les SEO. Bien entendu, ce sera au final un podcast audio, mais pour des problèmes techniques et d'organisations, nous n'avons pas pu l'enregistrer. C'est pour cette raison que nous vous passons les paroles de cette chanson. Et même que par chance, si un internaute compositeur à ses heures perdues pourraient nous concocter une musique, cela nous éviterait de reprendre un fond musical déjà existant. Pour vous donner une idée de l'air, on s'est basé sur la chanson "Femme libérée" interprétée par Cookie Dingler. A present, à vos notes...de musique !
Refrain:
Ne le laisse pas tomber
SEO c'est fragile
Être un site visité
Tu sais c'est pas si facile
Refrain x1
Une fois toutes tes idées, bien construites
Tu peux te lancer dans le SEO
Tu verras rapidement tous les robots
Se ramener pour crawler tout ton site
Refrain x2
Pour augmenter, ta popularité
Fais toi linker de tous les côtés
Mais on s'en fout, grâce aux miroirs
Les moteurs verront des tonnes de données
Refrain x1
Ton pagerank te fais du souci
Jour après jour google est ton ami
Mais fais gaffe aux liens morts
Tu pourrais te retrouver dehors.
Refrain x3
]]>Nous sommes donc le dernier jour. Avant de détailler le podcast mis en place, faisons un premier bilan de ce blog.
Nous avons eu l'occasion, en plus d'apprendre de nouvelles choses sur le SEO, de prendre contact avec une société française qui va devenir très importante dans les années à venir, Exalead. Nous avons contacté des personnes totalement inconnues pour demander l'autorisation de publier les sources ou des passages d'originaux, je pense notamment à M. SEO aussi connu sous le nom de Joe Balestrino, mais il ne fut pas le seul. Nous avons réussi à nous tenir au planning que nous avions fixé au lancement du projet, excepté les écarts de la fin de semaine dernière.
Pour en revenir au sujet principal, nous venons donc de diffuser un podcast. Vous pouvez le lire en lisant le flux rss Podcast. Comme vous pourrez le remarquer, il y a deux formes de podcast. Le premier podcast est audio et est en fait issu d'un site intitulé Mr SEO.
Nous diffusons l'un de ses nombreux podcasts pour que vous vous fassiez une idée. Ce qui est également appréciable est que l'auteur lui-même est très disponible. |
Il nous a toujours répondu très rapidement lorsque nous lui avons posé des questions et notamment pour avoir son accord pour la diffusion de l'un de ses podcasts.
Le second podcast, vous le verrez vous-mêmes est beaucoup plus "fait maison". Il faut savoir que mercredi 05 juillet 2006, un ingénieur de Google est venu animer une conférence. Il a parlé de l'ensemble de l'entreprise et de ses diverses antennes dans le monde entier. La conférence a duré environ une heure, mais nous ne pouvions pas diffuser l'intégralié de la présentation. Pour cette raison, nous diffusons un extrait où l'intervenant répond à la question suivante : "Comment voyez vous l'avenir des moteurs de recherche ?"
Si vous désirez visionner l'intégralité de la conférence, vous pouvez nous contacter à l'adresse suivante : 20.notes.sur [at] free.fr . Nous vous répondrons dans les 2 jours qui suivent votre message pour vous expliquer comment obtenir votre vidéo complète.
Ce mois de blog fut une expérience très enrichissante comme nous vous le disions plus haut. Merci à vous de nous avoir suivi en espérant vous avoir donné quelques idées, appris quelques trucs et astuces ou tout simplement diverti.
]]>Si vous utilisez Firefox, vous savez sûrement que pour rajouter des fonctionnalités à votre navigateur, vous pouvez installer des plugins que l'on trouve facilement sur Internet. Notre note ne vise pas à vous convaincre d'utiliser Firefox. Nous parlons de ce plugin car nous trouvons l'idée intéressante de permettre à un navigateur grand public la possibilité d'en connaître un peu plus sur les pages consultées. Par la même occasion, cela incite aimablement les internautes à s'intéresser au SEO.
Selon l'auteur de l'article, l'outil qui a été développé est très utile pour deux choses. D'une part, il permettra de connaître au fil de votre navigation la pertinence des mots clés. Est-ce que ce site est consulté souvent, est-ce que beaucoup de sites ont établi des liens vers lui ? |
Si c'est le cas, il y a de grandes chances pour que l'information soit intéressante et juste. Attention cependant au fait que ce n'est pas forcément un gage de qualité. Mais comme nous le savons tous, souvent à nos dépens, il faut savoir trier l'information.
La seconde chose qui justifie le développement d'un tel outil est la volonté d'atteindre les véritables sources d'informations. Nous voulons dire qu'en basant notre recherche sur un mot clé particulier, il peut arriver que le site retourné mentionne cette information sans être la source de celle-ci. Mais le fait de connaître les liens vers lesquelles ils pointent nous permet de remonter jusqu'à la source. Ainsi nous pouvons consulter les sources originelles sans qu'elles soient forcément bien référencées.
Grâce à ce plugin pour Firefox, vous aurez la possibilité d'ajouter les informations suivantes à chacun des résultats fournis aussi bien par Yahoo que par Google :
Les développeurs ne comptent pas s'arrêter en si bon chemin. Ils prévoient déjà de nombreuses évolutions en plus des corrections qu'ils doivent apporter. Parmi de nombreuses idées, il y aurait la possibilité de connaître l'adresse IP qui fournit les résultats sur Google.
Heureusement, ou malheureusement, à vous de choisir, le plugin actuel n'est pas terminé. Il subsiste encore de nombreuses évolutions possibles et de nombreux bugs à corriger. Notons par exemple que dans les premiers jours, plusieurs internautes se sont plaint de l'impossibilité d'effectuer des recherches sur Google. Il semblerait également d'après l'auteur que subsiste un problème de compatibilité avec d'autres plugins déjà installés. Si vous voulez en savoir plus, vous pouvez consulter les commentaires laissés par les internautes. Vous verrez également que le logo montré plus haut risque de poser problème par rapport au O de SEO.
Notre article est basé sur l'annonce qui se trouve a cette adresse : http://tools.seobook.com/firefox/seo-for-firefox.html
]]>Sébastien Richard : François Bourdoncle et Patrice Bertin travaillaient autrefois pour Altavista qui s'orientait de plus en plus vers un portail, plus qu'un moteur de recherche. Parallèlement, ils menaient des recherches dans les locaux des Mines de Paris. C'est donc en 98 que l'idée d'Exalead a commencé à germer pour finalement aboutir sur la création de la société en 2000.
Nous avons plusieurs niveaux de produits reposant tous sur une même couche logicielle, avec donc une surcouche applicative qui s'adapte aux besoins qu'ils soient utilisateur, entreprise ou web.
Notre produit utilisateur Exalead one:desktop© recherche parmi des documents, des mails, présents sur la machine, c'est le premier niveau de recherche.
Le produit entreprise Exalead one:enterprise© centralise d'avantage de ressources comme des bases de données et des serveurs de mails.
Notre produit web Exalead one:web© nous sert pour tester la robustesse de nos algorithmes, pour faire nos preuves auprès de nos clients. Ce produit a de plus toute sa place dans notre gamme, car il permet d'avoir une solution complète dans le domaine de la recherche.
Sébastien Richard : Nous intégrons toutes les fonctionnalités classiques des moteurs de recherches. En tout premier lieu le retour de résultats, un correcteur orthographique et des paramètres de recherche avancée tels que la recherche interne à un site particulier, les liens qui pointent vers un site défini, des recherches par date et autres opérateurs (url, titre).
Mais nous sommes le seul moteur à dimension mondial à proposer des thumbnails pour tous les résultats de recherche.
Nous avons aussi des fonctionnalités un peu plus avancées telles que le tri par date, la lémantisation des mots, c'est à dire que le moteur reconnaît un mot et son pluriel par exemple comme appartenant à la même idée. Un exemple concret, si vous recherchez course cheval ;le moteur vous donnera aussi des résultats concernant courses chevaux. Une autre fonctionnalité phare de notre moteur est la recherche phonétique, très pratique pour la recherche de noms propres (dont on n'est jamais certain de l'orthographe).
Une dernière, pour gourou, est la possibilité de faire des recherches par expressions régulières. Disons que c'est une fonctionnalité qui nous sert de support pour d'autres, donc on a choisi de la remonter aussi à l'utilisateur.
Quand vous faîtes une recherche sur le moteur d'exalead, il vous indique tout un tas de mots clef, ou de langues, l'idée étant de faire une recherche générale en premier lieu puis de permettre à l'utilisateur d'affiner par la suite, contrairement par exemple à google qui va plutôt essayer de deviner ce qui vous intéresse vraiment. C'est une autre approche du même problème.
Sébastien Richard : Notre positionnement est différent. Même si nous allons mettre des liens sponsorisés sur exalead.com, notre positionnement est d'être un moteur de recherche "pur" sur l'ensemble de nos services, et de ne pas nous positionner, comme google, yahoo et microsoft, comme des sociétés de média, qui sont de plus en plus confronté à des conflits d'intérêt entre la promotion de leurs propres services ou partenaires et les sites internet qu'ils référencent. Nous allons également rester dans une optique éditeur de logiciel, dans le sens où ce sont surtout les licences de nos produits entreprise et desktop que l'on vend qui nous financent. A l'avenir nous allons réduire les barrières entre nos produits workgroup et desktop avec le monde du web, merger les 3 dimensions en quelque sorte. Cela s'accompagnera d'une augmentation de nos efforts sur le produit web : notament par l'ouverture d'une recherche sur des images ou encore l'augmentation du nombre de pages indexées qui passera à 8 milliards à l'automne.
Sébastien Richard : Un bon référencement est un référencement qui est naturel. Que le webmaster privilégie le contenu et la pertinence de son information sans trop se soucier du référencement. De notre côté, on essaye de rester le plus juste vis à vis des sites et de ne pas trop les casser. Cela se traduit concrètement par des malus aux sites détectés comme louches, plus que du black listage.
Après on peut tout de même donner des conseils de bon sens pour un bon référencement qui seraient les mêmes qu'en marketing, comme par exemple de bien cibler la présentation de son contenu. Il vaut mieux être leader d'un sous sous marché, que noyé dans la masse d'un marché global. Si vous vendez des clefs à mollettes, inutile de titrer le numero 1 de l'outillage, vous n'avez quasiment aucune chance d'apparaître .
Sébastien Richard : Comme je vous l'ai dit, nous allons d'ici 2 semaines sortir une nouvelle version de notre interface web et un repositionnement de notre politique. En 2004 nous étions centrés sur le web francophone, puis nous sommes passés à du web mondial. L'accueil fut bon et le marché est lucratif, on a donc plein de raisons de continuer dans le sens du web.
Sébastien Richard : Oui, c'est exact.
Sébastien Richard : Nous avons tout un tas d'algorithme qui tournent pour détecter ce genre de "choses louches". On essaie au maximum de prévenir des techniques de cloaking qui est le fait de ne pas présenter le même contenu à un navigateur ou à un robot de moteur de recherche.
Une technique classique consiste à se déclarer register auprès de l'ICANN (organisme mondial gérant les noms de domaines). Vous faites une demande pour un nom de domaine par exemple tada.com en prétextant que votre client le désire. ICAN le met alors à votre disposition pendant quelques temps, pour que vous puissiez réaliser la transaction avec votre prétendu client. Et pendant ces quelques jours, vous pouvez utiliser à votre guise ce tada.com. Avec cette multiplication de nom de domaine pointants tous sur un meme site, un site americain a réussi à se faire indexer 5 milliards de pages par google ! Alors qu'en réalite il n'y en avait que quelques milliers.
Une autre tentative que j'ai trouvée astucieuse, de la part d'un site de casino, était de récupérer des milliers de pages web en se renseignant comme referer (le site d'où l'on vient). Ainsi dans les modules statistiques automatiques de milliers de sites internet (qui permettent aux webmaster de voir d'où viennent leurs visiteurs), on pouvait voir apparaître des liens vers ce site de casino, liens qui lui donnaient de la popularité.
C'est toujours une course entre les algo anti-triches et les référenceurs ! De de notre côté, il s'agit d'être malin et de filtrer tout cela avec le coût le plus faible, si un algorithme très puissant de détection double le temps de filtrage d'une page pour améliorer la qualité finale de 0,1%, cela devient peu intéressant pour nous, il n'y a pas que l'éfficacité qui compte, mais aussi les ressources utilisées.
Sébastien Richard : On peut déjà utiliser le tag nofollow des balises html <a href>, pour dire aux moteurs de ne pas suivre ces liens et donc ne pas accorder de crédit à des liens dont on n'est pas responsable. Cela commence à se faire pour les blogs. Quand tout le monde, sites et moteurs appliqueront ce genre de méthodes, ces techniques de spam n'auront plus aucun intérêt et cesseront.
Sébastien Richard : C'est très cloisonné comme domaine, pour vous répondre simplement, je dirai qu'il n'y a aucune communication entre les moteurs de recherche, chaqun cache ses algorithmes et applique ses méthodes dans son coin. Le marché des moteurs de recherche est en dent de scie, des moteurs apparaissent et disparaissent tous les ans.
Sébastien Richard : Question intéressante (rire), pour être honnête, on n'a rien fait de spécial pour notre référencement.
Sébastien Richard : Non non, rien du tout, ce sont les gens qui ont parlé de nous et qui ont mis des liens vers notre site qui ont fait notre référencement.
Sébastien Richard : Je pense qu'il va y avoir une prise de conscience des webmasters du danger de l'hégémonie de Google. Quand vous avez 70% de votre traffic qui vient depuis ce moteur de recherche, votre positionnement est capital ! Il suffit que Google change une virgule dans ses algorithmes pour que votre chiffre d'affaires s'écroule. Les webmasters se rendent compte petit à petit que le fait d'avoir plusieurs sources d'entrés sur leur site est bénéfique pour tout le monde.
Changer de moteur de recherche, c'est très facile, il suffit de changer sa page d'accueil, Google le sait très bien et c'est la raison pour laquelle ils lancent plein de services beaucoup plus fidélisant tels que Gmail. Ils ont une marque très forte mais un renversement est tout à fait possible. Je ne dis pas que nous serons demain le leader, loin de là, mais qu'à l'avenir le marché pourrait s'équilibrer d'avantage.
Sébastien Richard : C'est un programme de recherche Franco-Allemand dans le domaine des technologies d'indexation multimedia. La différence entre Quaero et un projet de recherche de la commission Européenne est que la recherche est définie par des leaders industriels (Thomson, France Télécom, Jouve et Exalead) dans le cadre du développement de leurs produits (exalead.com en ce qui concerne Exalead) et non pas par des experts à travers des appels d'offres.
Quaero va donc nous permettre à terme d'équiper exalead.com de technologies de recherche multimedia très pointues quand cela va devenir important sur le marché, d'ici quelques années. D'ici là, nous faisons de la recherche en réseau avec des partenaires technologiques qui sont tous leaders sur leur secteur. L'objectif à terme est de permettre des recherches sur plusieurs types de média (video, audio, ...) pour plusieur supports (téléphones portables, pda, ...)
Sébastien Richard : Merci.
Nous remercions la société Exalead pour sa disponibilité et le temps qu'ils nous ont accordé. A noter que Exalead recrute ! Plus d'informations sur leur site internet
]]>
L'achat de mots clefs permet à l'acheteur d'assurer sa position dans les résultats d'un moteur de recherche pour certains mots clefs. Ainsi, si une entreprise achète les mots clefs jambon, beurre, sandwich, elle se retrouvera régulièrement sur la première page du moteur de recherche lorsque ces mots clés ont été tapés lors de la recherche.
Cependant, l'achat de mots clefs n'est pas forcément fructueux. En effet, certains mots sont déjà extrêmement utilisés par un grand nombre d'entreprises. Si vous achetez le mot clef "réseau", la concurrence sera telle que vous ne serez sur la première page que de temps en temps.
Les grands moteurs utilisent tous l'achat de mots clefs. Ainsi, Google, Yahoo, Voila et d'autres moteurs fournissent des solutions d'achat dans leur panel.
Cependant, pour le moment, seul Google propose de choisir les horaires de positionnement, qui permet à l'acheteur de choisir quand il souhaite se placer en première page.
. Google AdWord permet ainsi une bonne répartition des annonceurs, et un résultat plus efficace car plus ciblé.
Le système est très simple, il suffit de s'inscrire directement auprès du moteur de recherche concerné, ou en passant par des sites spécialisés s'occupant de l'inscription auprès de plusieurs moteurs. Ainsi, pour s'inscrire auprès de Google, il vous suffit d'aller sur la page de Google AdWord.
Voici son fonctionnement : Il faut avant tout créer un compte aurpès du moteur de recherche. Une fois le compte créé, il reste à faire l'achat d'un ou plusieurs mots clefs en choisissant le prix maximum que l'on souhaite mettre, et le tour est joué. Bien entendu, plus le prix est élevé, plus la fréquence d'apparition en première page le sera.
Comme nous l'avons vu précédemment, il existe des sites spécialisés dans la SEO, et donc dans l'achat de mots clefs. Ils permettent d'avoir un interlocuteur unique pour l'achat de mots clefs sur plusieurs moteurs de recherche. Ils fournissent en général des services complémentaires, comme des statistiques d'apparition ou de nombre de clics.
référenceur.com fait parti de ces sites de services en SEO proposant l'achat de mots clefs.
Le prix peut beaucoup varier. Il n'est en général pas lié au mot clef acheté, mais au nombre d'apparitions en première page ou au nombre de clics sur votre lien. Ainsi, Google propose un tarif de 5€ de frais de dossier, et un coût par clic inférieur à 1€.
Cependant, une surpopularité peut entraîner un prix très élevé, alors qu'une popularité plutôt faible le fera au contraire baisser.
Comme vous l'aurez remarqué, nous ne publions plus de notes depuis 3 jours. Pourquoi ?
Nous avions un planning, mais celui-ci n'a pas été respecté. En tant que responsable de projet, je ne jette la pierre à personne, et je vous demanderai donc d'être indulgent.
Nous allons bientôt arriver au terme de notre aventure, et comme vous vous en souvenez, la surprise, ou devrai-je dire, les surprises arrrivent bientôt. Nous sommes donc en préparation et nous devons attendre la validation de certains de nos écrits par des éléments extérieurs à notre équipe. Je vous donne rendez-vous lundi pour une note qui sortira de l'ordinaire, soyez en assuré.
]]>Le SEO possède aussi une dimension marketing importante, qui fait intervenir des acteurs non-informaticiens.
Il vaut mieux être leader d'un sous sous marché, que noyé dans la masse d'un marche global
Sébastien Richard, directeur, développements Web Exalead
Afin de cibler son référencement, il convient donc de cibler son contenu sur quelques mots clef (un ou deux) dont les occurrences doivent revenir souvent dans la page afin de se positionner de façon optimale sur ces mots précis.
Ces choix stratégiques pour l'entreprise doivent aussi se faire en connaissant le marché, afin de se positionner soit en concurrent d'une offre existante soit en s'en démarquant.
Les aspects techniques les plus adaptés pour ces choix sont le menu du site et les titres des pages. Une erreur classique des webmasters est de vouloir donner un ton trop général à leur contenu.
Voyons un exemple concret, avec la société Promafix.
Ce site a comme titre : Professionnels de l'outillage alors qu'il propose surtout du matériel de chevillage. Il n'apparaît pas dans les résultats Google pour une recherche de chevillage et se positionne très loin sur une recherche d'outillage.
Il aurait été beaucoup plus judicieux de titrer Professionnels du chevillage, afin de mieux fixer des axes, une politique de référencement.
Afin de mieux apprécier l'importance de ce positionnement et les acteurs qu'il fait intervenir, je vais utiliser une expérience que j'ai vecue l'an passé dans le cadre de mon stage de fin d'étude d'IUT informatique.
Le sujet du stage portait sur la refonte du site web de KineoCAM.
Cette société vend des produits qui se rattachent au domaines du path planning, des digital mockup et des PLM applications.
La première chose à faire, est d'étudier les sites web de la concurrence et des sociétés clientes de KineoCAM afin d'identifier les mots clefs mis en avant par ceux-ci. Il en résulta un document synthétisant cette répartition, exemple de ligne :
Une réunion fut alors organisée avec toute l'équipe pour mettre en avant une liste de mot clefs avec les contraintes suivantes :
Une liste de termes plus ou moins techniques fut donc produite au cours de ce brainstorming.
Une fois ces clefs en main, c'est le service commercial et la direction qui eurent le choix. Leur volonté était de se positionner en référence sur le domaine des Path plannings applications, malgré le fait que ces mots étaient souvent utilisés sur des sites concurrents.
Afin de "battre" leur concurrents sur ce terrain précis, j'ai donc martelé le site web des mots clefs path, planning et applications.
<META name="keywords" content="path;planning;homepage;kineocam">
<META name="description" content="Description of our path planning products">
<div class="openlibelle">
<a href="path-planning-application.php">Path planning applications</a>
</div>
<title>Path planning applications</title>
path-planning-application.php
path-planning-plm-application.php
path-planning-technical-papers.php
Après ce positionnement fort de la société autour du path planning application, l'objectif fut atteint : être positionné premier lors d'une recherche sur Google de ces termes là.
Le positionnement marketing d'un site web vis à vis de son domaine et de ses objectifs est donc capitale !
]]>Commençons notre note sur les sites miroirs par une compilation des différentes définitions que l'on peut trouver sur le web. Nous avons recupéré quatre définitions que nous vous livrons ici en vous indiquant les sources:
C'est avant tout une "copie multiple de sites ou de pages. Pour certains sites très fréquentés les fournisseurs d'accès réalisent parfois ces copies, accessibles par d’autres adresses pour éviter la saturation du réseau. Cela peut compliquer la recherche du lieu réel d’émission des informations. Les auteurs des sites réalisent parfois eux-mêmes des miroirs afin d’accroître artificiellement leur présence dans les résultats des recherches."
Source : www.minefi.gouv.fr
Cette seconde definition est assez proche de la premiere en introduisant quelques termes techniques tres important pour la
suite. C'est la copie multiple de sites ou de pages Web sur différents serveurs, pour des raisons de rapidité d'accès.
Le processus d'enregistrement de ces miroirs dans les Moteurs de Recherche est souvent traité comme du spamdexing,
parce que ça augmente artificiellement la pertinence des pages. Les filtres tels que le Sniffer d'Infoseek retirent
maintenant les miroirs multiples.
Source : www.mpl.ird.fr
Cette troisieme definition met l'accent sur l'aspect geographique du site miroir :
Se dit d'un site web dont le contenu est identique à celui d'un site principal, mais qui se trouve physiquement
à un endroit différent. Les sites miroirs sont souvent implantés dans d'autres pays ou régions que le site principal,
afin d'être plus proches des utilisateurs concernés. La présence de sites miroirs permet de soulager le trafic sur le
site principal et de réduire les délais de téléchargement pour les utilisateurs proches du site secondaire.
Source : www.ac-rouen.fr
Finalement la définition suivante souligne bien le fait que les sites miroirs ne sont pas systématiquement déployés
à des fins malhônnètes et donc la difficulté pour les moteurs de recherche est de faire le tri. C' est une copie conforme d'un site sous une adresse IP différente. Le même site est ainsi hébergé sur plusieurs serveurs. De cette façon, les sites miroirs permettent de répartir la charge sur les serveurs d'un site à forte demande internationale. Les sites miroirs sont difficiles à faire indexer convenablement, car les moteurs de recherche considèrent la duplication de contenu comme une forme de spamdexing.
Source : www.a-yant.com
Si vous visitez cette page de wikipedia version anglaise : http://en.wikipedia.org/wiki/Mirror_site, vous constaterez qu'il existe un très grand nombre de raisons pour lesquelles nous voulons mettre en place un ou des sites miroirs. Les raisons sont plus ou moins bonnes et plus ou moins justifiées mais ce qui est certain : ces raisons existent.
Prenons en vrac les raisons suivantes qui font partie des "bonnes raisons", et nous détaillerons ensuite la raison qui nous intéresse vraiment.
Mettre en place un système de sauvegarde de ses données.
Contourner les obligations de fermeture, par exemple rappelez vous Google en chine qui possède aussi bien au sens propre qu'au sens figuré son site miroir que l'on peut consulter à cette adresse.
On y retrouve donc même une dimension politique, un moyen de défense de la liberté d'expression...
Augmenter la vitesse de téléchargement en fournissant les mêmes services à plusieurs endroits différents de la planète. Prenons par exemple sourceforge.
Mais comme tout chose, nous avons également les moyens d'utiliser cette technologie à des fins moins nobles.
Cela peut être utilisé comme un moyen d'augmenter le revenue des publicités.
Plus rarement, on s'en sert pour plagier un site web, même si celui-ci finit par s'en apercevoir.
Et on peut utiliser les sites miroirs pour augmenter le "site's ranking", dont nous vous parlerons plus en détail dans une prochaine note. Remarquer bien que nous continuerons à étudier exclusivement cette méthode. Comment cela fonctionne-t-il ? Sur chacun des sites miroirs, on met en place des hyper liens qui pointent vers tous les autres sites miroirs. Cette technique est appelée le link farming que l'on pourrait traduire en français par "affermage de liens". En général, les administrateurs des moteurs de recherche et les surfeurs considèrent cela comme une méthode qui ne respecte pas l'éthique.
Si le mot affermage vous semble étrange, voici une définition que nous avons trouvé :
n. m. XVe siècle, au sens (vieilli) de « engagement d'un serviteur » ; XIXe siècle, au sens actuel.
Dérivé d'affermer.Action d'affermer, de donner ou de prendre en location, moyennant une redevance.
L'affermage d'un domaine agricole. L'affermage d'un emplacement publicitaire, des droits de place sur les marchés.
Source : Patrimoine de France
Mais qu'est donc exactement le "link farming" ?
Nous pouvons trouver une assez bonne definition present sur le site www.webopedia.com.
Cela consiste à avoir un grand nombre de liens réciproques entre différents sites webs, ici des sites miroirs donc en fait un seul et unique site. Quand nous disons un seul et unique site, nous évoquons l'entité logique et pas l'entité physique car il faut bien se rappeler que le but des sites miroirs est de dupliquer physiquement un site web et son contenu.
Le 'link farming' tend donc à augmenter la qualité de réferencement éffectuée par les moteurs de recherche. Rappelez vous la note sur les moteurs de recherche qui expliquaient que l'un des critères de notation de la popluarité d'un site consiste à compter le nombre de sites qui pointent justement sur le vôtre. Plus il y a de liens, plus votre site est logiquement populaire. Cependant, la mise en pratique de cette théorie avec des sites miroirs est considérée comme du spam ou plus précisemment du spamdexing.
Comme il est dit dans cet article, le spamdexing a connu un réel essor dans les années 90, ce qui tendait à rendre les moteurs de recherche presque inutiles. Ces derniers ont su développer des algorithmes qui contournent plus ou moins bien ces écueils.
Vous constaterez qu'il existe plusieurs formes de spamdexing. L'utilisation de sites miroirs en est une, mais il en existe principalement deux autres : URL redirections et le Cloaking. Nous laisserons cependant de côté ces techniques. Si vous voulez plus de renseignements, un bon début se situe à la page web de wikipedia qui traite du sujet.
]]>
Les moteurs de recherche prennent en compte plusieurs éléments pour positionner un site :
Il n'est pas forcément façile de passer par un annuaire. En effet, l'ajout dans un annuaire implique la vérification par une personne humaine. En conséquence,
le site doit être suffisement avancé et propre. Cependant, une fois inscrit, votre site aura un poids plus fort dans la liste des réponses, l'inscription dans un annuaire
étant une "preuve" de la qualité du site.
Ainsi, il ne faut pas hésiter à s'enregistrer auprès d'annuaires de sites, qui bien que moins utilisés que des moteurs de recherche comme Google, donne une bonne
image de celui-ci aux gros moteurs de recherche.
Le placement d'un site dans une liste des réponses dépend du pourcentage de requêtes aboutissant à un clic sur celui-ci. Ainsi, plus on clique sur un site spécifique pour une certaine requête, plus le site se retrouve bien placé.
Ce phénomène se fait naturellement, au fur et à mesure du temps, mais il est possible de tronquer son fonctionnement.
Un moyen simple est de demander aux personnes autour de vous de faire une recherche sur internet et de cliquer sur votre site dans le résultat de la recherche. Cela augmente le pourcentage de clique sur votre site lors d'une requête aupres du moteur de recherche, et le fait naturellement changer de position.
Attention : cette méthode n'est pas très propre ni très "honnête".
Si vous souhaitez amplifier le nombre de clics de manière artificielle, de manière beaucoup plus rapide, vous pouvez coder un petit script qui s'occupe tout seul de faire une requête
HTTP aupres du moteur de recherche et imite le comportement d'un clic en envoyant une requête sur l'URL de votre site au moteur de recherche.
Un script comme celui-ci est assez simple à rédiger en perl ou ruby, mais déforme la réalité en provoquant une avalanche de clics sur votre site sans intervention humaine.
Il s'agit là d'un système qui, bien que efficace, n'est pas très honnête.