Présentation

Article

1 - DÉFINITIONS ET DONNÉES GÉNÉRALES

2 - SYSTÈME DE CRAWL D'UN MOTEUR DE RECHERCHE

3 - MOTEUR D'INDEXATION

4 - SYSTÈME DE RANKING

5 - AFFICHAGE DES RÉSULTATS

6 - CONCLUSION

7 - GLOSSAIRE ET ACRONYME

| Réf : H7240 v2

Conclusion
Moteurs de recherche web - Google, Bing et leurs challengers

Auteur(s) : Olivier ANDRIEU

Date de publication : 10 mars 2017

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

NOTE DE L'ÉDITEUR

03/04/2017

Cet article est la réédition actualisée de l’article H7240 intitulé « Moteurs de recherche web. Google, Bing et leurs challengers » paru en 2011, rédigé par le même auteur, Olivier ANDRIEU.

RÉSUMÉ

Les moteurs de recherche font partie de notre quotidien numérique et sont des carrefours essentiels pour nous permettre de rechercher de l'information sur Internet. Quels ont les principaux moteurs ? Comment fonctionnent-ils ? Cet article décrit les différentes phases de traitement de l'information par des outils comme Google ou Bing : crawl du Web, indexation des pages, analyse et utilisation de critères de pertinence in page /off page permettant de donner des notes aux documents explorés, puis affichage des résultats.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

ABSTRACT

Search Engines: Google, Bing and their competitors

Search engines are part of our daily digital life and are essential hubs for seeking information on the Internet. What are the main ones? How do they work? This article describes the different phases of information processing used by tools such as Google or Bing: web crawling, page indexing, relevancy criteria analysis and use of in page / off page rating and display of the results.

Auteur(s)

INTRODUCTION

Les moteurs de recherche rythment la vie numérique des internautes actuels. Carrefours indispensables pour mener à bien toute investigation sur la Toile, ils ont fortement évolué depuis les premiers outils (Excite, Webcrawler, Lycos, Altavista, etc.) jusqu'au leader actuel, Google et son challenger, Bing, que bien peu de concurrents arrivent à talonner pour l'instant. Mais l'avenir sera peut-être différent. En tout état de cause, il est intéressant de se pencher sur le fonctionnement de ces outils et leur évolution au cours des années, car la connaissance de ce que l'on peut trouver « sous le capot des moteurs » peut également nous aider à mieux mener à bien nos recherches sur le Web…

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

KEYWORDS

search engine   |   index   |   Google   |   Bing   |   spiders   |   robots   |   crawl

VERSIONS

Il existe d'autres versions de cet article :

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v2-h7240


Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation

6. Conclusion

Entre les premiers moteurs de recherche apparus en 1993 et ceux d'aujourd'hui, les plus fortes évolutions ont eu lieu dans les algorithmes de pertinence, cherchant continûment à devenir de plus en plus performants et évoluant petit à petit vers des notions de « Web sémantique ». Google est certainement le moteur le plus assoiffé d'innovations sur ce point et il est de très loin le plus pertinent de tous les outils disponibles aujourd'hui sur la Toile. Alors, a-t-il aujourd'hui remporté la partie en ce qui concerne la recherche d'information sur le Web ? Peut-être pas totalement. En effet, une recherche d'information sur le Web s'effectue en trois phases :

  • Étape 1 : l'internaute a une recherche en tête. Son travail est alors, au vu de la façon dont fonctionnent les moteurs actuels, de trouver les mots-clés qui caractérisent le mieux possible sa quête ;

  • Étape 2 : après avoir saisi ces mots-clés dans un formulaire adéquat, l'utilisateur demande au moteur de trouver les pages qui correspondent à cette requête, les plus pertinentes parmi celles qu'il a indexées au préalable. Les algorithmes mathématiques des moteurs entrent alors en œuvre…

  • Étape 3 : le moteur restitue ces résultats selon une interface utilisateur dont le standard actuel est représenté par une liste de 10 liens placés linéairement, les uns au-dessous des autres.

À la fin 2016, Google semble imbattable sur la phase 2 à partir du moment où on lui a fourni les bons mots-clés, donc où la phase 1 a été maîtrisée, ce qui est loin d'être facile, même pour des utilisateurs anciens du Web, avec beaucoup de pratiques derrière eux.

Un futur concurrent de Google devra au moins être au niveau du leader actuel en étape 2. En revanche, l'innovation se fera certainement en phases 1 et 3 dans les années qui viennent :

  • d'un côté, aider l'internaute à mieux formuler, dès le départ, sa recherche, à combler le chaînon manquant entre le cerveau de l'internaute et son clavier, voire à anticiper la demande de l'utilisateur (Siri, Cortana, Google Now) ;

  • proposer une nouvelle interface utilisateur pour les pages de résultats qui n'ont pas énormément changé sur leur forme depuis plus de 15 ans…

Google, aujourd'hui, est certainement « prisonnier » de sa représentation de résultats....

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Conclusion
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - BRIN (S.), PAGE (L.) -   The anatomy of a large-scale hypertextual web search engine. Computer networks audISDN Systems.  -  Google http://infolab.stanford.edu/∼backrub/google.html (1998)

  • (2) - FORD (D.), GRIMES (C.), TASSONE (E.) -   Keeping a search engine index fresh : risk and optimality in estimating refresh rates for web pages.  -  Google http://www.google.com/research/pubs/archive/34570.pdf.

  • (3) - O'BRIEN (S.), GRIMES (C.) -   Microscale evolution of web pages.  -  In WWW'08 : Proceedings of the 17th International World Wide Web Conference http://www.google.com/research/pubs/archive/34428.pdf (2008).

  • (4) - GURMEET (S.M.), JAIN (A.), SARMA (A.D.) -   Detecting near-duplicates for web crawling.  -  Stanford University, Google Inc. http://research.compaq.com/SRC/mercator/papers/www10.ps.

  • (5) - NAJORK (M.), WIENER (J.L.) -   Breadth-first search crawling yields high-quality pages.  -  Compaq http://research.compaq.com/SRC/mercator/papers/www10.ps.

  • ...

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS