Autres types

Comment fonctionne notre robot d'exploration de sites web

Un outil d'exploration de site qui découvre tout votre contenu, quel que soit son emplacement.

Offrez à vos utilisateurs une excellente recherche sur votre site.

Le contenu de votre site web est cloisonné dans des systèmes distincts et géré par différentes équipes ? La première étape pour offrir une expérience de recherche de qualité sur votre site consiste à mettre en place un processus d’exploration performant.

Notre robot d'exploration Web peut faire gagner du temps à votre entreprise et réduire vos dépenses en éliminant la nécessité de construire des pipelines de données entre chacun de vos référentiels de contenu et votre logiciel de recherche de site, ainsi que la gestion de projet que cela implique.

Transformez votre site en contenu structuré

Vous pouvez paramétrer précisément notre robot d'exploration web pour qu'il interprète correctement votre contenu. Par exemple, outre les pages web classiques, vous pouvez lui permettre de rechercher et de consulter des articles d'actualité, des offres d'emploi et des rapports financiers, y compris les informations contenues dans des documents, des PDF, du HTML et du JavaScript.

Vous n'avez pas besoin d'ajouter de balises méta.

Vous pouvez extraire le contenu de votre site sans avoir à ajouter de balises méta au préalable. Notre robot d'exploration web ne nécessite aucune métadonnée personnalisée. Il met à la disposition de votre équipe technique un éditeur intuitif permettant de définir le contenu à extraire et sa structure.

Enrichissez votre contenu pour le rendre plus pertinent

Pour améliorer la pertinence des résultats de recherche pour vos utilisateurs, enrichissez votre contenu extrait avec des données web professionnelles, notamment issues de Google Analytics et d'Adobe Analytics. Avec Algolia Crawler, exploitez les données relatives au comportement des visiteurs et aux performances de vos pages pour optimiser votre référencement, catégoriser votre contenu afin de faciliter la navigation avancée, et bien plus encore.

Configurez votre crawling selon vos besoins

Planifier des sessions d'exploration automatiques

Vous pouvez configurer notre outil d'exploration de site pour qu'il examine vos données Web selon un calendrier en temps réel défini, par exemple tous les soirs à 21 heures, avec une nouvelle exploration à midi le lendemain.

Configurez manuellement un crawl

Si nécessaire, vous pouvez déclencher manuellement l'exploration d'une section particulière de votre site web, voire de l'ensemble du site.

Dis-lui où aller

Vous pouvez définir les parties de votre site, ou les pages Web, que vous souhaitez que notre robot d'exploration Web explore (ou évite), ou vous pouvez le laisser explorer automatiquement l'ensemble du site.

Donnez l'autorisation

Configurez notre robot d'exploration pour explorer et indexer les pages protégées par connexion.

Maintenez à jour votre contenu consultable

Inspecteur d'URL

Dans l'onglet Inspecteur, vous pouvez visualiser et examiner toutes les URL analysées, en notant si chaque analyse a réussi, quand elle a été terminée et les enregistrements générés.

Monitoring

Dans l'onglet Surveillance, vous pouvez consulter les détails de la dernière analyse, et trier les URL analysées par statut (succès, ignorées, échec).

Analyse des données

Dans l'onglet Analyse des données, vous pouvez évaluer la qualité de votre index généré par le robot d'exploration Web et vérifier si certains enregistrements présentent des attributs manquants.

Path Explorer

Dans l'onglet Explorateur de chemins, vous pouvez voir quels chemins le robot d'exploration a explorés ; pour chacun, combien d'URL ont été explorées, combien d'enregistrements ont été extraits et combien d'erreurs ont été reçues pendant le processus d'exploration.

Les entreprises les plus avancées expérimentent quotidiennement avec le crawler

« Nous avons réalisé que la recherche devait être une compétence fondamentale de l'entreprise LegalZoom, et nous considérons Algolia comme un produit générateur de revenus. »
 

Mrinal Murari

Responsable de l'équipe Outils et ingénieur logiciel senior chez LegalZoom

Contenu recommandé

Qu'est-ce qu'un robot d'exploration Web ?

Qu'est-ce qu'un robot d'exploration Web ?

Un robot d'exploration Web est un bot (un programme informatique) qui visite systématiquement un ou plusieurs sites Web et catalogue les données qu'il y trouve.

30 jours pour améliorer de 50 % les performances de notre robot rampant

30 jours pour améliorer de 50 % les performances de notre robot rampant

Cet article explique comment nous avons remanié le fonctionnement interne de notre robot d'exploration d'applications, recherché les goulots d'étranglement et rationalisé les tâches afin d'optimiser le traitement de ce logiciel complexe, parallèle et distribué.

Robot d'indexation Algolia (crawler)

Robot d'indexation Algolia (crawler)

Aperçu des fonctionnalités d'Algolia Crawler pour votre site web.

FAQ sur les robots d'exploration de sites web

Permettre à tous de créer d'excellentes fonctionnalités