How our website crawler works

Ein Website-Crawler-Tool, mit dem alle Ihre Inhalte entdeckt werden, unabhängig davon, wo sie gespeichert sind

Bieten Sie Ihren Benutzern eine tolle Website-Suche

Sind Ihre Website-Inhalte in getrennten Systemen enthalten und werden von verschiedenen Teams verwaltet? Der erste Schritt zur Bereitstellung einer qualitativ hochwertigen Website-Suche ist die Implementierung eines erstklassigen Crawling-Prozesses.

Unsere Web-Spider kann Ihrem Unternehmen Zeit sparen und Ihre Ausgaben senken, indem sie den Aufbau von Datenpipelines zwischen jedem Ihrer Content-Repositories und Ihrer Website-Suchsoftware sowie das damit verbundene Projektmanagement überflüssig machen.

Verwandeln Sie Ihre Website in strukturierte Inhalte

Sie können unserem Website-Crawler genau sagen, wie er funktionieren soll, damit er Ihre Inhalte richtig interpretiert. Zusätzlich zu Standard-Webseiten können Sie beispielsweise sicherstellen, dass Benutzer nach Nachrichtenartikeln, Stellenanzeigen und Finanzberichten suchen und navigieren können, einschließlich Informationen, die in Dokumenten, PDF-Dateien, HTML und JavaScript enthalten sind.

Meta-Tags sind nicht erforderlich

Sie können Ihre Inhalte extrahieren lassen, ohne zuvor Meta-Tags zu Ihrer Website hinzuzufügen. Unser Web-Crawler ist nicht auf benutzerdefinierte Metadaten angewiesen. Stattdessen bietet es Ihrem technischen Team einen benutzerfreundlichen Editor, um zu definieren, welche Inhalte Sie extrahieren und wie Sie diese strukturieren möchten.

Bereichern Sie Ihre Inhalte und erhöhen Sie die Relevanz

Um die Relevanz von Suchergebnissen für Ihre Benutzer zu verbessern, können Sie Ihre extrahierten Inhalte mit Business-Webdaten, einschließlich von Google Analytics und Adobe Analytics, anreichern. Mit dem Algolia Crawler können Sie Daten über das Besucherverhalten und die Seitenleistung verwenden, um Ihre Suchmaschinen-Rankings anzupassen und Ihren Inhalten Kategorien hinzuzufügen, um eine erweiterte Navigation zu unterstützen, und vieles mehr.

 

Konfigurieren Sie Ihr Crawling nach Bedarf

Automatische Crawling-Sitzungen planen

Sie können unser Website-Crawler-Tool so konfigurieren, dass es Ihre Webdaten in einem festgelegten Echtzeitzeitplan ansieht, wie etwa jeden Abend um 21 Uhr, mit einer Wiederholung am Mittag des nächsten Tages.

Manuelles Einrichten eines Crawls

Bei Bedarf können Sie manuell das Crawling eines bestimmten Abschnitts Ihrer Website oder sogar der gesamten Seite auslösen.

Sagen Sie ihm, wohin er gehen soll

Sie können festlegen, welche Teile Ihrer Website oder welche Webseiten von unserem Webspider durchsucht (oder vermieden) werden sollen, oder Sie können sie automatisch überall durchsuchen lassen.

Erlaubnis erteilen

Konfigurieren Sie unseren Crawler, um durch Anmeldung geschützte Seiten zu erkunden und zu indizieren.

 

Halten Sie Ihre durchsuchbaren Inhalte auf dem neuesten Stand

URL Inspector

Auf der Registerkarte „Inspector“ können Sie alle Ihre durchforsteten URLs anzeigen und überprüfen, wobei Sie für jede Durchforstung feststellen können, ob sie erfolgreich war, wann sie abgeschlossen wurde und welche Datensätze generiert wurden.

Monitoring

Auf der Registerkarte „Monitoring“ können Sie die Details zum letzten Durchforsten anzeigen und Ihre durchforsteten URLs nach Status sortieren (Erfolg, ignoriert, fehlgeschlagen).

Data Analysis

Auf der Registerkarte „Data Analysis“ können Sie die Qualität Ihres vom Webcrawler generierten Index beurteilen und sehen, ob es Datensätze mit fehlenden Attributen gibt.

Path Explorer

Auf der Registerkarte „Path Explorer“ können Sie sehen, welche Pfade der Crawler erforscht hat, und für jeden anzeigen, wie viele URLs durchforstet wurden, wie viele Datensätze extrahiert wurden und wie viele Fehler während des Crawling Prozesses aufgetreten sind.

 

Die fortschrittlichsten Unternehmen nutzen Algolia

“Wir haben erkannt, dass die Suche eine Kernkompetenz des Unternehmens LegalZoom sein sollte, und wir sehen Algolia als ein umsatzförderndes Produkt.”

Mrinal Murari

Tools team lead & senior software engineer @ LegalZoom

Recommended content

What is a web crawler?

A web crawler is a bot—a software program—that systematically visits a website, or sites, and catalogs the data it finds.

30 days to improve our Crawler performance by 50%

This article is about how we reworked the internals of our app crawler, looked for bottlenecks, and streamlined tasks to optimize the processing of this complex parallel & distributed software.

Algolia Crawler

An overview of what the Algolia Crawler can do for your website.

Website-Crawler – Häufig gestellte Fragen

Probieren Sie die KI-Suche aus, die versteht