CrawlTrack: Besuchsverhalten von Suchmaschinen-Spidern analysieren

image

Eigentlich ist CrawlTrack ein ganz normales Statistikprogramm für Websites – mit einem entscheidenden Unterschied: Ausgewiesen werden lediglich Zugriffe von Spidern (Bots, Crawlern), die von Suchmaschinen losgeschickt werden, um deren Index zu aktualisieren. Was eine Suchmaschine ist und was nicht erkennt das Programm aufgrund einer Crawler-Liste, die man über eine Update-Funktion bequem in die eigene CrawlTrack-Installation herunterladen und installieren kann.

Mit CrawlTrack kann man sehr gut nachvollziehen, wann welche Suchmaschine zu Besuch war, wie regelmässig sie vorbeischaut und welche Seiten sie indexiert. Die Resultate werden nicht nur tabellarisch, sondern auch mit ansprechenden Grafiken dargestellt. Die Software ist somit ein spannendes Instrument für die Suchmaschinen-Optimierung (SEO). Zusätzlich verspricht das Tool, gewisse Hack-Versuche zu erkennen – wie leistungsfähig dieses Feature ist, kann ich allerdings mangels Hacker-Kenntnissen nicht beurteilen.

CrawlTrack setzt PHP 4.3 oder neuer, die GD2 Grafik-Library (für die Charts) sowie MySQL voraus. Als Lizenz kommt die GPL zum Einsatz.

(via ContentSchmiede)

Hinterlassen Sie einen Kommentar