• This forum has a zero tolerance policy regarding spam. If you register here to publish advertising, your user account will be deleted without further questions.

http-Zugriffe simulieren- womit?

siradlib

New Member
Hallo,

ganz einfache Fragestellung, aber eine Recherche mit Google brachte mich bisher nicht wirklich weiter.
Wie teste ich, wie sich eine Webseite (in meinem Fall Typo3) am besten unter Last verhält? Hintergrund ist ein etwas merkwürdiges Verhalten einer Typo3-Extension, das ich aber bisher im Test nicht nachstellen konnte.
Ich bäuchte also ein Programm, das zufällige Klicks auf Links der Seite in größeren Mengen simuliert.
Ein simpler http Traffic-Generator hat meiner Meinung nach nicht genügend "Intelligenz", denn er ruft ja immer nur eine einzelne Seite auf.

Hat jemand von euch eine Idee, wie oder womit ich das am besten bewerkstelligen könnte?

LG
siradlib
 
Danke für den Tipp!
Aber verschiedene "Klicks" muss ich mir, wenn ich "ab" benutzen möchte, doch wieder selbst zusammenscripten- oder?
Mir schwebt prinzipiell sowas wie wget vor, nur dass es eben die Seite nicht so gleichmäßig "holt" wie wget, sondern "zufälliger". Also eine Art wget, das erst die Links der Seite analysiert und hinterher alle Links in zufälliger Reihenfolge und Anzahl abruft.
 
Ich denke, da wirst du dir selber was schreiben müssen, was aber nicht unbedingt das problem sein sollte. HTML kann man ja ähnlich XML parsen. Dann sollte es also mit php oder Perl möglich sein, sowas zu basteln.
 
Naja er wird er die Links seiner eigenen Seite kennen. Nimmst halt 10 oder 20 Stück und verfütterst die alle gleichzeitig an ab. :)
 
Naja er wird er die Links seiner eigenen Seite kennen. Nimmst halt 10 oder 20 Stück und verfütterst die alle gleichzeitig an ab. :)

Genau das will ich nicht machen, denn ich weiß nicht, bei welchen Links genau das Problem (Caching der Extension "RealUrl" produziert Fehlermeldungen) auftritt. Und wenn ich nun genau die 10 oder 20 Seiten erwische, die die Fehler nicht produzieren...
 
Aktivier doch einfach die PHP Error-Logging Funktion und laesst ein paar wget-Spider mit einem Intervall starten - dann sollten so ziemlich alle Bereiche gleichzeitig abgedeckt werden und die Fehler in der Datei landen.
 
Hi,

wie wäre es, wenn du einfach dein AccessLog des letzten Monats
nimmst und die Requests erneut ausführst? Es sollte nicht so schwer
sein sich ein kleines Perlskript zu basteln was sich die Requests
aus jeder Zeile parst und die Requests absendet.

Soweit ich weiß machen professionelle Tools nichts anderes.

Viele Grüße
Sascha
 
Back
Top