Bestimmte Webseiten von Clients zeitweise nicht erreichbar

Raindrop

New Member
Ich habe einen Server (Ubuntu 14.04.3) an dem mehrere Windows 7-Clients hängen (Samba-Domäne). Die Clients greifen über den Server auf das Internet zu, wobei auf dem Server Squid3 als Proxy läuft (was so bleiben muss). Jetzt tritt bei hoher Netzwerklast, d.h. viel Client-Aktivität, immer wieder folgendes Problem auf:

Zeitweise sind einige Domains (u.a. google.de /google.com und youtube.de / youtube.com) von den Clients nicht erreichbar bzw. nur mit starker Verzögerung erreichbar (mehrere 10 Sekunden), während andere Webseiten sofort erscheinen.

Woran kann es liegen? Was ich schon probiert habe: Die google- und youtube-Domains explizit aus dem Squid-Caching herauszunehmen (hat nichts gebracht). Auch die DNS-Server habe ich umgestellt (auf die google-Server 8.8.8.8 und 8.8.4.4, hat auch nicht geholfen).

Hat jemand eine Idee, was die Ursache der Probleme sein kann?

Gruß
Raindrop
 
Hallo,

Mir scheint es als stocherst du mit einer Nadel im sog. Heu-Haufen an möglichen fehler-quellen.

Wie schaut den die Auslastung gerade im Bezug auf die Netzwerk-Komponenten aus?
Gibt es Anzeichen in den logfiles das ein Dienst zu bestimpten Zeiten erhöhte Aktivität hat oder fehler produziert?

- syslog
- squid3.log

ggf mal anfügen.

Hast du mal algemein ein Lastaufkommen über Zeitraum X bsp einen Arbeitstag zur Hand um ggf nach dem flaschenhals zu suchen?

Ich vermute (ins blaue gegriffen) das die Seiten die ohne probleme ausgeliefert werden,
aus dem lokalen client cache kommen! Im Normal-fall gibt aber Squid eine rückmeldung bei einem wie auch immer verursachten Time-out!

Wie ist der Ping bsp in richtung Google DNS?
Gibt es da evtl auch einbrüche?

Ist der Server Virtualisiert oder so ne 0815-Office Server kiste?

Mit den angaben kann man leider nur sehr schwer sich ein bild machen um rückschlüsse zu schließen auf die Ursache!

Wir wissen ja nicht wie die kiste im Algemeinen Konfiguiert ist etc!
Welche Netzwerk-Hardware kommpt auf Server-Client und ggf Switch zum einsatz?

Sorry das ich dir leider keine Lösung an die Hand geben kann ohne die nötigen Infos!
 
Auszug aus dem squid3-access.log
1454670249.154 115231 192.168.1.239 TCP_MISS/200 26508 CONNECT tiles-cloudfront.cdn.mozilla.net:443 - HIER_DIRECT/54.192.46.18 -
1454670249.154 115442 192.168.1.239 TCP_MISS/200 164715 CONNECT tiles-cloudfront.cdn.mozilla.net:443 - HIER_DIRECT/54.192.46.18 -
1454670249.154 115231 192.168.1.239 TCP_MISS/200 40779 CONNECT tiles-cloudfront.cdn.mozilla.net:443 - HIER_DIRECT/54.192.46.18 -
1454670249.155 115231 192.168.1.239 TCP_MISS/200 17605 CONNECT tiles-cloudfront.cdn.mozilla.net:443 - HIER_DIRECT/54.192.46.18 -
1454670249.155 115231 192.168.1.239 TCP_MISS/200 19749 CONNECT tiles-cloudfront.cdn.mozilla.net:443 - HIER_DIRECT/54.192.46.18 -
1454670249.155 115231 192.168.1.239 TCP_MISS/200 25271 CONNECT tiles-cloudfront.cdn.mozilla.net:443 - HIER_DIRECT/54.192.46.18 -
1454670268.062 59188 192.168.1.239 TCP_MISS/302 1071 GET http://www.google.de/ - HIER_DIRECT/216.58.213.195 text/html
1454670328.012 59948 192.168.1.239 TCP_MISS/503 0 CONNECT www.google.de:443 - HIER_NONE/- -

Das ist die alles, was im access.log für den entsprechenden PC (192.168.1.239) zwischen den Eintippen von "google.de" in den Webbrowser und der Rückmeldung, dass die Seite nicht erreichtbar wäre (mehr als eine Minute später), steht.

Gruß
Raindrop
 
Back
Top