Fehler tritt sporadisch auf.
Meldung:ERR_CONTENT_DECODING_FAILED
Chrome latest
cache geleert.
ERR_CONTENT_DECODING_FAILED(Chrome)
-
- Behoben
- Lyssaroa
- Geschlossen
- Erledigt
-
-
da es kein Protokollierter Fehler ist, kann ich dir da nicht viel helfen. wie siehts aus mit anderen Browsern?
-
Ich habs leider verpasst und zu schnell weg geklickt, mit Firefox hab ich auch ERR_CONTENT_DECODING_FAILED in einer Meldung gehabt
-
Bei mir sowohl im FF alsauch im Chrome im Adventskalenderthread aufgetreten.
...leider immernoch sporadisch..
-
tja, schade schokolade, kann ich nicht nachvollziehn, wobei ich nicht ausschließe, das es auch an unserer CF hängen könnte, die ja aktuell ab und zu auch ganz schön lahmt
-
sollte der Fehler weiterhin existent sein -> kontaktier mich mal im TS
-
Bei mir passiert das auch manchmal. Hier ein Screenshot inkl. Header (die Header tu ich auch nochmal in den spoiler zwecks copy+paste, falls du das brauchst, allerdings habe ich meine cookies zensiert). Ist von eben gerade.
Der große Adventskalender 2015
GET /index.php/Thread/8459-Der-gro%C3%9Fe-Adventskalender-2015/ HTTP/1.1
Host: forum.gw2community.de
User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Language: de,en;q=0.5
Accept-Encoding: gzip, deflate
DNT: 1
Referer: Events & Ankündigungen
Cookie: _ga=GA1.2.616950914.1403131235; __cfduid=(entfernt); _pk_id.1.dcd7=(entfernt); wcf_userID=(entfernt); wcf_password=(entfernt); wcf_cookieHash=(entfernt); PHPSESSID=(entfernt)
Connection: keep-aliveHTTP/2.0 200 OK
Server: cloudflare-nginx
Date: Sun, 27 Dec 2015 00:13:57 GMT
Content-Type: text/html; charset=UTF-8
Cache-Control: no-store
Content-Encoding: gzip, gzip
Vary: Accept-Encoding
X-UA-Compatible: IE=edge
X-Frame-Options: SAMEORIGIN
Strict-Transport-Security: max-age=15552000; includeSubDomains; preload
x-content-type-options: nosniff
cf-ray: 25b0d291e1e52726-FRA
X-Firefox-Spdy: h2Edit: soweit ich das sehe, liegt das an dem "Content-Encoding: gzip, gzip". Da ist nur ein Wert wie "Content-Encoding: gzip" erlaubt. Bei anderen Requests wird in der Tat auch nur gzip und nicht gzip, gzip gesendet.
-
*GEHEILIGT SEI DIE DETAILIERTE FEHLERBESCHREIBUNG. AMEN*
Danke, deine detailierte fehlerbeschreibung hilft mir weiter, den fehler zu lokalisieren, ich werde mich später mal ransetzen.
Grüße Tom
-
serverseitig ist bei uns derzeit das content-encoding deaktiviert mal schauen, ob die fehler weiterhin auftreten, wenn ja, muss ich mal mit cloudflare reden, die unsere inhalte auch komprimieren
-
Wenn man bei Google sucht:
cloudflare "Content-Encoding: gzip, gzip"
(also inkl. Anführungszeichen um den Content-Encoding Teil)
dann findet man ein paar Links. Die ersten davon behandeln das doppelte gzip im Response Header:
http://serverfault.com/questio…ent-encoding-is-gzip-gzip
http://stackoverflow.com/quest…ding-gzip-gzip-using-curlDie enthaltenen Links könnten weitere Ansatzpunkte bieten, wie man Cloudflare das doppelte gzip abgewöhnt. Tiefer habe ich mich damit nicht befasst, möglicherweise ginge es, wenn man selbst bereits mit gzip komprimiert, oder anders herum selbst nicht mit gzip komprimiert und das Cloudflare machen läßt - je nachdem, was man vorher gemacht hat. Aktuell siehts so aus, dass der Header vorhanden ist und korrekt rüberkommt. Beim Browser kommt also die Seite komprimiert an. Wer auch immer es komprimiert: Cloudflare oder der Webserver.
Da gibts bestimmt Vorgaben bei Cloudflare, wie man das auf dem eigenen Webserver einstellen soll.
Da es nur bei einigen Abrufen passiert ist, könnte ich mir vorstellen, dass der Webserver manche urls vielleicht mal komprimiert schickt und mal unkomprimiert. Cloudflare merkt sich vielleicht für jeden Abrufer und jede url, ob sie zu komprimieren ist oder nicht (würde sich ein erneutes parsen der Header sparen), und wenn dann mal eine Seite komprimiert geschickt wird, wo Cloudflare meint sie wäre eigentlich immer unkomprimiert, dann wird sie von Cloudflare nochmal komprimiert und kommt dann zweimal komprimiert beim Client an, der dann den Fehler ausspuckt.
-
so, sollte gelöst sein. wenn cloudflare, nginx und dann auch noch hhvm komprimiert, ist das halt einfach zu viel des guten^^