Hi! Ich habe oft Probleme mit abbrechenden Downloads, z.B. beim Downloaden von xoom.com, aber auch bei anderen Free-Hostern... Das Problem ist, diese Free-Hoster verwenden fast immer scriptbasierte Downloads, daß heißt Squid kann die Downloads nicht abfangen: 967375321.134 860563 127.0.0.1 TCP_MISS/200 270670 GET http://irgendwo/file/sowieso - DIRECT/irgendwo application/zip Lynx kann ich garnicht erst benutzen, die Downloads starten nicht. Wenn ich w3m benutze, sagt mir die Website, daß Cookies nicht funktionieren würden (gehen aber auf anderen Sites...) wget kommt ebenfalls nicht mit den Scripts zurecht. Also Netscape, 4.7/Export, 15-Sep-99 (SuSE 6.3) Wenn dort jedoch der Download abbricht, kann Netscape kein Resume machen. Nun die eigentliche Frage: Ist es irgendwie möglich, Netscape auch bei scriptbasierten Downloads beizubringen, zu cachen oder ein Resume zu machen? Können das neuere Versionen vom Netscape? Von mir aus kann's auch ein andere Browser und/oder beliebige Zusatzsoftware sein. Bei kleinen Files ist es ja nicht weiter schlimm, aber ab 10 MB nervt es, ab 30 MB wird's unmöglich. Ich hab schon Dellen im Monitor vom Draufklopfen wenn mal wieder ein 30 MB-Download bei 80-90% abbricht ;) -- Marco Dieckhoff icq# 22243433 PGP key 9EFA D64F 5DAA D36B E0E7 CE1B 9E1B 4903 0C51 1632 --------------------------------------------------------------------- To unsubscribe, e-mail: suse-linux-unsubscribe@suse.com For additional commands, e-mail: suse-linux-help@suse.com
Hi Marco, * Marco Dieckhoff wrote on 27 Aug 2000:
Ich habe oft Probleme mit abbrechenden Downloads, z.B. beim Downloaden von xoom.com, aber auch bei anderen Free-Hostern...
Das Problem ist, diese Free-Hoster verwenden fast immer scriptbasierte Downloads, daß heißt Squid kann die Downloads nicht abfangen:
Was heißt denn scriptbasiert ? Ich kenne z.B. solche Sachen, wo du eine Downloadseiter hast, und dann über ein Redirect oder so die eigentliche Datei geladen wird... <netter Versuch> Dann müßte man aber entweder abbrechen und die URL kopieren oder die Seite im Quelltext parsen. </netter Versuch *g*> Gruß, Sebastian -- "No worries." - Rincewind Sebastian Helms - mailto:sebastian@helms.sh (PGP available) --------------------------------------------------------------------- To unsubscribe, e-mail: suse-linux-unsubscribe@suse.com For additional commands, e-mail: suse-linux-help@suse.com
Hi, Sebastian Helms wrote:
* Marco Dieckhoff wrote on 27 Aug 2000:
Das Problem ist, diese Free-Hoster verwenden fast immer scriptbasierte Downloads, daß heißt Squid kann die Downloads nicht abfangen:
Was heißt denn scriptbasiert ? Ich kenne z.B. solche Sachen, wo du eine Downloadseiter hast, und dann über ein Redirect oder so die eigentliche Datei geladen wird... Das heißt, daß das was ein CGI rausspuckt runtergeladen wird auf Pladde gespeichert wird .... Ich nehme nicht an, daß die bei ihren Scripts vorgesehen haben, daß man mittendrin anfängt - also wird es IMHO nicht funktionieren, fortzusetzen.
So sieht so 'ne URL z.B: aus: http://207.240.68.59/files/05folders17/1104/9635798185783811.gif?a \ =3NZ17KXLNB6ZXGZ7&n=%5Bgwl-divx%5D-eiskalte_engel_german-dvdrip-ex \ e.gif&m=application/octet-stream&fs=10000085&v=1&ip=62.46.234.208& \ fd=6649637&oid=192 ... hoffnungslos ...
<netter Versuch> Dann müßte man aber entweder abbrechen und die URL kopieren oder die Seite im Quelltext parsen. </netter Versuch *g*> geht schlecht :-) (schon, aber nicht mit dem gewünschten Ergebnis)
Adalbert --------------------------------------------------------------------- To unsubscribe, e-mail: suse-linux-unsubscribe@suse.com For additional commands, e-mail: suse-linux-help@suse.com
On Sun, Aug 27, 2000 at 01:34:36PM +0200, Marco Dieckhoff wrote:
Nun die eigentliche Frage: Ist es irgendwie möglich, Netscape auch bei scriptbasierten Downloads beizubringen, zu cachen oder ein Resume zu machen? Können das neuere Versionen vom Netscape? Von mir aus kann's auch ein andere Browser und/oder beliebige Zusatzsoftware sein.
Ist eher ein Workaround: Netscape schreibt in seinem Downloadfenster ja, wo er die Datei herholt, und wo er sie abzulegen gedenkt. Interessant ist, wo er sie herholt: da steht nämlich die richtig aufgelöste Adresse und nicht der redirect. Damit copy und in ein xterm mit wget rein, fertig. Nicht elegant, aber machbar... Harry --------------------------------------------------------------------- To unsubscribe, e-mail: suse-linux-unsubscribe@suse.com For additional commands, e-mail: suse-linux-help@suse.com
Hallo Marco, Marco Dieckhoff wrote:
Nun die eigentliche Frage: Ist es irgendwie möglich, Netscape auch bei scriptbasierten Downloads beizubringen, zu cachen oder ein Resume zu machen? Können das neuere Versionen vom Netscape? Von mir aus kann's auch ein andere Browser und/oder beliebige Zusatzsoftware sein.
Ich starte den DL dann immer mit Netscape, kopiere mir dann die URL aus dessen DL-Fensterlein, und werf diese URL (das Scriptergebnis) dann wget vor, und breche dann den Netscape-DL ab. So habe ich bisher fast alles downloaden koennen. CU David --
Irgendwann werden sie glauben. Der Mensch ist zum Glauben geboren, sonst wäre dieKirche nicht so reich. Ui, der is schön. Darf ich den siggen? Bidde bidde. [Jakob Krieger und Marian°®¥ in dag°]
--------------------------------------------------------------------- To unsubscribe, e-mail: suse-linux-unsubscribe@suse.com For additional commands, e-mail: suse-linux-help@suse.com
participants (5)
-
a.michelic.suse@aon.at
-
David@dhaller.de
-
harald.zahn@gmx.de
-
linux@jwr.de
-
sebastian@helms.sh