Jan Hendrik Ribbat wrote:
hallo Leute,
so langsam bin ich hier wirklich am verzweifeln. Ich schildere noch einmal kurz das Problem.
Ich habe hier: Sun Ultra II mit Solaris 5.5.1, PC mit SuSE 7.0 (auch mit neuem Kernel 2.2.20) / 7.2 und RedHat 7.1 (Standort A)
Dann geht es über ein WAN-Verbindung zu einem anderen Firmenstandort. Dort steht eine Sun mit Solaris 5.8 (SERVER_XY) als NFS-Server. Dort steht im selben Subnet auch ein PC mit RedHat. (Standort B) Alle mounten ein Verzeichnis VIA NFS von der Sun. Während es an dem Standort "B" problemlos geht, funktioniert es an Standort "A" nur auf der Sun. Bei den Linux-Rechnern kommt bei bestimmten Verzeichnissen immer nur die Fehlerausgabe:
"kernel: nfs: server: SERVER_XY not responding, still trying"
...und nach ein paar Sekunden.
"kernel: nfs: task 123 can't get a request slot"
Das Problem tritt immer dann auf, wenn man versucht von bestimmten Verzeichnissen die Directory zu bekommen. Wie bereits gesagt, wenn deren Größe 4096 Byte überschreitet. Aus Verzeichnissen, die man listen kann, geht alles einwandfrei. Nun frage ich mich, ist es ein Timeoutproblem oder gibt es da grundsätzliche Schwierigkeiten, da das NFS unter Solaris anders ist. Aber dagegen spricht ja, daß der RedHat Rechner am Standort "B" läuft....
So etwas habe ich noch nicht erlebt *heul*
Hallo nocheinmal, gerade eben habe ich mal ethereal angeworfen und mir die Pakete angesehen. Dabei ist mir aufgefallen, daß er anfängt die NFS Pakete zu fragmentieren, wenn die Verzeichnisgröße sogar nur 2048 Bytes übersteigt und das das dirlisting dann nicht bis zum Ende kommt. Kann das vielleicht damit zusammenhängen???? Gruß Jan Hendrik