Hallo, wir haben SuSE Linux 7.3. Darauf haben wir folgendes Problem: Ein Programm, dass 1200MB RAM verbraucht, stuerzt irgendwann mit 'segmetation fault' ab. Und das, obwohl die Grenzen des Rechners noch lange nicht erreicht sind. Mehrere kleine Programme gleichzeitig, die zusammen mehr Resourcen verbraten, laufen anstandslos durch. Der Hersteller des Compilers (Portland Group) schwoert, dass das nicht an seinem Compiler liegt. Gibt es irgendwo versteckt im System noch eine Begrenzung, wieviel ein einzelner Prozess brauchen darf? Oder ist da ein generelles Linux-Problem? Ein Programmierfehler kann es imho nicht sein, da in dem gesamten Code kein Speicher dynamisch allokiert wird (fortran77 kennt sowas gar nicht). Ausserdem stuerzt der Code nicht irgendwann ab (so das man den Crash im Debugger verfolgen koennte), sondern direkt beim Start: Sobald das Programm gestartet wird, gibt es mit segmentation fault zurueck. Ist vielleicht da die Ursache im Kernel? Wenn ja, wo koennte es sein?Gruss, Ulrich Hiller Ulrich Hiller Max-Planck-Institut fuer Astronomie Koenigstuhl 17 69117 Heidelberg Germany phone +49 6221 528238 fax +49 6221 528246 email hiller@mpia.de