<div>Hello all,<br><br>This is my first post on this mailing list. I am working at the USGS, and currently trying to cross-correlate big amounts of files. Here is the description of my problem:<br><br><font size="2">
I am using a perl script to run SAC with. What I'm doing in my script is
running SAC, then loading files into the memory by pairs only. I compute
the cross-correlation, write the result into my hard drive, delete the
channels, and then load a new pair of files.<br>
I'm trying to compute about 13000 cross-correlations, but after a while,
I get an out of memory (error 301) error. And while monitoring the SAC
execution, it is obvious that the memory used by SAC is
increasing.<br><br>
Is there any way to fix this problem, or does exist a new version of SAC
solving it ?<br><br>Here is attached my perl script.<br><br>Thanks a lot for your help.<br>Florian Duret<br></font><br></div>