<div>This is an update to my original message about &quot;do file wild *SAC&quot; problem.<br></div><div>Katie Boyle helped me to figure out what was happening.</div><div><br></div><div>So, the problem is with the sac memory limit. The  script works fine with a few files but when I increase the number of them to 150, sac fails with the segfault. Apparently, &quot;do file wild *SAC&quot; wants to fit all *SAC data into the buffer and cannot. </div>
<div><br></div><div>The data files are 1 sps, 2 hour long LHZs. Each file is 29K (29436) long.</div><div><br></div><div>My sac version is the latest and greatest ver. 101.3b.</div><div>Is there a way to increase the total data size limit that can be used in sac?</div>
<div><br></div><div>The workaround in my case is to read the sac files one by one through the loop in the tshell outside sac.</div><div><br></div><div>Thanks,</div><div>Igor</div>