hi matthieu,<br><br>the new code that justin implemented doesn&#39;t require mpi. it just requires the native torque/sge and hopefully lfs install.<br><br clear="all">cheers,<br><br>satra<br>
<br><br><div class="gmail_quote">On Sun, Jul 18, 2010 at 2:06 PM, Matthieu Brucher <span dir="ltr">&lt;<a href="mailto:matthieu.brucher@gmail.com">matthieu.brucher@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
Hi,<br>
<br>
I don&#39;t know, as I only have access to clusters where $HOME is<br>
different. I should be able to get around by directly logging on<br>
nodes, but I have to ask the administrators. LSF has more options than<br>
SGE/Torque. At least when I checked, I could implement the same<br>
environment. Job arrays are supported for a long time, so this is not<br>
an issue.<br>
The more worrying part may be the MPI backend. They are not launched<br>
in the same way :|<br>
<br>
Matthieu<br>
<br>
2010/7/18 Satrajit Ghosh &lt;<a href="mailto:satra@mit.edu">satra@mit.edu</a>&gt;:<br>
<div class="im">&gt; if i&#39;m not mistake this is related to the furl files. if we can implement<br>
&gt; furl passing, we won&#39;t need the the engines to have the same $HOME as the<br>
&gt; controller. btw, since you have LSF, does it have the same options as<br>
&gt; SGE/Torque? Assuming you have the same home, can you run ipython on an lsf<br>
&gt; cluster.<br>
&gt;<br>
&gt; cheers,<br>
&gt;<br>
&gt; satra<br>
<br>
<br>
</div>--<br>
<div><div></div><div class="h5">Information System Engineer, Ph.D.<br>
Blog: <a href="http://matt.eifelle.com" target="_blank">http://matt.eifelle.com</a><br>
LinkedIn: <a href="http://www.linkedin.com/in/matthieubrucher" target="_blank">http://www.linkedin.com/in/matthieubrucher</a><br>
</div></div></blockquote></div><br>