Hi Brian,<br><br>after your last hints, I'm now indexing for around 14 days and it seems that I might have to wait another fourteen?<br><br>I started with<br><br>-bash-3.2$ php util.index.php --index<br>Rank: 0, total to do: 0 <br>
Rank: 1, total to do: 0 <br>Rank: 2, total to do: 0 <br>Rank: 3, total to do: 0 <br>Rank: 4, total to do: 0 <br>Rank: 5, total to do: 0 <br>Rank: 6, total to do: 0 <br>Rank: 7, total to do: 0 <br>Rank: 8, total to do: 0 <br>
Rank: 9, total to do: 0 <br>Rank: 10, total to do: 0 <br>Rank: 11, total to do: 0 <br>Rank: 12, total to do: 0 <br>Rank: 13, total to do: 0 <br>Rank: 14, total to do: 0 <br>Rank: 15, total to do: 0 <br>Rank: 16, total to do: 0 <br>
Rank: 17, total to do: 0 <br>Rank: 18, total to do: 0 <br>Rank: 19, total to do: 0 <br>Rank: 20, total to do: 0 <br>Rank: 21, total to do: 0 <br>Rank: 22, total to do: 0 <br>Rank: 23, total to do: 0 <br>Rank: 24, total to do: 0 <br>
Rank: 25, total to do: 74241 <br>355538: 1, 74241 remaining (15:32:37)<br>360464: 1, 74240 remaining (15:34:12)<br>365465: 2, 74239 remaining (15:35:47)<br><br>and now I'm here:<br><br>483447: 233, 56315 remaining (06:11:00)<br>
483448: 706, 56082 remaining (12:15:01)<br>483449: 470, 55376 remaining (05:27:16)<br><br>If I'm correct, this means 20.000 of 70.000 in 14 days?<br>Projecting this in the future, once this will be done, I can start over with two month of diff file indexing.<br>
<br>Is there no other possibility like downloading a zipped tarball of the sqldump instead of running the full procedure on every machine?<br><br>If my assumptions are correct, it looks like better stopping my Amazon experiments as they become far too expensive. As you always had helpful hints: is there a way out for me?<br>
<br>Kind regards<br>Frans<br>