<br><br><div class="gmail_quote">2012/7/4 sly (sylvain letuffe) <span dir="ltr"><<a href="mailto:liste@letuffe.org" target="_blank">liste@letuffe.org</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">> Ce dont j'avais peur c'est que le<br>
> problème que j'ai rencontré sur le dump d'une région puisse aussi arriver<br>
> à l'échelle d'un pays. D'après ce que dit le readme de geofabrik dans<br>
> clipbounds, c'est la même méthode utilisée donc ça pourrait aussi arriver.<br>
> Et d'ailleurs c'est arrivé comme disait Frédéric.<br>
<br>
</div>Le mieux serait peut-être de re-vérifier, beaucoup ont fait remonter<br>
l'information à geofabrik et je sais que le polygone utilisé pour découper la<br>
france a pas mal été changé ces dernières années et peut-être que maintenant,<br>
si tu télécharges le fichier france.osm tu aura toute la france (métropolitaine<br>
en tout cas)<br>
<div class="im"><br>
<br>
> Pour résumer, si je souhaite:<br>
> - avoir un nominatim de plusieurs pays<br>
> - avoir toutes les données, quitte à déborder<br>
> - appliquer des diff updates<br>
><br>
> Est-ce que je peux faire ça pour les pays en questions seulement ?<br>
> ou c'est<br>
> trop compliqué et il vaut mieux travailler direct sur le monde entier ?<br>
<br>
</div>Si tu veux appliquer les diff updates, ça change pas mal de chose car c'est<br>
l'opération qui nécessite le plus de ressources serveur (i/o principalement).<br>
<br>
En clair, si tu as besoin des diffs, il te faut une grosse bécanne, et parti de<br>
là, importer le monde ne te prendra que 2 jours au max, donc j'ai envie de<br>
dire, importe le monde directement.<br>
<br>
Seul cas : tu utilises des disques de trop petite taille pour contenir une<br>
base monde et là il va falloir ruser. (Si ton projet et professionnel, essayes<br>
plutôt de convaincre de te faire payer des gros disques, tu y gagnera<br>
plusieurs journées qui auraient couté plus que les disques ;-) )<br>
<div class="HOEnZb"><div class="h5"><br></div></div></blockquote><div> </div><div>Oui alors l'idée c'était de voir si ça pouvait tenir sur des SSD?</div><div>Je cite la page Nominatim/Install:</div><div><span style="background-color:rgb(255,255,255);font-family:sans-serif;font-size:13px;line-height:19px">"For a full planet install you will need a minimum of 600GB of hard disk space (as of January 2012)"</span> </div>
<div>"<span style="background-color:rgb(255,255,255);font-family:sans-serif;font-size:13px;line-height:19px">On a 12-core machine with 32GB RAM and standard SATA disks, the initial import (osm2pgsql) takes around 20 hours and the indexing process another 250 hours. Only, 8 parallel threads were used for this setup because I/O speed was the limiting factor."</span></div>
<div><br></div><div>600GB c'est la taille de la db dans postgresql à la fin à votre avis ?</div><div>Sinon sur du SATA ça veut dire 10 jours à monopoliser les disques si je comprends bien.</div></div>