<div dir="ltr"><div>Hi,</div><div>I work for a big stats institute that have millions of addresses stored in a Oracle database.</div><div>Data interacts with a SQL/JAVA search engine that is almost impossible to port.<br></div><div>We can't afford to pay this system anymore and only have a few months, maybe more than a year, to switch to a different system.</div><div>Our software takes addresses in big files from external providers, add geocoding data and stats to each address and return the extended data to providers as bigger files.<br></div><div><br></div><div>We need to switch to PostGreSQL, so I was thinking about :</div><div>- turning our adresses data into OSM format</div><div>- turning our non geo data (administrative confidential data) in tags related to geo addresses data</div><div>- putting all this on our own nominatim instance server with only french addresses</div><div>- developing a web interface based on existing OSM tools</div><div>- developing scripts that would make the match evaluation between provider address and nominatim address database<br></div><div><br></div><div>So I need to know if it's possible to make millions of search in a bulk process, via nominatim, in command line, from a big input file (let's say csv) in a few hours, less than a whole night, searching through only french addresses. And how do I do that? I saw things about GeoPy but I don't want to slow the process with web API, just terminal.</div><div><br></div><div>I guess there are less than 100 millions of addresses in our database. But providers sometime give 3millions addresses in a file.<br></div><div><br></div><div>It would be a win/win as we could become a great contributor to OSM having all our data in OSM format and also use almost all tools OSM has already provided. We already give some info like city administrative borders/shapes via OpenData program.</div><div><br></div><div>Thanks all for your help.<br></div></div>