What is the preferred method of bulk upload nowadays? By bulk, I mean millions thousands of features with millions of nodes.<br><br>Assuming the preferred pseudocode for upload looks like this:<br><br>open changeset<br>  while more uploads:<br>
    upload a diff file<br>close changeset<br><br>... how many changes should we put inside of each diff file? How many uploads should we make in one changeset?<br><br>I assume that the capabilities API call will tell me some of this, but I'm not entirely sure which piece of the capabilities call lines up with which piece in my example.<br>
<br>Is the data written to the database after each diff upload or is it stored in memory, then written out at the close of a changeset?<br>