Tom,<br />I am surprised that you think reliability is the issue - I thought we could make it quite reliable by having multiple redundant servers.<br />I expected the criticism to be complexity - to make it work you need something along the lines of the following:<br />1. A 'master' which maintains a database of the available servers, whether they are alive or not, and how fast they are.<br />2. Some 'deputies' which synchronise themselves with the master and take over its duty if the master dies (the 'take over' bit is the bit I don't know how to do - will have to do something with DNS I suppose...).<br />3.  When a request comes in the current master decides which sever to send the request to and passes it on.<br /><br />Therefore I think the main issue is that this is rather complicated and may  be difficult to maintain, rather than a reliability issue as such?   <br />There is of course the additional processing step of choosing a server, which could slow things down, but I suppose it is just a scan through the bounding boxes of the various servers to see which ones can meet this request, so it might not add much onto the overall request.<br /><br />Graham.<br /><br />On Sep 8, 2009 8:46pm, Tom Hughes <tom@compton.nu> wrote:<br />> On 08/09/09 19:41, Graham Jones wrote:<br />> <br />> <br />> <br />> <br />> This would work for a single 'main' server, but I like the idea of it<br />> <br />> being distributed with lots of little ones (for example the computer in<br />> <br />> my attic could serve Northern England, someone else could do Belgium<br />> <br />> etc.).   I don't know how to deal with re-directing the requests without<br />> <br />> a central main server though...any ideas?<br />> <br />> <br />> <br />> <br />> That kind of distribution is, in my opinion, a terrible idea. Such a system will just never be reliable.<br />> <br />> <br />> <br />> Tom<br />> <br />> <br />> <br />> -- <br />> <br />> Tom Hughes (tom@compton.nu)<br />> <br />> http://www.compton.nu/<br />>