<br>
<div>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">* History logs and RRD files - i.e. the Hobbit modules that need to<br>store data on disk - can be distributed among multiple servers.
<br>Hobbit will automatically send updates to the correct server, and<br>fetch data from the server holding it when generating webpages.<br>This also applies to the client-data logs that are stored when<br>a critical event occurs. (
4.3.0)</blockquote>
<div> </div>
<div>Is this leading the way to a hot-cold or hot-hot HA setup?  I understand how one server could distribute jobs to a farm.  But what if the central server goes down?  If data is sync'ed throughout the environement how could the 'freshest' be guaranteed through failures?
</div>
<div> </div>
<div>I am looking to implement a HA Hobbit solution where 10 minutes of recovery is acceptable while preserving historical data.</div>
<div> </div>
<div>Are you just writing 'load sharing logic' or do you plan on developing failover/recovery logic as well?</div>
<div> </div>
<div>Scott Walters</div>
<div>-PacketPusher</div></div>