<div dir="ltr"><div><div><div><div><div>It is extremely odd J.C. and thanks very much for your reply, has given me something to think about. I am not at the office now but before I left, after the copying over of the rrds files from Friday all looked ok, graphs were being generated properly, from xymon, bbwin from hosts and devmon. Then an hour later just as I was leaving, I saw a few checks having the issue again. It was slowly starting again. I had decided I had to do the *restore* of the rrds though just for peace of mind about the network intervention at the weekend not being anything to do with this whole issue (which would be very unlikely in the first place) so now I can be sure that is not the culprit.<br><br></div>To answer your question, it is all (bar none actually) types of RRD (conn, disk, memory, devmon etc).  I did not see anything unusual in the status history around that time, but now that it has happened again today after the restore, I have some good time stamps to check through log files tomorrow.  Perhaps not all hosts/checks will be affected by the time I arrive at the office tomorrow. <br><br></div>At the vm level I have not checked yet (handled by another team) but will do tomorrow. I did check the server from within RHEL and cpu/memory/disk seemed fine today and last few days.<br><br></div>I still think it's (our) Xymon that's having some difficulties somewhere although general host memory corruption is something I will look at.<br><br></div>Thanks again, will post more when I make some discoveries.<br><br></div>Steve<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jul 7, 2015 at 6:02 PM, J.C. Cleaver <span dir="ltr"><<a href="mailto:cleaver@terabithia.org" target="_blank">cleaver@terabithia.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5"><br>
<br>
On Tue, July 7, 2015 5:13 am, Steve B wrote:<br>
> Hi all,<br>
><br>
> This weekend, something happened with all our graphs. Every hosts' graphs<br>
> are either corrupted or distorted and the history is unusable. I have<br>
> checked all the usual places for graphs logging, rrd-data.log and<br>
> rrd-status.log and other system log files but I am stumped as to where to<br>
> start fixing this.  We are looking at restoring rrds from previous<br>
> snapshot<br>
> which may or may not work but still would like to solve this mystery.<br>
><br>
> I have attached 2 screens but I do not know if these are viewable on the<br>
> mailing list.  It is hard to explain without but essentially there are<br>
> huge<br>
> numbers in our graphs such<br>
> 3945789385793485793847593847593847593847593847593845793485739 and lots of<br>
> '?' and there is no usable history, just a straight line along the base<br>
> with one peak (or two) around the time this all happened (with a day or<br>
> two<br>
> out either way). If you try to zoom in, you get to a screen that just says<br>
> 'zoom source image' and it's a black screen but if you hover your mouse<br>
> over the screen you can find an area that is selectable and this shows a<br>
> close up of the zoom area<br>
><br>
> rrdtool info example (for the same screenshot host test):<br>
><br>
> filename = "disk,C.rrd"<br>
> rrd_version = "0003"<br>
> step = 300<br>
> last_update = 1436270189<br>
> ds[pct].type = "GAUGE"<br>
> ds[pct].minimal_heartbeat = 600<br>
> ds[pct].min = 0.0000000000e+00<br>
> ds[pct].max = 1.0000000000e+02<br>
> ds[pct].last_ds = "89"<br>
> ds[pct].value = 7.9210000000e+03<br>
> ds[pct].unknown_sec = 0<br>
> ds[used].type = "GAUGE"<br>
> ds[used].minimal_heartbeat = 600<br>
> ds[used].min = 0.0000000000e+00<br>
> ds[used].max = NaN<br>
> ds[used].last_ds = "28436524"<br>
> ds[used].value = 2.5308506360e+09<br>
> ds[used].unknown_sec = 0<br>
> rra[0].cf = "AVERAGE"<br>
> rra[0].rows = 576<br>
> rra[0].pdp_per_row = 1<br>
> rra[0].xff = 5.0000000000e-01<br>
> rra[0].cdp_prep[0].value = NaN<br>
> rra[0].cdp_prep[0].unknown_datapoints = 0<br>
> rra[0].cdp_prep[1].value = NaN<br>
> rra[0].cdp_prep[1].unknown_datapoints = 0<br>
> rra[1].cf = "AVERAGE"<br>
> rra[1].rows = 576<br>
> rra[1].pdp_per_row = 6<br>
> rra[1].xff = 5.0000000000e-01<br>
> rra[1].cdp_prep[0].value = 4.4500000000e+02<br>
> rra[1].cdp_prep[0].unknown_datapoints = 0<br>
> rra[1].cdp_prep[1].value = 1.4218146600e+08<br>
> rra[1].cdp_prep[1].unknown_datapoints = 0<br>
> rra[2].cf = "AVERAGE"<br>
> rra[2].rows = 576<br>
> rra[2].pdp_per_row = 24<br>
> rra[2].xff = 5.0000000000e-01<br>
> rra[2].cdp_prep[0].value = 2.0470000000e+03<br>
> rra[2].cdp_prep[0].unknown_datapoints = 0<br>
> rra[2].cdp_prep[1].value = 6.5402986560e+08<br>
> rra[2].cdp_prep[1].unknown_datapoints = 0<br>
> rra[3].cf = "AVERAGE"<br>
> rra[3].rows = 576<br>
> rra[3].pdp_per_row = 288<br>
> rra[3].xff = 5.0000000000e-01<br>
> rra[3].cdp_prep[0].value = 1.2727000000e+04<br>
> rra[3].cdp_prep[0].unknown_datapoints = 0<br>
> rra[3].cdp_prep[1].value = 4.0657944878e+09<br>
> rra[3].cdp_prep[1].unknown_datapoints = 0<br>
><br>
> This weekend we had a network intervention in that we moved some network<br>
> connections in one of the 2 data centers but there was no downtime as we<br>
> switched the network connectivity to the other data room. Our Xymon server<br>
> is running on a virtual server (RHEL5) and the version we are using is<br>
> 4.3.19.<br>
><br>
> All graphs were fine until this point.  Any ideas?<br>
<br>
<br>
</div></div>This is quite odd.<br>
<br>
There aren't too many things that could concertedly affect all RRD's like<br>
that within the code path. Is it the same type of RRD (eg, disk) for all<br>
hosts, or all RRDs for all hosts? Did you see anything unusual in the<br>
status history snapshots (if any) taken around this time?<br>
<br>
If it happened to RRDs on both the 'data' and 'status' channels at once,<br>
that narrows down the possibilities even further. I'm assuming you've<br>
checked syslog for host level events for the VM, but did anything odd<br>
happen with the hypervisor around this time? General host memory<br>
corruption is about the only thing I can think of that might cause this --<br>
haven't run into it before.<br>
<br>
<br>
Regarding fixing the issue, restoring from backups might be the easiest<br>
option. If you want to save the surrounding data, your best bet might be<br>
to export/reimport the RRD to remove the "spike". I've used<br>
<a href="http://www.serveradminblog.com/2010/11/remove-spikes-from-rrd-graphs-howto/" rel="noreferrer" target="_blank">http://www.serveradminblog.com/2010/11/remove-spikes-from-rrd-graphs-howto/</a><br>
in the past for doing this. It's easiest to script around the various<br>
types of RRD files, using a similar max setting for all "la" graphs, for<br>
example.<br>
<br>
I seem to recall someone posting a script they had used for this in the<br>
past, but a search of the list archives hasn't revealed anything for me.<br>
<br>
<br>
HTH,<br>
<br>
-jc<br>
<br>
<br>
</blockquote></div><br></div>