Tom,<br><br>Hmm, what I'd probably do is one of the following<br>1) If he wants version history, write a bash script to tar the files that you feel are crucial (/home, /etc..) on his system, put them in a cronjob, have the .tgz be saved to the same location, then have rsync copy over the files in /home/backups or something to your server. 
<br>2) If he just wants backups and version history isn't important, then rsync his /etc, /home, and whatever else you want to a location on your server. Set rsync to only copy over the files that are either updated or new.
<br><br>This is the way I would do it. Good luck.<br><br><div><span class="gmail_quote">On 8/8/06, <b class="gmail_sendername">Emerson, Tom</b> &lt;<a href="mailto:Tom.Emerson@wbconsultant.com">Tom.Emerson@wbconsultant.com
</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">I've set up a linux system for a friend, and even thought far enough<br>
ahead to set up a couple of cron-automated backup jobs so that if he<br>hoses something, I'll at least have something I can recover from (though<br>I'm finding it's painfully slow...)<br><br>He recently had some (minor?) corruption on his hard drive, and it made
<br>me realize that the backups are all on the same physical device -- while<br>this is OK for cases where he munges a config file or some such, but<br>doesn't do diddly if he loses the drive itself, so I'm formulating &quot;plan
<br>B&quot;<br><br>It turns out that SuSE's administrative user interface (Yast) has a<br>module for creating fairly rudimentary backups and automating them,<br>which is what I've done (one for the &quot;user&quot; backup of /home, and another
<br>&quot;system&quot; backup of things like /etc, the actual packages that are<br>installed, and so on)&nbsp;&nbsp;You have the option of a &quot;plain&quot; tar file,<br>gzipped tar file, gzipped tar file of tar sub-files, and so on.&nbsp;&nbsp;About
<br>the only other thing you control is the location of the resulting file<br>and &quot;how many generations&quot; to keep on disk.<br><br>I'm not sure, but I think that the way this works is that the program<br>first renames any prior instance of the named backup file (based on
<br>cdate?), then creates the new backup -- OR -- it renames the backup at<br>the completion -- either way, what I typically &quot;see&quot; in the directory<br>are files named with the date &amp; time (14 digit number) followed by the
<br>name I gave it, so for instance you might see this in the directory:<br><br>&nbsp;&nbsp; 20060807030456-user.tgz<br>&nbsp;&nbsp; 20060807235214-system.tgz<br><br>What I'd like to do is create a script to run [some time...] after the<br>backup to copy the file to my server (via scp, most likely) at a time
<br>when I'm not likely to be using the system (4:45 am, for instance...)<br>any suggestions on how to go about it?<br></blockquote></div><br><br clear="all"><br>-- <br>Matthew Gallizzi