#5570 depende mucho del tipo de datos. Para configuración y texto plano puede funcionar, para otras cosas el rendimiento se resentirá. Git no está optimizado para trabajar con blobs binarios. Además, piensa en cómo va a crecer el histórico de ese repositorio, con el consumo de espacio y la penalización de rendimiento que tendrá moverse por toda esa locura de versiones, metadatos, etc. Además, en qué momento realizas el "commit" de los cambios para asegurarte que la versión que estás guardando es "coherente" ? (asegurándote que no estás tomando un "snapshot" mientras hay algo a medio hacer y la información no está en el momento más coherente).
Algo simple y parecido a lo que comentas son backups incrementales con rsync o rdiff-backup, de todas formas son backups que se hacen cada X tiempo (no constantemente). El otro día tuve que restaurar una versión de directorio con muuuuchos ficheros y se pasó varias horas tan sólo para darme una copia de dicha versión (también hay que decir que eran unos 800K ficheros).
Volviendo a lo de git, querer manejar con grano tan fino qué hace quien es fácil que a día de hoy se vuelva impráctico por lo que comento arriba.