Tengo archivos descargados de un servidor CI usando get_url. Esto está bien, y utilizo la opción backup: yes para asegurarme de que puedo revertir.

Sin embargo, esos archivos son grandes (~ 100 MB cada uno) y me gustaría eliminarlos y conservar, digamos, los últimos N archivos.

0
nha 2 dic. 2016 a las 22:22

1 respuesta

La mejor respuesta

Por qué no utilizar find y archivo módulos?

Una aproximación aproximada de su código se parece a esto:

- name: find old files
  find:
    paths: "/var/tmp"
    age: "3600"
  register: files_to_delete
- name: delete old files
  file:
    path: '{{ item.path }}'
    state: absent
  with_items:
    - '{{ files_to_delete.files }}'
1
user2599522 2 dic. 2016 a las 22:44
No exactamente manteniendo la última N, pero eso es lo suficientemente agradable y simple como para que pueda usarlo :)
 – 
nha
2 dic. 2016 a las 22:47
2
Es cierto, pero es más ansible. Si lo desea, puede usar el comando de shell con - shell: find /var/tmp -name 'blah.txt.20*' | head -n -N | xargs rm -rf y puede modificar la búsqueda para que coincida con sus criterios.
 – 
user2599522
2 dic. 2016 a las 23:00