Me baso en ideas para usar un clúster Spark de múltiples inquilinos. El clúster ejecuta trabajos a pedido para un inquilino específico.

¿Es posible "conocer" los recursos específicos utilizados por un trabajo específico (por motivos de pago)? P.ej. Si un trabajo requiere que varios nodos en kubernetes se asignen automáticamente, ¿es posible rastrear qué trabajos de Spark (y el inquilino al final) que iniciaron estas asignaciones de recursos? ¿O los trabajos siempre se distribuyen uniformemente en los recursos asignados?

Intenté encontrar información en el sitio de Apache Spark y en otros lugares en Internet sin éxito.

0
nicgul 26 sep. 2019 a las 12:24

1 respuesta

La mejor respuesta