利用Kubernetes和Helm进行高效的超参数调优
Hyperparameter Sweep面临的问题在进行Hyperparameter Sweep的时候,我们需要根据许多不同的超参数组合进行不同的训练,为同一模型进行多次训练需要消耗大量计算资源或者耗费大量时间。[*]如果根据不同的超参数并行进行训练,这需要大量计算资源。
[*]如果在固定计算资源上顺序进行所有不同超参数组合对应的训练,这需要花费大量时间完成所有组合对应的训练。
因此在落地时中,大多数人通过非常有限的几次手动微调他们的超参数就挑选一个相对最优的组合。
金币不够,路过,帮顶
页:
[1]