VESSL
VESSL é uma plataforma ML/MLOps de ponta a ponta que permite aos engenheiros de machine learning (MLEs) personalizar e executar tarefas escaláveis de treino, otimização e inferência em segundos. Estas tarefas individuais podem depois ser encadeadas usando o nosso gestor de fluxos de trabalho para CI/CD. Abstraímos as infraestruturas de computação complexas necessárias para gerir infraestruturas e pipelines de ML numa interface web e CLI fáceis de usar, acelerando assim o ciclo do treino à implementação.\n\nConstruir, treinar e implementar modelos de machine learning em produção depende de infraestruturas de computação complexas e detalhes do sistema. Isto obriga cientistas de dados e investigadores de ML a gastar a maior parte do seu tempo a combater desafios de engenharia e infraestruturas obscuras em vez de aproveitarem as suas competências principais – desenvolver arquiteturas de modelos de última geração. \n\nSoluções existentes como Kubeflow e Ray ainda são demasiado de baixo nível e requerem meses de configuração complexa por uma equipa dedicada de engenharia de sistemas. As principais equipas de ML da Uber, Deepmind e Netflix têm uma equipa dedicada de engenheiros MLOps e uma plataforma interna de ML. No entanto, a maioria dos praticantes de ML, mesmo em grandes empresas de software como a Yahoo, ainda depende de scripts improvisados e ficheiros YAML não mantidos e perde horas só para configurar um ambiente de desenvolvimento.\n\nVESSL ajuda empresas de qualquer tamanho e indústria a adotar práticas escaláveis de ML/MLOps instantaneamente. Ao eliminar os encargos nos sistemas de ML com VESSL, empresas como Hyundai Motors, Samsung e Cognex estão a colocar em produção pipelines de machine learning de ponta a ponta em poucas horas.





