Loading...

Please wait while we load the page

    VESSL - VESSL ist eine End-to-End-ML/MLOps-Plattform, die Machine Learning Engineers (MLEs) ermöglicht, skalierbare Trainings-, Optimierungs- und Inferenzaufgaben in Sekunden anzupassen und auszuführen. Diese einzelnen Aufgaben können dann mit unserem Workflow-Manager für CI/CD pipelined werden. Wir abstrahieren die komplexen Compute-Backends, die zur Verwaltung von ML-Infrastrukturen und Pipelines erforderlich sind, in eine benutzerfreundliche Weboberfläche und CLI und beschleunigen so die Zeit von Training bis Bereitstellung. Der Aufbau, das Training und die Bereitstellung von Produktions-Machine-Learning-Modellen basieren auf komplexen Compute-Backends und Systemdetails. Dies zwingt Datenwissenschaftler und ML-Forscher dazu, die meiste Zeit mit technischen Herausforderungen und undurchsichtiger Infrastruktur zu verbringen, anstatt ihre Kernkompetenzen – die Entwicklung modernster Modellarchitekturen – zu nutzen. Bestehende Lösungen wie Kubeflow und Ray sind immer noch zu niedrigschwellig und erfordern monatelange komplexe Einrichtung durch ein dediziertes Systemengineering-Team. Top-ML-Teams bei Uber, Deepmind und Netflix haben ein eigenes Team von MLOps-Ingenieuren und eine interne ML-Plattform. Die meisten ML-Praktiker, selbst bei großen Softwareunternehmen wie Yahoo, verlassen sich jedoch immer noch auf improvisierte Skripte und ungewartete YAML-Dateien und verschwenden Stunden nur für die Einrichtung einer Entwicklungsumgebung. VESSL hilft Unternehmen jeder Größe und Branche, skalierbare ML/MLOps-Praktiken sofort zu übernehmen. Durch die Beseitigung der Overheads in ML-Systemen mit VESSL bringen Unternehmen wie Hyundai Motors, Samsung und Cognex End-to-End-Machine-Learning-Pipelines innerhalb weniger Stunden in Produktion. | AI-U.com