Google Vertex AI
▶아키텍처 다이어그램
점선 애니메이션은 데이터 또는 요청의 흐름 방향을 나타냅니다
ML 모델을 프로덕션에 올리려면 학습 인프라(GPU 서버), 모델 저장소, 서빙 엔드포인트, 모니터링을 각각 준비해야 합니다. 도구를 직접 조합하면 인프라 관리가 ML 연구보다 더 큰 부담이 됩니다.
Vertex AI는 학습(Training), 모델 저장소(Model Registry), 서빙(Endpoint)을 하나로 묶습니다. AutoML은 데이터만 넣으면 모델을 자동 생성하고, 커스텀 학습은 TensorFlow/PyTorch 코드를 GPU 클러스터에서 실행합니다. 완성된 모델을 Endpoint에 배포하면 자동 스케일링되는 REST API가 됩니다.
Vertex AI와 BigQuery ML은 둘 다 ML을 실행하지만 접근 방식이 다릅니다. BigQuery ML은 SQL 안에서 간단한 모델을 학습하고 예측하는 데 초점이 있고, Vertex AI는 대규모 커스텀 학습, AutoML, 모델 서빙까지 전체 ML 라이프사이클을 다룹니다. SQL로 해결되는 수준이면 BigQuery ML, 본격적인 ML 파이프라인이 필요하면 Vertex AI입니다.
예전에는 ML 모델을 만들려면 Jupyter 노트북에서 실험하고, 학습용 GPU 서버를 따로 관리하고, Flask로 서빙 서버를 만들어야 했습니다. 이 파편화된 과정을 하나의 플랫폼으로 통합하려는 흐름에서 Vertex AI가 나왔습니다.
이미지/텍스트 분류, 수요 예측, 추천, 이상 탐지처럼 커스텀 모델이 필요한 경우에 적합합니다. 사전 학습된 API(Vision, Translation, Speech)로 해결되는 작업에는 별도 학습이 불필요합니다.
더 깊게 보기
현재 페이지의 개념 설명을 본 뒤 공식 문서로 바로 이동합니다.