Conceptly
← 전체 목록
🤖

Amazon Bedrock

AI/ML파운데이션 모델 API 서비스

Bedrock은 이미 준비된 파운데이션 모델을 공통 API로 호출해 제품 기능에 붙이는 AI 계층입니다. 직접 학습 인프라를 만들지 않고도 생성형 모델의 추론 능력을 애플리케이션으로 가져옵니다.

아키텍처 다이어그램

🔗 관계 다이어그램

점선 애니메이션은 데이터 또는 요청의 흐름 방향을 나타냅니다

왜 필요한가요?

챗봇이나 요약 기능을 넣고 싶은데 모델 서빙, 스케일링, 공급자별 API 차이까지 직접 흡수하려 하면 제품 개발 속도가 급격히 떨어집니다. 기능 실험보다 모델 운영 준비가 먼저 커지면 진입 장벽이 너무 높아집니다.

왜 이런 방식이 등장했나요?

AI 기능을 직접 구축하려면 GPU 인프라 확보, 모델 학습, 파인튜닝, 보안 검토까지 수개월이 걸렸습니다. 챗봇 기능 하나를 추가하려 해도 팀이 클라우드 GPU 인스턴스 계약, 모델 가중치 관리, 데이터 보안 심사를 모두 직접 거쳐야 했고, 그 사이에 신제품 출시 일정은 계속 밀렸습니다. 이 진입 비용이 너무 높다 보니 AI 기능 실험 자체를 포기하는 팀이 많았습니다. 인프라 부담 없이 검증된 모델을 API로 바로 소비할 수 있는 Bedrock 같은 서비스가 빠르게 중요해진 이유입니다.

내부적으로 어떻게 동작하나요?

Bedrock의 동작은 두 갈래로 나뉩니다. 첫째는 단순 호출입니다. 이미 대규모 데이터로 사전 학습된 파운데이션 모델 — LLM(Large Language Model, 대규모 언어 모델)이나 이미지 모델 — 이 Bedrock 안에 준비돼 있고, 애플리케이션이 프롬프트와 파라미터를 담아 API 요청을 보내면 Bedrock이 해당 모델로 전달해 추론 결과를 응답으로 돌려줍니다. GPU 할당이나 모델 서빙 관리는 Bedrock이 맡으므로, 애플리케이션은 요청과 응답 형식에만 집중하면 됩니다. 둘째는 Knowledge Base를 이용한 RAG(Retrieval-Augmented Generation) 흐름입니다. 팀이 보유한 문서를 Knowledge Base에 등록하면, Bedrock이 문서를 벡터로 변환해 인덱싱합니다. 사용자 질문이 들어오면 먼저 벡터 검색으로 관련 문서 조각을 찾고, 그 조각을 프롬프트 컨텍스트에 삽입한 뒤 모델이 응답을 생성합니다. 모델이 학습하지 않은 사내 데이터를 기반으로 답변하게 만드는 구조입니다.

경계와 구분

Bedrock과 SageMaker는 둘 다 AI 서비스지만 쓰임이 다릅니다. Bedrock은 이미 준비된 모델을 호출하는 데 초점이 있고, SageMaker는 직접 모델을 학습하고 배포하는 데 초점이 있습니다. 프롬프트와 애플리케이션 로직으로 생성형 기능을 빠르게 붙이고 싶으면 Bedrock을 보고, 데이터와 학습 파이프라인까지 직접 운영해야 하면 SageMaker를 보면 됩니다.

언제 쓰나요?

고객센터 팀이 FAQ 문서 수백 건을 Knowledge Base에 연결해 놓고, 사용자 질문이 들어오면 관련 문서를 자동으로 찾아 프롬프트에 삽입한 뒤 모델이 답변을 생성하는 프로토타입을 일주일 안에 만든 사례가 전형적입니다. 기존에 상담사가 수동으로 검색하던 과정을 모델 호출 한 번으로 줄인 겁니다. 사내 문서 요약 봇도 비슷합니다. Slack에서 문서 링크를 보내면 Lambda가 Bedrock을 호출해 요약을 돌려주는 식입니다. 모델 학습 없이 프롬프트와 애플리케이션 로직만으로 기능이 완성되므로, 아이디어에서 프로토타입까지 걸리는 시간이 수개월에서 수일로 줄어듭니다. 자체 데이터로 모델을 직접 학습하거나 정밀 튜닝해야 하는 경우에는 맞지 않습니다.

챗봇/가상 비서텍스트 생성RAG 애플리케이션코드 생성