AI/ML

[Case Study] 모빌리티
11월14

[Case Study] 모빌리티

5/5 - (평가 개수 : 1)

The Customer 모빌리티 사업을 분할하여 분사한 회사입니다. 20년 이상 운영해 온 내비게이션 서비스를 바탕으로 대리운전, 주차, 공항버스, 킥보드 등 모빌리티와 관련된 다양한 서비스를 키워오며 “통합 모빌리티 플랫폼” 입니다. The Challenge IVR 시나리오 통합 : 사업마다 분리되어 있는 콜 인프라를 Amazon Connect 로 마이그레이션 하면서 동일한 수준의 서비스를 할 수 있는 시나리오로 통합하고, 상담 APP도 하나로 통합하면서 상담사는 여러 개의...

자세히보기
AI 시대의 개발 혁신: Amazon Q Developer 활용하기
10월28

AI 시대의 개발 혁신: Amazon Q Developer 활용하기

5/5 - (평가 개수 : 4)

Amazon Q Developer는 AWS에서 애플리케이션 개발을 가속화하는 Generative Artificial Intelligence(Gen AI) 도우미입니다. 통합 개발 환경(IDE)에서 사용될 때, Amazon Q는 소프트웨어 개발을 지원하며, 코드에 대한 대화, 인라인 코드 완성, 새로운 코드 생성, 보안 취약점 스캔, 코드 업그레이드 및 최적화와 같은 기능을 제공합니다. 이 도구는 개발자가 AWS 내부 또는 외부에서 시간 소모적인 수작업을 줄일 수 있도록 돕는 다양한 기능을 갖추고 있습니다....

자세히보기
지식그래프에 대한 RAG 구현하기
10월27

지식그래프에 대한 RAG 구현하기

5/5 - (평가 개수 : 4)

LLM은 환각 현상으로 인해 부정확한 정보를 생성하곤 합니다. RAG는 LLM의 응답 생성 과정 중 관련 문서를 검색하여 추가 컨텍스트를 제공함으로써 정확성을 높이도록 해왔습니다. 그러나 기존의 RAG 접근 방식은 주로 벡터 검색에 의존하여 복잡한 관계와 맥락을 충분히 반영하지 못하는 한계가 있었으며, 이런 배경에서 지식 그래프와 RAG를 결합한 GraphRAG가 주목받고 있습니다. GraphRAG는 단순한 키워드 매칭이나 벡터 유사도를 넘어, 데이터 간의 복잡한...

자세히보기
Bedrock으로 외부 모델 가져오기
10월25

Bedrock으로 외부 모델 가져오기

5/5 - (평가 개수 : 1)

[가져온 모델] 알아보기 2024년 10월 21일, 가져온 모델(Amazon Bedrock Custom Model Import) 기능이 GA 되었습니다. 이 기능을 통해 Bedrock은 내부 모델 튜닝을 통한 사용자 지정 모델 사용뿐만 아니라, Hugging Face와 같은 외부 저장소에 공개된 모델 혹은 직접 로컬에서 학습한 모델을 직접 가져와 사용할 수 있는 기능을 제공합니다. 이를 통해 사용자는 Bedrock 내의 모델에 한정되지 않고 더욱 다양한 모델에 접근할...

자세히보기
[Case Study] 웨이브 : OTT와 BigQuery를 통한 데이터의 활용가치 극대화
3월04

[Case Study] 웨이브 : OTT와 BigQuery를 통한 데이터의 활용가치 극대화

3.7/5 - (평가 개수 : 6)

The Customer 웨이브는 실시간 영상 스트리밍을 중심으로 하는 서비스 입니다. 웨이브는 풍부한 콘텐츠 속에서 적절한 작품을 추천하는 것이 이용자들의 만족도를 높이면서도 콘텐츠의 생명력을 높일 수 있다고 판단했습니다. BigQuery는 이용자들의 반응을 실시간으로 수집하고 손쉽게 활용할 수 있는 길을 열어주었습니다. 이를 통해 콘텐츠 배치부터 UX 구성까지 데이터를 바탕으로 더 나은 미디어 경험을 만들어내고 있습니다. The Challenge 웨이브의 콘텐츠는 기본적으로 스트리밍으로 전송됩니다....

자세히보기
[re:Invent23]  Knowledge bases for Amazon Bedrock
1월08

[re:Invent23] Knowledge bases for Amazon Bedrock

5/5 - (평가 개수 : 7)

쉽고 경제적인 RAG 구축을 위한 Knowledge Bases for Amazon Bedrock 안내서   LLM이 질문에 대한 답변을 생성하는 과정에서 사실과는 다른 환각 현상이 발생할 수 있습니다. 환각을 최소화하기 위해 RAG(Retrieval Augmented Generation)라는 방법이 Meta에 의해 도입되었는데요. LLM이 입력을 받으면 특정 소스에서 관련한 문서를 찾아 context에 추가하고, 해당 정보를 토대로 최종 출력을 반환하게 되는 구조입니다. RAG를 통해서 Fine-Tuning을 하지 않고도 제한적인...

자세히보기