필자: GS Neotek

전체 게시물수 : 236

전체 조회수 : 4340

[Case Study] 웨이브 : OTT와 BigQuery를 통한 데이터의 활용가치 극대화
3월04

[Case Study] 웨이브 : OTT와 BigQuery를 통한 데이터의 활용가치 극대화

5/5 - (평가 개수 : 4)

The Customer 웨이브는 실시간 영상 스트리밍을 중심으로 하는 서비스 입니다. 웨이브는 풍부한 콘텐츠 속에서 적절한 작품을 추천하는 것이 이용자들의 만족도를 높이면서도 콘텐츠의 생명력을 높일 수 있다고 판단했습니다. BigQuery는 이용자들의 반응을 실시간으로 수집하고 손쉽게 활용할 수 있는 길을 열어주었습니다. 이를 통해 콘텐츠 배치부터 UX 구성까지 데이터를 바탕으로 더 나은 미디어...

태그 : ,

자세히보기
[re:Invent23]  Knowledge bases for Amazon Bedrock
1월08

[re:Invent23] Knowledge bases for Amazon Bedrock

5/5 - (평가 개수 : 7)

쉽고 경제적인 RAG 구축을 위한 Knowledge Bases for Amazon Bedrock 안내서   LLM이 질문에 대한 답변을 생성하는 과정에서 사실과는 다른 환각 현상이 발생할 수 있습니다. 환각을 최소화하기 위해 RAG(Retrieval Augmented Generation)라는 방법이 Meta에 의해 도입되었는데요. LLM이 입력을 받으면 특정 소스에서 관련한 문서를 찾아 context에 추가하고, 해당 정보를 토대로 최종...

태그 : ,

자세히보기
[re:Invent23]  Agents for Amazon Bedrock
1월03

[re:Invent23] Agents for Amazon Bedrock

5/5 - (평가 개수 : 3)

테크니컬 라이팅을 위한 AI 어시스턴트 구축하기 (Feat. ReAct, Agents for Amazon Bedrock) LLM이 발달해오면서 어떻게 LLM을 효율적으로 쓸 수 있을지에 대한 논의가 활발하게 이루어졌고, Prompt Engineering, RAG, Fine-Tuning 등 다양한 기법이 도입돼 왔습니다. 여러 기법 중에서도 가장 접근이 쉬우며, 구현을 위한 별다른 비용이 들지 않는 Prompt Engineering을 통해 많은...

태그 :

자세히보기
[re:Invent23] Vector search for Amazon MemoryDB for Redis
12월27

[re:Invent23] Vector search for Amazon MemoryDB for Redis

5/5 - (평가 개수 : 2)

AWS 환경에서 LangChain과 Redis를 활용한 LLM Caching layer 제공하기   LLM 기반의 앱에서 Caching layer를 적용한다면, API 호출 수를 줄여 비용을 절약하고 언어 모델의 추론 시간 대신 캐시를 활용해 빠른 응답 속도를 제공할 수 있습니다. 이번 포스팅에서는 얼마 전 re:Invent에서 Preview로 출시한 vector search for Amazon MemoryDB for Redis를...

자세히보기
[공지] – AWS Public IPv4 주소 요금 변경
8월30

[공지] – AWS Public IPv4 주소 요금 변경

5/5 - (평가 개수 : 3)

지난 7월 28일 AWS에서는, 2024년 2월 1일부터 서비스 연결 여부에 관계없이 모든 퍼블릭 IPv4 주소에 대해 시간당 IP 당 $0.005의 요금이 부과한다는 계획을 발표했습니다. AWS에 따르면, IPv4 주소를 하나 취득하는데 드는 비용이 지난 5년간 300% 이상 증가해 새로운 요금 변경 사항을 통해 Public IPv4(이하, Public IP) 주소 사용을 줄이고 IPv6...

태그 : ,

자세히보기