AI 시대의 개발 혁신: Amazon Q Developer 활용하기
Amazon Q Developer는 AWS에서 애플리케이션 개발을 가속화하는 Generative Artificial Intelligence(Gen AI) 도우미입니다. 통합 개발 환경(IDE)에서 사용될 때, Amazon Q는 소프트웨어 개발을 지원하며, 코드에 대한 대화, 인라인 코드 완성, 새로운 코드 생성, 보안 취약점 스캔, 코드 업그레이드 및 최적화와 같은 기능을 제공합니다. 이 도구는 개발자가 AWS 내부 또는 외부에서 시간 소모적인 수작업을 줄일 수 있도록 돕는 다양한 기능을 갖추고 있습니다....
지식그래프에 대한 RAG 구현하기
LLM은 환각 현상으로 인해 부정확한 정보를 생성하곤 합니다. RAG는 LLM의 응답 생성 과정 중 관련 문서를 검색하여 추가 컨텍스트를 제공함으로써 정확성을 높이도록 해왔습니다. 그러나 기존의 RAG 접근 방식은 주로 벡터 검색에 의존하여 복잡한 관계와 맥락을 충분히 반영하지 못하는 한계가 있었으며, 이런 배경에서 지식 그래프와 RAG를 결합한 GraphRAG가 주목받고 있습니다. GraphRAG는 단순한 키워드 매칭이나 벡터 유사도를 넘어, 데이터 간의 복잡한...
Bedrock으로 외부 모델 가져오기
[가져온 모델] 알아보기 2024년 10월 21일, 가져온 모델(Amazon Bedrock Custom Model Import) 기능이 GA 되었습니다. 이 기능을 통해 Bedrock은 내부 모델 튜닝을 통한 사용자 지정 모델 사용뿐만 아니라, Hugging Face와 같은 외부 저장소에 공개된 모델 혹은 직접 로컬에서 학습한 모델을 직접 가져와 사용할 수 있는 기능을 제공합니다. 이를 통해 사용자는 Bedrock 내의 모델에 한정되지 않고 더욱 다양한 모델에 접근할...
[re:Invent23] Knowledge bases for Amazon Bedrock
쉽고 경제적인 RAG 구축을 위한 Knowledge Bases for Amazon Bedrock 안내서 LLM이 질문에 대한 답변을 생성하는 과정에서 사실과는 다른 환각 현상이 발생할 수 있습니다. 환각을 최소화하기 위해 RAG(Retrieval Augmented Generation)라는 방법이 Meta에 의해 도입되었는데요. LLM이 입력을 받으면 특정 소스에서 관련한 문서를 찾아 context에 추가하고, 해당 정보를 토대로 최종 출력을 반환하게 되는 구조입니다. RAG를 통해서 Fine-Tuning을 하지 않고도 제한적인...
[re:Invent23] Agents for Amazon Bedrock
테크니컬 라이팅을 위한 AI 어시스턴트 구축하기 (Feat. ReAct, Agents for Amazon Bedrock) LLM이 발달해오면서 어떻게 LLM을 효율적으로 쓸 수 있을지에 대한 논의가 활발하게 이루어졌고, Prompt Engineering, RAG, Fine-Tuning 등 다양한 기법이 도입돼 왔습니다. 여러 기법 중에서도 가장 접근이 쉬우며, 구현을 위한 별다른 비용이 들지 않는 Prompt Engineering을 통해 많은 개발자와 연구자들은 복잡한 작업에 대한 LLM의 추론 능력을 향상시켜 왔습니다....
[re:Invent23] Vector search for Amazon MemoryDB for Redis
AWS 환경에서 LangChain과 Redis를 활용한 LLM Caching layer 제공하기 LLM 기반의 앱에서 Caching layer를 적용한다면, API 호출 수를 줄여 비용을 절약하고 언어 모델의 추론 시간 대신 캐시를 활용해 빠른 응답 속도를 제공할 수 있습니다. 이번 포스팅에서는 얼마 전 re:Invent에서 Preview로 출시한 vector search for Amazon MemoryDB for Redis를 포함하여, AWS에서 제공하는 Redis 들을 Caching Layer로 사용할 수 있을지...
최신 댓글