이 포스트에서는 Amazon Nova를 사용하여 도구 사용을 위한 모델 맞춤화(미세 조정)를 보여줍니다. 도구 사용 사례를 소개하고 데이터셋에 대한 세부 정보를 제공한 후, Amazon Nova 특정 데이터 형식 지정에 대해 안내하고 Amazon Bedrock의 Converse 및 Invoke API를 통해 도구 호출하는 방법을 보여줍니다. Amazon Nova 모델에서 기준선 결과를 얻은 후, 미세 조정 프로세스, 예비 처리량으로 호스팅된 미세 조정된 모델, 그리고 추론에 사용되는 미세 조정된 Amazon Nova 모델을 자세히 설명합니다.
이 게시물에서는 에이전트 개발 프로세스를 간소화하는 Langfuse 통합 솔루션인 오픈 소스 베드락 에이전트 평가 프레임워크를 소개했습니다. 이 평가 프레임워크가 어떻게 약학 연구 에이전트와 통합될 수 있는지를 보여주었습니다. 생물 표지자 질문에 대한 에이전트 성능을 평가하고 이를 Langfuse로 전송하여 질문 유형별 평가 지표를 볼 수 있었습니다.
AWS와 Cisco 팀이 기업급 SQL 생성의 과제를 해결하기 위한 새로운 방법론을 소개했다. NL2SQL 프로세스의 복잡성을 줄이면서 더 높은 정확성과 성능을 제공했다.
AFX 팀은 Nova Lite 모델로 제품 이전하여 매출 업무 프로세스를 향상시켰습니다. 이전으로 비용 절감과 저지연을 달성하며 판매자에게 지능적이고 신뢰할 수 있는 솔루션을 제공했습니다.
이 글에서는 Amazon Bedrock를 통해 Amazon Titan Multimodal Embeddings G1 모델의 멀티모달 임베딩을 이용한 OpenSearch Service를 구축하는 방법을 안내합니다. 이 솔루션은 사용자가 텍스트와 이미지를 모두 쿼리로 제출하여 샘플 소매 이미지 데이터셋에서 관련 결과를 검색할 수 있는 방법을 보여줍니다.
이 글에서는 Amazon SageMaker에서 오픈 소스 NER 및 LLM을 활용하여 AI 기반 문서 처리 플랫폼을 구축하는 방법에 대해 소개합니다.
이 게시물에서는 Amazon Bedrock를 사용하여 RAG 애플리케이션에서 민감한 데이터를 보호하기 위한 두 가지 접근 방식을 탐구합니다. 첫 번째 접근 방식은 Amazon Bedrock 지식 베이스로의 데이터 삽입 전 민감한 데이터를 식별하고 마스킹하는 데 초점을 맞추었으며, 두 번째는 민감한 정보에 대한 접근을 관리하기 위한 세밀한 RBAC 패턴을 시연했습니다. 이러한 솔루션은 생성 모델 AI 애플리케이션에서 민감한 데이터를 보호하기 위한 다양한 접근 방식 중 두 가지에 불과합니다.
Amazon SageMaker Large Model Inference (LMI) 컨테이너 v15가 출시되었습니다. vLLM 0.8.4를 기반으로 한 vLLM V1 엔진을 지원하여 성능 향상과 다중 모달리티 모델 호환성을 제공합니다. 이를 통해 대용량 언어 모델을 최고의 성능으로 확장 가능하게 배포하고 제공할 수 있습니다.
Amazon Q Business의 평가 프레임워크 소개 및 사용 사례 선택, 데이터 준비, 메트릭 구현에 초점을 맞춘 첫 번째 게시물의 내용을 바탕으로 Amazon Q Business의 평가 프레임워크에 대해 자세히 알아본다.
Amazon Bedrock Intelligent Prompt Routing의 일반 공개를 발표했다. 내부 테스트 결과, 시작 방법, 주의사항 및 모베스트 프랙티스에 대해 안내하며, Amazon Bedrock Intelligent Prompt Routing을 새로운 및 기존 생성형 AI 애플리케이션에 통합할 것을 권장한다.
이 포스트에서는 인포시스가 이벤트 및 회의에서 생성된 통찰력을 개방하기 위해 Infosys 이벤트 AI를 개발한 방법을 탐구합니다. 실시간 전사, 지능적인 요약 및 대화형 챗봇 어시스턴트를 포함한 기능 세트를 통해 Infosys 이벤트 AI는 이벤트 지식에 접근 가능하게 하고 참석자들을 위한 몰입형 참여 솔루션을 제공합니다.
아마존 베드락의 프롬프트 최적화 기능을 소개합니다. 이 기능을 통해 단일 API 호출이나 클릭으로 프롬프트를 최적화할 수 있으며, 이를 통해 유에웬 그룹의 대형 언어 모델(LLMs)의 성능이 향상되어 지능적인 텍스트 처리 작업에 활용됩니다.
이 게시물에서는 Amazon Bedrock 에이전트와 Foursquare API를 결합하여 사용자에게 맞춤형 응답을 제공하는 위치 인식 에이전트를 구축하는 방법을 소개합니다.
이 글에서는 생성 AI 애플리케이션의 맥락에서 LLM(Large Language Models)을 평가하는 중요성을 탐구하며, 환상과 편향과 같은 문제가 일으키는 도전에 주목합니다. AWS 서비스를 활용해 평가 프로세스를 자동화하는 포괄적인 솔루션을 소개하며, FMeval 라이브러리, Ragas, LLMeter, Step Functions과 같은 도구를 사용하여 유연성과 확장성을 제공하여 LLM 소비자들의 변화하는 요구를 충족시킵니다.
본 포스트에서는 Amazon Bedrock의 다중 에이전트 기능을 활용하여 AWS 비용 관리에 혁신적인 접근 방법을 보여줍니다. Amazon Nova FMs의 고급 기능을 사용하여 AI 기반 에이전트가 기관이 AWS 비용을 분석, 최적화 및 관리하는 방식을 혁신하는 솔루션을 개발했습니다.
이 글에서는 사용자가 주식 가격 트렌드를 이해하기 위해 Amazon MSK로 구축된 토픽과 커스텀 커넥터를 사용하여 Amazon Bedrock Knowledge Bases와 함께 RAG 아키텍처를 구현한다.
이 포스트는 Zoom 사용자가 Zoom 인터페이스 내에서 Amazon Q 비즈니스 엔터프라이즈 데이터에 직접 액세스할 수 있는 방법을 보여줍니다. 이를 통해 기업 보안 경계를 유지하면서 응용 프로그램 간 전환 없이 데이터에 접근할 수 있습니다. 기업은 이제 Amazon Q 비즈니스에서 Zoom을 데이터 액세서로 구성할 수 있어 Amazon Q 인덱스와 Zoom AI Companion 간의 원활한 통합이 가능해집니다.
QyrusAI와 Amazon Bedrock이 왼쪽으로 이동하는 테스팅을 혁신하여 팀이 더 나은 소프트웨어를 빠르게 제공할 수 있게 돕는 방법을 탐구합니다. Amazon Bedrock은 선행 AI 제공 업체의 기반 모델(FMs)을 사용하여 생성적 AI 애플리케이션을 구축하고 확장할 수 있는 완전 관리형 서비스입니다.
Amazon Bedrock Data Automation (BDA)는 Amazon Bedrock의 FMs를 기반으로 한 새로운 관리 기능이다. BDA는 복잡한 사용자 정의 워크플로우를 필요로 하지 않으면서 비구조화된 콘텐츠에서 구조화된 출력을 추출한다. 본문에서는 BDA가 비디오의 장면 및 오디오 세그먼트, 장면 내 텍스트 감지, IAB 분류 등을 자동으로 추출하고 이를 활용하여 콘텍스트 광고 효과를 향상시키는 비선형 광고 솔루션을 구축하는 방법을 보여준다.
Salesforce의 AI 모델 서빙팀은 자연어 처리와 AI 능력을 기업 애플리케이션에 최적화하는 데 중점을 두고 있으며, Amazon SageMaker를 활용하여 모델 배포의 한계를 넓히고 있다.
본 포스트에서는 여러 개의 Amazon Bedrock 에이전트를 조율하여 정교한 Amazon EKS 문제 해결 시스템을 만드는 방법을 소개합니다. K8sGPT에서 통찰을 얻고 ArgoCD 프레임워크를 통해 작업을 수행함으로써 전문 에이전트 간의 협업을 가능케 하여 최소한의 인간 개입으로 클러스터 문제를 식별, 분석 및 해결하는 포괄적인 자동화를 구축할 수 있습니다.
Low-Rank Adaptation (LoRA)를 사용하여 동시성 모델 호스팅의 도전을 효과적으로 해결하는 방법을 살펴본다. LoRA 서빙과 LoRA 교환을 함께 사용하여 Amazon EC2 GPU 인스턴스로 LoRAX를 실행함으로써 조직이 세밀하게 조정된 모델 포트폴리오를 효율적으로 관리하고 제공하는 방법을 논의한다.
이 솔루션은 생성적 AI와 대형 언어 모델을 사용하여 컴퓨터 비전 애플리케이션을 구축하는 데 필요한 시간 소모적이고 노동 집약적인 작업을 완화하는 방법을 제시하며, AWS 서비스를 사용하여 자산 라벨을 즉시 촬영하고 필요한 정보를 추출하여 인벤토리를 업데이트할 수 있게 합니다.
Clario와 AWS의 협업은 AWS AI 및 머신러닝 서비스, Anthropic의 Claude와 같은 생성 모델을 통해 생명 과학 산업의 문서 생성 프로세스를 간소화하고 특히 복잡한 임상 시험 프로세스에 도움이 되었다.
이 포스트는 비용 효율적이고 고성능 추론을 위해 AWS Inferentia2 인스턴스에 Mixtral 8x7B 언어 모델을 배포하고 제공하는 방법을 보여줍니다. Hugging Face Optimum Neuron을 사용한 모델 컴파일 및 Text Generation Inference (TGI) Container를 통해 LLMs를 배포하고 제공하는 방법을 안내합니다.
이 글에서는 Amazon Connect 내에서 Amazon Q를 활용하여 비즈니스 생산성을 높이는 방법을 소개하며, 연구, 데이터 분석, 사기 사례 보고 등을 가능하게 하는 통찰력 제공에 초점을 맞춥니다.
이 포스트는 오픈소스 다중 에이전트 프레임워크인 LangGraph를 Amazon Bedrock과 통합하는 방법을 보여준다. LangGraph와 Amazon Bedrock을 사용하여 그래프 기반 오케스트레이션을 활용하는 강력하고 대화형 다중 에이전트 응용 프로그램을 구축하는 방법을 설명한다.
이 기사는 Amazon Bedrock 에이전트를 활용하여 기업이 고급 오류 처리 도구와 자동 스키마 탐지를 통해 데이터베이스 쿼리 효율성을 향상시키는 확장 가능한 텍스트-SQL 솔루션을 구현하는 방법을 보여줍니다.
Amazon Q Business의 사용자 정의 플러그인을 활용하여 자연어 프롬프트를 통해 다양한 API와 상호 작용하는 챗봇을 구축하는 방법을 소개합니다. 사용자가 자연어 질의와 명령을 통해 AWS 인프라와 상호 작용할 수 있는 AIOps 챗봇을 구축하는 방법을 보여줍니다. 이 챗봇은 Amazon EC2 포트 및 Amazon S3 버킷 액세스 설정과 같은 작업을 처리할 수 있습니다.
AWS 고객 채널 기술 – 로컬라이제이션 팀이 TransPerfect와 협력하여 Amazon Bedrock을 GlobalLink 번역 관리 시스템에 통합하는 과정을 설명하고, 이를 통해 기업이 다국어 콘텐츠와 번역 작업을 관리하는 데 도움을 주는 클라우드 기반 솔루션을 활용하는 방법을 소개합니다. TransPerfect의 솔루션을 통해 조직은 AI를 활용하여 다국어로 대규모 콘텐츠를 신속하게 작성하고 배포합니다.
AWS LLM 리그는 참가자들이 데이터 과학 경험과 상관없이 LLM을 세밀하게 조정할 수 있는 경험을 제공하여 생성적 AI 모델 맞춤화에 대한 진입 장벽을 낮추기 위해 설계되었습니다. Amazon SageMaker JumpStart를 사용하여 참가자들은 실제 비즈니스 도전에 대응할 수 있는 LLM을 사용자 도메인에 적응할 수 있도록 안내받았습니다.
아마존 세이지메이커 하이퍼팟은 대규모 모델 학습의 어려움과 하드웨어 장애에 초점을 맞추어 학습 비용을 줄이고 효율성을 향상시키는 솔루션에 대해 탐구한다.
Amazon Nova 모델의 소개는 AI 분야에서의 중요한 발전을 나타내며, 대형 언어 모델(LLM) 최적화에 새로운 기회를 제공한다. 본 포스트에서는 Amazon Nova 모델을 기준으로 모델 맞춤화와 RAG를 효과적으로 수행하는 방법을 보여준다. 최신 Amazon Nova 모델을 활용한 모델 맞춤화와 RAG 사이의 포괄적인 비교 연구를 실시하고 이러한 소중한 통찰을 공유한다.
이 포스트에서는 동영상 온디맨드 사례를 활용해 개별 사용자를 위한 맞춤형 아웃리치 이메일을 생성하는 방법을 Amazon Personalize 및 Amazon Bedrock을 사용하여 보여줍니다. 이 개념은 전자 상거래 및 디지털 마케팅 사례와 같은 다른 영역에도 적용할 수 있습니다.
이 포스트에서는 Amazon Bedrock과 CrewAI를 활용하여 AI 에이전트가 금융 기관의 규정 준수를 간소화하고 이행하는 방법을 탐구합니다. 새 규정을 요약하고 영향을 평가하며 기술적 가이드를 제공하는 다중 에이전트 시스템을 구축하는 방법을 소개합니다.
Pixtral Large 모델을 Amazon Bedrock에서 시작하는 방법을 소개합니다. 이 모델은 문서 이해, 논리 추론, 필기 인식, 이미지 비교, 엔티티 추출, 스캔된 이미지에서 구조화된 데이터 추출, 캡션 생성과 같은 다양한 용도에 활용할 수 있습니다.