대형 언어 모델(Large Language Models, LLMs)을 이용한 애플리케이션의 보안을 위협하는 Prompt Injection 공격에 대응하기 위해 StruQ와 SecAlign 방어 기법을 제안한다. 이들 방어 기법은 효율적이며 고비용의 추가 계산이나 인력을 필요로 하지 않는다. StruQ와 SecAlign은 최적화 없는 공격의 성공률을 0%로 감소시키고 강력한 최적화 기반 공격의 성공률도 이전 기술보다 15% 이하로 낮춘다.
PLAID는 단백질 접힘 모델의 잠재 공간을 학습하여 새로운 단백질을 생성하는 방법을 개발했다. 이 모델은 단백질 1차원 서열과 3차원 구조를 동시에 생성하며, 이전의 다양한 제너레이티브 모델과 달리 다중 모달 공동 생성 문제를 해결한다.
100대의 강화학습(RL) 제어 자동차를 러시아워 고속도로 교통에 투입하여 혼잡을 완화하고 모든 이들의 연료 소비를 줄였다. 목표는 “서행파도”를 해결하는 것으로, RL 에이전트가 상호작용하는 빠른 데이터 기반 시뮬레이션을 구축하여 에너지 효율을 극대화하면서 스루풋을 유지하고 인간 운전자 주변에서 안전하게 운전하도록 학습했다.
Anthology를 소개하는 이 연구는 LLMs가 대량의 텍스트 코퍼스로 훈련될 때 어떤 의미를 갖게 되는지 탐구한다. 이를 통해 LLMs를 특정 인간 음성의 응답을 근사화할 수 있는 ‘가상 인물’로 가이드하는 방법을 제안하고 있다. Anthology는 LLMs를 다양하고 일관된 가상 인물로 유도하기 위해 개인의 풍부한 인생 이야기를 이용한다. 이러한 방법을 통해 LLMs를 인간의 응답 분포와 일관성에 대해 측정할 수 있는 근사화된 개인 샘플로 시뮬레이션할 수 있다.
ChatGPT의 언어 모델이 특정 다이얼렉트에 대한 편견을 보여주며 차별을 증폭시킬 수 있다는 연구 결과에 대해 소개. 미국식 표준 영어 외에 인도 영어, 나이지리아 영어, 아이리시 영어, 아프리카계 미국인 영어 등을 사용하는 사용자들이 모델에 대한 언어적 차별을 경험할 수 있다는 내용을 다룸.
GPT-4를 탈옥하기 위해 금기된 프롬프트를 스코틀랜드 게일어로 번역하는 방법에 대한 연구에서 강력한 결과를 발견했지만, 실제로는 성공하지 못한 사례가 많았다. 이를 바탕으로 새로운 강력한 거부 벤치마크 StrongREJECT를 소개하고, 이를 통해 탈옥 방법을 정확하고 견고하게 평가할 수 있는 방법을 제시한다.
인간은 거대한 비주얼 정보를 처리하는 뛰어난 능력을 가졌는데, 이는 인공 일반 지능(AGI)을 달성하는 데 중요하다. 하지만 현재까지의 시각 질문 응답(VQA) 시스템은 단일 이미지 내에서만 작동하여 다수의 이미지를 고려한 추론에 제한이 있다. VHs 벤치마크는 이러한 한계를 극복하기 위해 “멀티 이미지 질문 응답” 작업에 초점을 맞추고 있다. VHs 벤치마크는 단일 바늘 도전과 다중 바늘 도전으로 나뉘어 있으며, 현재의 대형 다중 모달 모델(LMMs)이 다수의 이미지를 처리하고 통합하는 능력에 대한 중요한 결점을 드러내고 있다.
대규모 언어 모델(Large Language Models, LLMs)의 능력으로 인해 에이전트 시스템이 발전하고 있지만, 클라우드에서의 추론은 개인 정보 보호 문제와 지연 문제를 야기할 수 있습니다. 이를 극복하기 위해 작은 언어 모델(Small Language Models, SLMs)을 로컬 에지에 배포하는 연구가 진행 중입니다. 이를 통해 보안 및 개인 정보 보호를 유지하면서도 복잡한 추론을 수행할 수 있게 됩니다.
컴퓨터 비전 연구자들은 모든 픽셀이 이야기를 할 수 있다고 믿습니다. 그러나 대형 이미지를 다룰 때 분명히 어려움이 있습니다. $x$T는 큰 이미지를 효과적으로 모델링하는 새로운 프레임워크로, 전역 컨텍스트와 로컬 세부 사항을 효과적으로 집계하면서 현대적인 GPU에서 이미지를 끝까지 모델링합니다.
버클리 인공지능 연구소(BAIR)는 매년 가장 재능 있고 혁신적인 AI 및 머신 러닝 분야의 인재들을 졸업시킵니다. 이 웹사이트는 BAIR의 최신 박사 졸업생들을 소개하고 있으며, 각 졸업생의 세부 프로필, 연구 관심사, 연락처 정보를 제공하여 새로운 협업과 기회를 모색하고 있습니다.