LLMs는 놀라운 데이터에 속을 수 있다: Google DeepMind가 의도치 않은 지식 오염을 예측하고 줄이는 새로운 기술 소개
대형 언어 모델(LLMs)은 지속적으로 방대한 양의 텍스트 데이터를 소화하면서 더 정확한 예측자, 이성적인 존재, 대화 상대로 발전하고 있다. 그들의 학습 과정은 그들의 내부 지식을 경사 기반 방법을 사용하여 업데이트할 수 있는 능력에 달려 있다. 이 지속적인 훈련은 새로운 정보의 추가가 이전에 학습한 내용에 어떤 영향을 미치는지 이해하는 것이 중요하게 만든다. 이전에 학습한 내용을 어떻게 변경하는지 이해하는 것이 중요하다. Google DeepMind는 대형 언어 모델(LLMs)가 새로운 정보를 추가함으로써 어떻게 속아 들 수 있는지 예측하고 줄이기 위한 새로운 기술을 소개하고 있다. 이 기술은 모델이 잘못된 정보를 학습하는 것을 방지하고 모델의 안정성을 향상시키는 데 도움이 될 것으로 예상된다.
#AIPaperSummary #ArtificialIntelligence #EditorsPick #LanguageModel #Machinelearning #TechNews #Technology
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자