Meta에서는 텍스트와 음성을 자유롭게 혼합할 수 있는 다중모달 언어 모델인 Spirit LM을 공개하였습니다. NVIDIA는 인간의 선호도에 더 잘 맞는 LLM 정렬을 위해 새로운 보상 모델을 발표하였으며, IBM은 고정밀도와 효율성을 갖춘 새로운 Granite 3.0 생성 AI 모델을 출시하였습니다. Mistral AI는 엣지 컴퓨팅을 위한 고성능 모델인 Ministral 3B와 8B를 소개하였고, Microsoft는 1비트 LLM의 공식 추론 프레임워크인 bitnet.cpp를 공개하였습니다. Neural Magic은 양자화된 LLM에 대한 광범위한 평가를 실시하여 성능 저하가 미미하다는 것을 발견하였습니다. NVIDIA는 기존의 대형 언어 모델을 Mixture of Experts(MoE)로 업사이클링하는 연구를 발표하였으며, Google DeepMind는 LLM의 추론 능력을 향상시키기 위한 새로운 프로세스 보상 모델을 제안하였습니다. 또한, simular-ai는 컴퓨터와 인간처럼 상호 작용할 수 있는 오픈 에이전트 프레임워크인 Agent S를 소개하였고, Apple은 LLM의 수학적 추론 한계를 이해하기 위한 GSM-Symbolic을 발표하였습니다.
Meta, SPIRIT-LM: Interleaved Spoken and Written Language Model
링크, 2024년 10월 22일
- 텍스트와 음성을 자유롭게 혼합할 수 있는 다중모달 언어 모델 Spirit LM을 소개
- 7B 사전학습된 텍스트 언어 모델을 기반으로 음성 모달리티를 추가
- 텍스트와 음성 시퀀스를 단일 토큰 스트림으로 연결하여 학습
- 음성-텍스트 병렬 코퍼스를 활용한 단어 수준의 인터리빙 방법 사용
- 베이스 버전과 익스프레시브 버전 두 가지 모델 제공
- 베이스 버전은 음성 음운 단위(HuBERT) 사용
- 익스프레시브 버전은 음운 단위에 피치와 스타일 단위를 추가하여 표현력 모델링
- 다양한 작업을 소수의 예제로 학습 가능 (ASR, TTS, 음성 분류 등)
- 연구 커뮤니티가 텍스트와 음성 통합을 위한 새로운 접근법을 발전시키길 희망
NVIDIA, New Reward Model Helps Improve LLM Alignment with Human Preferences
링크, 2024년 10월 3일
- 인간의 선호도에 맞게 AI 시스템을 정렬하기 위한 강화 학습(RLHF)의 중요성 강조
- NVIDIA에서 Llama 3.1-Nemotron-70B-Reward라는 최첨단 보상 모델 출시
- Hugging Face RewardBench 리더보드에서 전체 1위 달성 (94.1% 정확도)
- 다양한 카테고리에서 높은 성능 (안전성 95.1%, 추론 98.1%)
- 보상 모델을 활용하여 Llama 3.1-Nemotron-70B-Instruct 모델을 훈련
- Arena Hard 리더보드에서 상위권 달성
- 보상 모델은 CC-BY-4.0 라이선스의 HelpSteer2 데이터를 사용하여 훈련
- NVIDIA NIM inference microservice로 쉽게 배포 가능
- 기업용 사례에 적용할 수 있도록 모델과 데이터 공개
Mistral AI, Un Ministral, des Ministraux
링크, 2024년 10월 16일
- 엣지 컴퓨팅을 위한 고성능 모델 Ministral 3B와 Ministral 8B 출시
- 작은 모델 크기로도 높은 지식, 상식, 추론 능력 제공
- 128k의 컨텍스트 길이 지원 (현재는 vLLM에서 32k 지원)
- Ministral 8B는 빠르고 메모리 효율적인 추론을 위한 인터리브드 슬라이딩 윈도우 어텐션 패턴 사용
- 다양한 사용 사례에 적용 가능 (에이전틱 워크플로우, 전문 작업자 등)
- Mistral 7B 대비 향상된 성능과 효율성 제공
- API 및 라이선스 정보 제공, 모델 가중치 연구용으로 공개
IBM, IBM’s New Granite 3.0 Generative AI Models Are Small, Yet Highly Accurate and Efficient
링크, 2024년 10월 21일
- IBM에서 Granite 3.0 시리즈 모델 출시
- Granite 3.0 8B, Granite 3.0 2B 등
- Mixture of Experts(MoE) LLMs: Granite 3.0 3B-A800M, Granite 3.0 1B-A400M
- 고정밀도와 효율성을 겸비한 모델로, 기업용 워크플로우의 기본 구성 요소로 설계
- 함수 호출을 지원하여 도구 기반의 다양한 사용 사례에 적용 가능
- 그룹 쿼리 어텐션(GQA) 및 RoPE 등 최적화된 아키텍처 사용
- 추론 속도를 높이기 위한 speculative decoding 기법 적용
- 추론 속도를 높이고 자원 사용을 최적화
- NVIDIA NIM inference microservice로 패키징되어 배포 용이
Microsoft, bitnet.cpp
링크, 2024년 10월 18일
- 1비트 LLM의 공식 추론 프레임워크인 bitnet.cpp 공개
- CPU에서 빠르고 손실 없는 추론을 지원하는 최적화된 커널 제공
- NPU 및 GPU 지원 예정
- ARM 및 x86 CPU에서 최대 6배 이상의 속도 향상 및 에너지 소비 감소 달성
- 100B BitNet b1.58 모델을 단일 CPU에서 실행 가능
- MIT 라이선스 버전으로 공개
Neural Magic, We Ran Over Half a Million Evaluations on Quantized LLMs: Here’s What We Found
링크, 2024년 10월 17일
- 양자화된 LLM이 성능 저하 없이 효율성을 높일 수 있는지에 대한 연구 수행
- Llama 3.1 모델에 대해 다양한 양자화 스킴으로 평가 진행
- 양자화로 인해 성능 저하는 미미하며, 최대 2.4배의 추론 속도 향상 및 3.5배의 모델 크기 감소 달성
- Academic 및 Real-World 벤치마크에서 평균 99% 이상의 정확도 유지
- W8A8-FP8 동적 양자화가 가장 우수한 결과를 보임
- 모델은 Hugging Face에서 이용 가능
NVIDIA, Upcycling Large Language Models into Mixture of Experts
링크, 2024년 10월 11일
- 기존의 대형 언어 모델을 Mixture of Experts(MoE)로 업사이클링하는 연구 발표
- 새로운 “가상 그룹” 초기화 스킴 및 가중치 스케일링 방법 제안
- 업사이클링을 통해 동일한 데이터로 학습한 모델보다 성능 향상
- Nemotron-4 15B 모델을 1조 토큰으로 업사이클링하여 MMLU 성능 향상 (65.3% → 67.6%)
- MoE 언어 모델 구축을 위한 최적의 방법과 인사이트 제공
Google DeepMind, Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning
링크, 2024년 10월 11일
- LLM의 추론 능력을 향상시키기 위한 새로운 프로세스 보상 모델(PRMs) 제안
- 인간의 레이블 없이 자동화된 데이터로 PRMs를 훈련하는 방법 제시
- 단계별로 진척도를 측정하여 보상함으로써 강화 학습의 효율성 향상
- 베이스 모델과 별도의 “Prover” LLM을 사용하여 성능 향상
- 기존의 결과 기반 보상 모델보다 정확도가 8% 이상 향상되고, 데이터 효율성은 최대 6배 개선
simular-ai, Agent S: An Open Agentic Framework that Uses Computers Like a Human
링크, 2024년 10월 10일
- 인간처럼 컴퓨터와 상호 작용할 수 있는 오픈 에이전트 프레임워크 Agent S 공개
- 그래픽 사용자 인터페이스(GUI)를 통해 자동화된 복잡한 다단계 작업 수행 가능
- 도메인별 지식 획득, 긴 작업 계획, 동적 인터페이스 처리 등의 문제 해결
- 경험 기반의 계층적 플래닝 도입으로 효율적인 작업 계획 및 하위 작업 실행
- 다중모달 대형 언어 모델(MLLMs)을 기반으로 한 에이전트-컴퓨터 인터페이스(ACI) 사용
- OSWorld 벤치마크에서 기존 대비 83.6%의 상대적 개선 달성
- WindowsAgentArena 벤치마크에서의 일반화 능력 입증
Apple, GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models
링크, 2024년 10월
- LLM의 수학적 추론 능력의 한계를 이해하기 위한 연구 발표
- GSM8K 벤치마크의 한계를 극복하기 위해 GSM-Symbolic 벤치마크 도입
- 심볼릭 템플릿을 사용하여 다양한 수학 문제 생성 및 평가
- LLM이 동일한 문제의 수치만 변경해도 성능이 저하되는 현상 발견
- 논리적 추론보다 학습 데이터의 추론 단계를 복제하는 경향 분석
- 추가적인 조건이 포함되면 성능이 크게 저하되는 취약성 확인
- LLM의 수학적 추론 능력에 대한 보다 깊은 이해 제공
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |
기술적으로 최대한 자세하게 적어. 10개의 기사가 있고 하나도 빼먹지 말고 적어.