Summary
오늘의 AI 소식에서는 PyTorch, Microsoft, OpenAI, Amazon, Apple, 그리고 다양한 연구 기관에서 발표된 최신 기술과 연구 결과들을 다룹니다. PyTorch에서는 FlashAttention-3를 발표하며 주목할 만한 성능 향상을 이루었고, Microsoft는 AgentInstruct를 통해 LLM의 새로운 학습 방법을 소개했습니다. OpenAI와 Los Alamos National Laboratory는 AI의 안전한 실험실 사용을 위한 협력을 발표했으며, Amazon은 Anthropic의 Claude 3 Haiku 모델의 미세 조정 방법을 공유했습니다. Apple은 코드 생성 능력을 향상시키는 RLAIF 프레임워크를 소개했고, 다양한 연구팀들은 VLM의 시각적 한계와 수학 문제 해결을 위한 새로운 접근법을 발표했습니다.
주요 뉴스
PyTorch, FlashAttention-3 발표
링크, 2024년 7월 11일,
- FlashAttention-3는 비동기성과 저정밀도를 활용하여 주목을 빠르고 정확하게 처리하는 새로운 기술을 도입.
- Tensor Cores와 TMA를 이용해 데이터 이동과 계산을 겹치도록 설계.
- FP16에서 FlashAttention-2보다 1.5-2.0배 빠르며 H100 GPU의 이론적 최대 FLOPS의 75%를 달성.
- FP8에서는 최대 1.2 PFLOPS에 도달하며 기본 FP8 주목보다 2.6배 작은 오류를 나타냄.
- FlashAttention-3은 GitHub에서 이용 가능.
Microsoft, AgentInstruct 발표
링크, 2024년 7월 4일,
- AgentInstruct는 LLM 에이전트가 생성한 합성 데이터를 통해 새로운 기술이나 행동을 가르치는 새로운 방법.
- Orca-3 모델의 성능을 모든 벤치마크에서 약 20% 향상시키고 GPT-4와 유사한 성능을 보임.
- 여러 에이전트 워크플로우를 통해 원시 데이터를 고품질의 학습 데이터로 변환.
- AgentInstruct는 원시 비구조화 텍스트를 입력으로 사용하여 다양한 학습 데이터를 생성.
OpenAI, Los Alamos National Laboratory와 협력
링크, 2024년 7월 10일,
- OpenAI와 Los Alamos National Laboratory는 실험실 환경에서 AI 모델을 안전하게 사용할 수 있도록 평가 연구를 공동으로 진행.
- GPT-4o 모델이 생물학적 연구를 지원할 수 있는지 평가하는 최초의 실험을 수행할 예정.
- AI의 다중 모드 기능을 활용하여 전문가와 초보자 모두를 지원할 수 있는 가능성을 탐구.
- 이번 협력은 AI 생물보안 평가 연구의 최전선에 기여할 것으로 기대됨.
Amazon, Anthropic Claude 3 Haiku 미세 조정 방법 공유
링크, 2024년 7월 10일,
- Amazon Bedrock에서 Anthropic Claude 3 Haiku 모델을 미세 조정하여 특정 도메인이나 작업에서 최적의 성능을 제공.
- 미세 조정은 분류, 구조화된 출력, 산업 지식, 도구 및 API 사용 등 다양한 용도에 활용 가능.
- 초기 테스트에서 분류 정확도가 81.5%에서 99.6%로 향상되고 쿼리당 토큰 수가 89% 감소.
- Amazon Bedrock은 Claude 3 Haiku 모델을 미세 조정할 수 있는 유일한 관리형 서비스 제공.
Apple, RLAIF 프레임워크 발표
링크, 2024년 7월,
- Apple은 경량 LLM의 코드 생성 능력을 향상시키기 위해 RLAIF 프레임워크를 도입.
- 큰 LLM의 피드백을 활용하여 보상 모델을 훈련하고 작은 LLM의 성능을 개선.
- 코드 실행 가능성에서 4.5% 향상, 780M 파라미터 모델이 7B 파라미터 모델보다 우수한 성능을 보임.
- Gorilla 데이터셋을 사용한 실험에서 코드 품질을 다양한 메트릭을 통해 평가.
연구 뉴스
시각 언어 모델의 한계
링크, 2024년 7월 11일,
- Vision language models (VLMs)는 간단한 시각적 작업에서 어려움을 겪고 있으며, 정확도가 낮다는 연구 결과 발표.
- BlindTest라는 간단한 시각적 작업 세트를 통해 VLM의 한계를 평가.
- 테스트 결과, 최고 성능 모델도 평균 56.20%의 정확도를 기록.
- 이 연구는 VLM이 정확한 공간 정보와 수 계산 작업에서 어려움을 겪는다는 것을 강조.
NuminaMath 7B TIR 발표
링크, 2024년 7월 11일,
- NuminaMath 7B TIR는 복잡한 수학 문제를 해결하는 새로운 접근법을 제시하며 AI Math Olympiad에서 우수한 성적을 기록.
- Chain-of-Thought 추론과 Python REPL을 활용하여 문제를 해결.
- 두 단계의 감독 학습을 통해 모델을 미세 조정하여 수학 문제 해결 능력을 향상.
- AMC 12 수준의 문제를 해결할 수 있는 능력 보유.
새로운 디코딩 기술 DoLa 발표
링크, 2024년 7월 11일,
- DoLa 디코딩은 트랜스포머 모델의 환각 현상을 줄이는 데 크게 기여.
- 트랜스포머 모델의 저층과 고층 사이의 로짓 변화를 이용하여 다음 토큰을 선택.
- 다양한 벤치마크에서 5% - 20%의 성능 향상.
- 실행 시간 증가가 미미하여 실용성이 높음.
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
Title,
company name, 제목
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
Title,
company name, 제목
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |