Apple은 Apple Intelligence Foundation 모델에 대한 상세 보고서를 공개했습니다. Google은 Gemma 2 2B 모델을 소개하였으며 GPT-3.5 모델보다 뛰어난 성능을 보였습니다. Meta는 Segment Anything Model 2 (SAM 2)를 발표하여 이미지 및 비디오 객체 분할에서의 성능 향상을 강조했습니다. PyTorch는 torchchat을 소개하며 로컬 LLM 추론을 가속화할 수 있는 방법을 공유했습니다. Hugging Face는 TRL 라이브러리를 통해 비전 언어 모델(VLM)을 위한 선호 최적화(Preference Optimization)를 지원하기 시작했습니다.
Apple, Apple Intelligence Foundation Language Models
링크, 2024년 7월
- Dense - decoder only transformer architecture를 사용한 Dense 구조.
- RMSNorm 및 Query/Key normalization 사용.
- 8개의 KV heads를 가진 GQA.
- SwiGLU 활성화 및 RoPE(base_freq=500K) 사용.
- Applebot을 통한 웹 크롤링 데이터, 공개 코드 및 수학 데이터셋 사용.
- BPE 토크나이저: 서버 모델용 100K 단어 사전, 온디바이스 모델용 49K 단어 사전.
- 3단계 사전 학습:
- Core: 대부분의 컴퓨팅 자원 사용, AFM-server는 6.3T 토큰, 4096 시퀀스 길이.
- Continued: 저품질 데이터의 가중치를 낮추고 코드, 수학, 라이선스 데이터의 가중치를 높임. 1T 토큰, 8192 시퀀스 길이.
- Context-lengthening: 긴 시퀀스와 합성 데이터를 사용한 학습. 100B 토큰, 32768 시퀀스 길이.
- 사후 학습: 합성 데이터와 인간 주석 데이터 사용.
- 수학 문제 재구성 및 변형, 도구 사용 및 코딩.
- RLHF: 반복적인 인간 선호 데이터 수집 및 위원회 기반 온라인 새로 고침.
- 배포:
- 각 작업에 대한 어댑터 사용, 어댑터 값은 16비트로 표현.
- 4비트 양자화, 정확도 회복 어댑터로 성능 손실 회복.
- 일부 레이어는 2비트로 축소.
- 평가:
- 온디바이스: IFEval에서 최고 수준, AlpacaEval 2.0에서 Gemma 7B와 경쟁.
- 서버: IFEval에서 최고 수준, Arena Hard에서 Mixtral 8x22B와 비교.
- 도구/함수 호출, 작성(요약, 구성) 벤치마크에서 GPT-4/Gemini 1.5와 경쟁.
Google, Smaller, Safer, More Transparent: Advancing Responsible AI with Gemma
링크, 2024년 7월 31일
- Gemma 2 모델 2B 파라미터 크기로 출시.
- Gemma 2 2B 모델은 Chatbot Arena에서 GPT-3.5 모델보다 뛰어난 성능을 보임.
- ShieldGemma: 사용자를 보호하는 최신 안전 분류기 모델.
- 주요 해로운 콘텐츠 유형(혐오 발언, 괴롭힘, 성적으로 노골적인 콘텐츠, 위험한 콘텐츠)을 감지하고 완화.
- 다양한 모델 크기로 제공되어 온라인 및 오프라인 분류 작업에 적합.
- Gemma Scope: 모델 내부 작동 방식을 이해할 수 있는 도구.
- Sparse autoencoders(SAEs)를 사용하여 모델의 내부 작동 방식을 해석.
- 연구자들이 모델의 패턴 인식, 정보 처리 및 예측 과정을 이해할 수 있도록 지원.
Meta, Introducing SAM 2: The next generation of Meta Segment Anything Model for videos and images
링크, 2024년 7월 29일
- SAM 2 모델은 이미지와 비디오 객체 분할을 위한 통합 모델.
- 실시간 프롬프트 가능한 객체 분할 기능.
- 이미지 분할 정확도 향상 및 비디오 분할 성능 개선.
- 세 배 적은 상호작용 시간으로 높은 성능 제공.
- SA-V 데이터셋 공개:
- 51,000개 비디오와 600,000개 이상의 마스크렛 포함.
- 다양한 실제 시나리오와 객체 파트를 포함한 대규모 데이터셋.
- 실시간 상호작용 세그멘테이션 데모 제공.
PyTorch, Introducing torchchat: Accelerating Local LLM Inference on Laptop, Desktop and Mobile
링크, 2024년 7월 30일
- torchchat 라이브러리 출시: 로컬 LLM 추론 가속화.
- Llama 3, 3.1 등 대형 언어 모델을 다양한 장치에서 원활하게 실행 가능.
- 다양한 성능 지표와 하드웨어 구성에 대한 테스트 결과 제공.
- Apple MacBook Pro M1 Max에서 Llama 3 8B 모델 테스트 결과: float16에서 초당 12.63 토큰 처리.
- Intel Xeon CPU와 A100 GPU에서 Llama 3 8B 모델 테스트 결과: CUDA 컴파일 모드에서 초당 135.16 토큰 처리.
- Samsung Galaxy S23와 iPhone에서 4비트 GPTQ를 사용하여 초당 8T 이상 처리.
Hugging Face, Preference Optimization for Vision Language Models with TRL
링크, 2024년 7월 10일
- TRL 라이브러리에서 비전 언어 모델(VLM)용 선호 최적화(DPO) 지원 시작.
- 인간의 판단을 더 효과적으로 반영하여 모델을 미세 조정하는 방법.
- DPO는 고정된 레이블 대신 후보 답변을 비교하고 순위를 매겨 더 정교한 인간 판단을 반영.
- PEFT 및 bitsandbytes를 통한 QLoRA와 LoRA 미세 조정 지원.
- Idefics2, Llava 1.5, PaliGemma 모델에 대한 지원 포함.
- 실험 및 개발을 쉽게 하기 위한 다양한 스크립트와 예제 제공.
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |