Summary
Anthropic에서는 안드로이드용 Claude 앱을 출시하여 강력한 AI 모델 Claude 3.5 Sonnet의 기능을 안드로이드 사용자들에게 제공합니다. Mistral AI는 코드 생성에 특화된 Codestral Mamba 모델과 수학적 추론을 위한 Mathstral 모델을 발표했습니다. Microsoft는 스프레드시트 데이터 처리를 위한 효율적인 인코딩 방법을 도입한 SpreadsheetLLM을 소개했습니다. H2o는 소형 언어 모델인 SmolLM을 공개했으며, Alibaba는 Qwen2 시리즈의 기술 보고서를 발표했습니다. Gartner는 2024년 AI Hype Cycle을 발표하면서 Sovereign AI의 중요성을 강조했습니다. Neural Magic은 vLLM에 FP8 양자화 지원을 추가하여 효율적인 LLM 추론을 가능하게 했습니다. AI 환각 문제를 다루는 다양한 연구도 진행되고 있습니다.
Claude Android 앱 출시,
Anthropic, Claude Android 앱 출시
링크, 2024년 7월 17일,
- 새로운 Claude Android 앱은 안드로이드 사용자들에게 Claude 3.5 Sonnet 모델의 강력한 기능을 제공합니다.
- 이 앱은 모든 플랜에서 무료로 사용할 수 있으며, iOS 및 웹과 동일한 기능을 지원합니다.
- 다중 플랫폼 지원: 웹, iOS, 안드로이드 앱에서 대화를 이어갈 수 있습니다.
- 비전 기능: 실시간 이미지 분석을 위한 사진 촬영 및 파일 업로드 기능 제공.
- 다국어 처리: 실시간 언어 번역 기능으로 의사소통 및 번역 지원.
- 고급 추론: 계약서 분석, 시장 조사 등 복잡한 문제 해결 가능.
- 다양한 사용 사례: 비즈니스 제안서 작성, 여행 중 메뉴 번역, 쇼핑 중 선물 아이디어 브레인스토밍, 비행 대기 중 연설 작성 등.
Codestral Mamba 및 Mathstral 모델 출시,
Mistral AI, Codestral Mamba 및 Mathstral 모델 출시
링크, 2024년 7월 16일,
- Codestral Mamba 모델은 코드 생성에 특화된 Mamba2 아키텍처 기반의 모델입니다.
- Apache 2.0 라이선스 하에 무료로 제공되며, HumanEval에서 75% 성능을 달성.
- 긴 시퀀스를 모델링할 수 있는 선형 시간 추론 능력 보유.
- 256k 토큰까지의 맥락 검색 기능 테스트 완료.
- Mathstral 모델은 수학적 추론에 특화된 모델로, MATH에서 56.6%, MMLU에서 63.47% 성능을 기록.
- 학계 프로젝트 지원을 위한 노력의 일환으로 Mathstral 모델 출시.
SpreadsheetLLM: 스프레드시트 인코딩 방법 소개,
Microsoft, SpreadsheetLLM
링크, 2024년 7월 12일,
- 스프레드시트 데이터를 효율적으로 인코딩하는 방법을 소개.
- SheetCompressor라는 혁신적인 인코딩 프레임워크 개발.
- GPT4의 맥락 학습 설정에서 25.6% 성능 향상.
- 평균 압축 비율 25배, 78.9% F1 점수로 기존 모델 대비 12.3% 향상.
- 스프레드시트 이해와 관련된 다양한 작업에서 뛰어난 성능 발휘.
SmolLM 모델 발표,
H2o, SmolLM 발표
링크, 2024년 7월 16일,
- 작은 크기의 언어 모델인 SmolLM 시리즈 공개: 135M, 360M, 1.7B 매개변수 모델.
- 고품질 데이터셋을 사용하여 효율적인 훈련 및 성능 향상.
- 교육 및 일반 상식을 테스트하는 다양한 벤치마크에서 우수한 성능을 입증.
- SmolLM 모델은 모바일 장치에서도 높은 성능을 발휘하도록 설계됨.
Qwen2 Technical Report 발표,
Alibaba, Qwen2 Technical Report 발표
링크, 2024년 7월 12일,
- Qwen2 시리즈는 0.5B에서 72B 매개변수 범위를 포함하는 다양한 모델을 제공.
- 다중 언어 능력, 코딩, 수학 및 추론에서 뛰어난 성능을 발휘.
- Qwen2-72B 모델은 MMLU에서 84.2, GPQA에서 37.9, HumanEval에서 64.6, GSM8K에서 89.5, BBH에서 82.4 점수를 기록.
- Qwen2 시리즈는 공개 가중치로 제공되며, Hugging Face 및 ModelScope에서 접근 가능.
AI Hype Cycle 2024 발표,
Gartner, AI Hype Cycle 2024 발표
링크, 2024년 7월 12일,
- Sovereign AI가 새로운 키워드로 등장.
- Sovereign AI는 국가의 언어, 문화, 사회적 맥락을 반영한 AI 서비스.
- Naver는 자체 개발한 HyperCLOVA X를 이용한 Sovereign AI 챗봇 출시.
- 각국 정부와 기업들이 Sovereign AI에 대한 투자를 강화하고 있음.
FP8 양자화 지원 추가,
Neural Magic, vLLM에 FP8 양자화 지원
링크, 2024년 7월 15일,
- FP8 양자화는 LLM 추론의 효율성을 극대화.
- NVIDIA H100 GPU에서 최대 2배의 지연 시간 감소.
- 99% 이상의 정확도 보존.
- 다양한 모델에서 메모리 사용량 절감 및 성능 향상.
AI 환각 문제 연구,
Intel, AI 환각 문제 연구
링크, 2024년 7월 3일,
- Intel Neural Chat 7B 모델이 AI 환각률 리더보드에 올랐음.
- AI 환각 문제는 여전히 해결되지 않았으며, 여러 연구가 진행 중.
- Oxford 연구진은 새로운 환각 감지 방법을 개발, AI 응답의 신뢰성을 높임.
Context Embeddings for Efficient Answer Generation in RAG
연구팀, 효율적인 RAG를 위한 문맥 임베딩
링크, 2024년 7월 12일,
- RAG에서 긴 문맥을 효율적으로 압축하여 답변 생성 속도를 크게 향상시키는 방법을 제안.
- COCOM이라는 문맥 압축 방법을 통해 긴 입력을 소수의 문맥 임베딩으로 축소.
- 기존 방법들에 비해 5.69배 속도 향상 및 더 높은 성능 달성.
AI 논문 추천,
연구팀, 주목할 만한 AI 논문 추천
- RankRAG: 문맥 순위와 답변 생성을 효과적으로 수행하는 새로운 지침 미세조정 프레임워크.
- Mixture of A Million Experts: 백만 개의 작은 전문가를 활용한 효율적인 전문가 검색 메커니즘.
- Contextual Hallucinations Mitigation in LLMs: LLM에서 문맥 환각을 감지하고 줄이는 새로운 방법 제안.
- RouteLLM: 비용과 성능의 균형을 맞추기 위해 더 강력한 LLM과 약한 LLM을 동적으로 선택하는 효율적인 라우터 모델.
- Internet of Agents: 다양한 제3자 에이전트를 통합하고 동적 작업 요구사항에 적응할 수 있는 새로운 프레임워크.
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
Title,
company name, 제목
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
Title,
company name, 제목
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |