Summary
Google Research에서는 Gemma 2를 발표하였습니다. Gemma 2는 9B 및 27B 파라미터 크기로 제공되며, 각각 13조 및 8조 토큰으로 훈련되었습니다. 이 모델은 Meta Llama 3 70B와 유사한 성능을 보여줍니다. Meta에서는 Meta LLM Compiler를 공개하였습니다. 이는 Code Llama 기반으로 추가적인 코드 최적화와 컴파일러 기능을 포함합니다. OpenAI는 TIME과의 전략적 콘텐츠 파트너십을 발표하였으며, Anthropic에서는 Claude.ai에 프로젝트 기능을 추가하였습니다. 또한, Hugging Face는 새로운 오픈 LLM 리더보드를 공개하였고, FineWeb 데이터셋에 관한 논문을 발표하였습니다.
Google, Gemma 2 발표
링크, 2024년 6월 28일,
Google Research
- Gemma 2 모델 발표, 9B 및 27B 파라미터 크기로 제공
- 각각 13조 및 8조 토큰으로 훈련
- 27B 모델은 Meta Llama 3 70B와 성능 경쟁 가능
- 첫 Chatbot Arena 평가에서 Gemma2 27B는 Anthropic Claude 3 Sonnet, Llama 3 70B, OpenAI GPT-4와 유사한 성능 기록
- 9B 모델은 71.3 MMLU, 52.8 AGIEval, 40.2 HumanEval 점수 기록
- 27B 모델은 75.2 MMLU, 55.1 AGIEval, 51.8 HumanEval 점수 기록
- 상업적 사용 가능, Hugging Face에서 제공
- Google TPUv5e에서 훈련, 효율적인 추론 성능 제공
- 슬라이딩 윈도우 어텐션, 로짓 소프트캡핑 및 그룹화된 쿼리 어텐션(GQA) 기능 포함
- Google Cloud에서 간편한 1클릭 배포 지원
META, Meta LLM Compiler 발표
링크, 2024년 6월 28일,
META
- Meta LLM Compiler 모델 발표, 코드 크기 최적화 및 디스어셈블리 작업에서 최첨단 결과 달성
- GPT-4보다 코드 크기 개선 및 디스어셈블리 성능 우수
- 두 가지 모델 제공: LLM Compiler, LLM Compiler FTD
- LLM Compiler: LLVM-IR, x86_84, ARM, CUDA 어셈블리 코드 5000억 토큰으로 사전 훈련
- LLM Compiler FTD: LLVM 어셈블리 코드 최적화 및 디스어셈블리 예측을 위해 추가 훈련
- 상업적 사용 가능, 연구 및 상업적 용도로 제공
- 컴파일러 완벽하게 에뮬레이션하는 비율 20%
OpenAI, TIME과의 전략적 콘텐츠 파트너십
링크, 2024년 6월 27일,
OpenAI
- TIME의 신뢰할 수 있는 저널리즘 콘텐츠에 대한 접근 제공
- 101년간의 아카이브 콘텐츠 포함
- OpenAI 제품에서 콘텐츠 인용 및 원본 링크 제공
- TIME은 OpenAI 기술을 활용하여 새로운 제품 개발
- OpenAI는 TIME의 피드백을 통해 저널리즘 제공 방식 개선
Anthropic, Claude.ai 프로젝트 기능 추가
링크, 2024년 6월 26일,
Anthropic
- Claude.ai Pro 및 Team 사용자에게 프로젝트 기능 제공
- 200K 컨텍스트 윈도우로 관련 문서, 코드, 인사이트 추가 가능
- 사용자 정의 지침 설정 가능, 예: 더 공식적인 어조 사용
- Artifacts 기능으로 콘텐츠 생성 및 실시간 미리보기 제공
- 팀 내 공유 활동 피드로 협업 강화
- 프로젝트 기능은 팀의 내부 지식을 활용하여 Claude의 출력을 강화
오픈 LLM 리더보드 2 공개
링크, 2024년 6월 28일,
Hugging Face
- 새로운 벤치마크 도입: MMLU-Pro, GPQA, MuSR, MATH, IFEval, BBH
- 성능 순위 개선 및 새로운 Gradio 컴포넌트 제공
- Qwen2 72B Instruct 모델이 상위 차지
- 커뮤니티 투표 시스템 도입
- 향상된 재현성, 델타 웨이트 및 챗 템플릿 지원
FineWeb 데이터셋 발표
링크, 2024년 6월 25일,
Hugging Face
- FineWeb 데이터셋: 96개의 Common Crawl 스냅샷에서 15조 토큰으로 구성
- FineWeb-Edu: 교육용 텍스트 필터링된 1.3조 토큰 데이터셋
- LLM 성능 개선, 다양한 공개 벤치마크에서 우수한 성능 기록
- 데이터셋 및 데이터 큐레이션 코드베이스 공개
- 중복 제거 및 필터링 전략에 대한 심도 있는 연구 포함
Infiniflow, RAGFlow 공개
링크, 2024년 6월 25일,
Infiniflow
- 오픈소스 RAG 엔진, 깊은 문서 이해 기반 지식 추출
- 다양한 형식의 비구조화 데이터 지원
- 품질 기반 질문 응답 기능 제공
- 간편한 RAG 워크플로우, 개인 및 대기업에 적합
- 다중 리콜 및 재순위 매기기 기능 제공
- 템플릿 기반 청킹, 인간의 개입 허용
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
Title,
한글제목
링크, date,
company name
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
Title,
한글제목
링크, date,
company name
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |