Summary
OpenAI에서는 Microsoft Azure AI 플랫폼을 Oracle Cloud Infrastructure (OCI)로 확장하는 파트너십을 발표했습니다. META는 모바일 기기에 최적화된 대규모 언어 모델인 MobileLLM을 소개했습니다. Synthesia는 AI 비디오 커뮤니케이션 플랫폼 Synthesia 2.0을 발표했으며, Anthropic은 Claude 콘솔에서 새로운 프롬프트 생성 및 평가 기능을 도입했습니다. Microsoft는 긴 문맥 LLM을 위한 MInference 1.0을 발표했습니다. THUMD는 다중 언어 코드 생성 모델 CodeGeeX4-ALL-9B를 소개했습니다. BAAI는 인코더 없는 비전-언어 모델 EVE를 공개했습니다. Cohere는 다중 언어 환경에서의 RLHF 최적화를 연구한 논문을 발표했습니다. 또한, BNP Paribas는 Mistral AI와 파트너십을 맺었습니다.
OpenAI와 Oracle의 파트너십
OpenAI, Oracle Cloud Infrastructure를 통해 Microsoft Azure AI 플랫폼 확장
링크, 2024년 6월 11일,
- OpenAI는 Oracle, Microsoft와 협력하여 Microsoft Azure AI 플랫폼을 Oracle Cloud Infrastructure (OCI)로 확장
- OCI는 Azure 플랫폼을 확장하고 OpenAI가 지속적으로 확장할 수 있도록 지원
- OCI의 AI 인프라는 전 세계 수천 개의 AI 혁신가들이 사용 중
- OCI의 목적 맞춤형 AI 기능은 스타트업과 기업이 모델을 더 빠르고 신뢰성 있게 구축하고 훈련할 수 있도록 지원
- Oracle의 Gen2 AI 인프라는 세계에서 가장 빠르고 비용 효율적인 AI 인프라로 인정받음
- Oracle의 창립자 겸 CTO인 Larry Ellison은 “세계에서 가장 위대한 대규모 언어 모델을 구축하는 경쟁이 진행 중이며, 이는 Oracle의 Gen2 AI 인프라에 대한 무한한 수요를 촉진하고 있다”고 언급
- OpenAI CEO Sam Altman은 “Microsoft와 Oracle과 협력하게 되어 기쁘다. OCI는 Azure 플랫폼을 확장하고 OpenAI가 계속 확장할 수 있도록 할 것”이라고 언급
META의 MobileLLM
META, MobileLLM: 최적화된 소규모 언어 모델
링크, 2024년 7월 9일,
- META는 클라우드 비용과 지연 문제를 해결하기 위해 모바일 기기에 최적화된 대규모 언어 모델을 설계
- MobileLLM은 10억 개 미만의 파라미터로 고품질 모델을 제공
- 깊고 얇은 아키텍처, 임베딩 공유, 그룹화된 쿼리 주의 메커니즘을 활용
- MobileLLM-LS는 MobileLLM 모델보다 추가적인 정확도 향상
- MobileLLM 모델군은 이전 소규모 모델들에 비해 대화형 벤치마크에서 유의미한 성능 향상
- MobileLLM은 LLaMA-v2 7B와 비슷한 API 호출 작업에서 뛰어난 성능을 발휘
- 새로운 모델은 모바일 장치에서 효율적으로 작동하도록 설계되어 클라우드 비용 절감 및 지연 문제를 해결
Synthesia 2.0 발표
Synthesia, 세계 최초 AI 비디오 커뮤니케이션 플랫폼
링크, 2024년 6월 25일,
- Synthesia 2.0은 텍스트, PPT, PDF, URL을 몇 분 만에 비디오로 변환
- 새로운 Personal AI 아바타 및 차세대 AI 아바타 공개 예정
- AI Video Assistant는 전체 지식 베이스를 비디오 라이브러리로 변환
- 새로운 AI Screen Recorder를 통해 화면 녹화를 비디오 프레젠테이션으로 전환
- ISO/IEC 42001 인증을 목표로 AI 안전성 강화
- 개인 AI 아바타는 스튜디오에서 고해상도 카메라로 촬영된 Expressive Avatar와 자연 배경에서 웹캠이나 휴대폰으로 촬영된 Custom Avatar 두 가지 방식으로 생성 가능
- AI Screen Recorder는 화면 녹화를 비디오 프레젠테이션으로 변환하여 고품질 비디오를 쉽게 업데이트 가능
- 1-클릭 번역 기능으로 비디오를 120개 이상의 언어로 자동 번역
- 새로운 비디오 플레이어는 개인화된 실시간 상호작용 경험 제공
- 안전한 AI 개발 및 사용을 위해 AI 안전성을 핵심으로 삼고 ISO/IEC 42001 인증을 목표로 함
Anthropic 콘솔 프롬프트 평가 기능
Anthropic, 프롬프트 생성 및 평가 기능 추가
링크, 2024년 7월 10일,
- Anthropic 콘솔에서 프롬프트 생성, 테스트 및 평가 기능 도입
- Claude 3.5 Sonnet을 활용한 프롬프트 생성 기능 제공
- 테스트 케이스 자동 생성 및 비교 기능 추가
- 프롬프트의 품질을 개선하기 위한 새로운 기능 제공
- 사용자가 Claude 3.5 Sonnet을 통해 프롬프트를 생성하고 테스트 케이스를 자동으로 생성하여 Claude의 응답을 확인 가능
- Evaluate 기능을 통해 다양한 실제 입력에 대해 프롬프트를 테스트하여 품질을 확인하고 배포 전에 신뢰성을 구축 가능
- 테스트 케이스를 수동으로 추가하거나 CSV에서 가져올 수 있으며, Claude를 사용하여 자동으로 생성 가능
- 테스트 케이스를 수정하고 한 번의 클릭으로 모든 테스트 케이스를 실행하여 결과를 비교 가능
- 주제 전문가가 응답 품질을 5점 척도로 평가하여 응답 품질을 개선할 수 있음
Microsoft MInference 1.0 발표
Microsoft, 긴 문맥 LLM을 위한 MInference 1.0
링크, 2024년 7월 7일,
- MInference 1.0은 동적 희소 주의를 활용하여 긴 문맥 LLM의 사전 채우기 속도 향상
- A100 GPU에서 최대 10배 속도 향상
- LLaMA-3-8B-1M, GLM-4-1M과 같은 모델을 지원
- ICML’24에서 발표 예정
- MInference 1.0은 LLM의 주의 메커니즘에서 정적 패턴을 활용하여 사전 채우기 속도를 높임
- 각 헤드의 희소 패턴을 오프라인에서 결정한 후, 희소 인덱스를 온라인에서 근사화하여 최적의 커널로 주의를 동적으로 계산
- 긴 문맥 LLM의 사전 채우기 속도를 최대 10배까지 향상시키면서 정확도를 유지
CodeGeeX4-ALL-9B 모델 소개
THUDM, CodeGeeX4: 다중 언어 코드 생성 모델
링크, 2024년 7월 5일,
- CodeGeeX4-ALL-9B는 ChatGLM 9B를 기반으로 한 다중 언어 코드 생성 모델
- 코드 완성, 코드 생성, 코드 해석, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A 지원
- BigCodeBench 및 NaturalCodeBench에서 높은 성능 달성
- CodeGeeX4-ALL-9B는 CodeLlama 70B와 경쟁하며, DeepSeek Coder 33B와 비슷한 성능을 발휘
- 최대 128K 컨텍스트를 지원하며, 다양한 소프트웨어 개발 시나리오에서 활용 가능
- 다중 언어를 지원하여 글로벌 소프트웨어 개발자 커뮤니티에 유용
EVE 비전-언어 모델 발표
BAAI, 인코더 없는 비전-언어 모델 EVE 공개
링크, 2024년 6월 17일,
- EVE는 비전 인코더 없이 비전-언어 입력을 수용하는 모델
- 단일 디코더를 사용하여 비전-언어 표현을 통합
- 35M의 공개 데이터만으로도 유사한 용량의 인코더 기반 VLM과 경쟁
- 여러 비전-언어 벤치마크에서 높은 성능 달성
- EVE는 비전-언어 모델의 훈련 및 전송 효율성을 높이기 위한 새로운 훈련 레시피 제공
- 비전 인코더를 사용하지
않음으로써 모델의 유연성과 효율성 증대
- EVE는 Fuyu-8B 모델보다 성능이 우수하며, 투명하고 효율적인 모달리티 간 디코더 아키텍처 제공
다중 언어 환경에서의 RLHF 최적화
Cohere, RLHF 다중 언어 최적화 연구 발표
링크, 2024년 7월 3일,
- Cohere는 다중 언어 환경에서 RLHF 최적화를 연구
- 50K개의 영어 프롬프트를 22개 언어로 번역하여 다중 언어 피드백 데이터 생성
- Aya 23 8B 모델을 사용하여 RLHF DPO 및 RLOO 방법 비교
- RLOO 방법이 DPO 방법보다 언어 전이 능력이 더 뛰어남
- 다중 언어 피드백 데이터를 통해 RLHF 최적화 수행
- 50K개의 영어 프롬프트를 22개 언어로 번역하여 다중 언어 피드백 데이터 생성
- 5개 언어로 훈련한 모델이 보지 못한 언어에서도 성능이 19% 향상
- RLOO 방법이 DPO 방법보다 평균 승률에서 10.6% 우수
- 데이터 양이 증가함에 따라 DPO는 성능이 향상되지만 RLOO는 그렇지 않음
BNP Paribas와 Mistral AI의 파트너십
BNP Paribas, Mistral AI 모델 파트너십
링크, 2024년 7월 10일,
- BNP Paribas와 Mistral AI는 Mistral AI의 상업적 모델을 사용하는 다년간의 파트너십을 체결
- BNP Paribas는 고객 지원, 영업, IT 등 여러 비즈니스 라인에서 Mistral AI의 모델을 활용
- Mistral AI의 에너지 효율적인 모델을 통해 확장 가능성 제공
- 협력을 통해 금융 서비스의 미래를 재정의할 혁신적인 사용 사례 개발
- BNP Paribas는 Mistral AI의 대규모 언어 모델을 활용하여 여러 비즈니스 라인에서 다양한 사용 사례를 개발 중
- Mistral AI의 모델은 높은 에너지 효율성과 확장 가능성을 제공하여 규제 기관의 요구를 충족함
- 협력을 통해 금융 서비스의 고객 지원, 판매, IT 등의 분야에서 혁신적인 사용 사례를 개발할 계획
- BNP Paribas의 COO Sophie Heller는 “고품질 가상 비서 등을 통해 고객의 질문에 24/7 응답하고 프로세스를 간소화할 것”이라고 언급
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
Title,
company name, 제목
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
Title,
company name, 제목
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |