➡️ Cohere에서는 기업용 대형 언어 모델 시리즈의 마지막 모델인 Command R7B를 출시하였습니다.
➡️ Genesis-world에서는 로보틱스 및 물리 AI 애플리케이션을 위한 종합 물리 플랫폼인 Genesis를 공개하였습니다.
➡️ Answer.ai에서는 ModernBERT를 발표하여 BERT 모델의 현대화를 통해 성능과 효율성을 대폭 향상시켰습니다.
➡️ Google DeepMind에서는 Gemini 2.0 Flash Thinking 모델을 출시하여 다중 모달 입력과 강화된 추론 성능을 제공하고 있습니다.
➡️ IBM에서는 Granite 3.1 Language Models를 업데이트하여 더 긴 컨텍스트, 향상된 RAG 및 함수 호출 기능을 도입하였습니다.
➡️ 연구자들은 오픈 소스 LLM의 장점에 대한 논문을 제출하였습니다.
➡️ Hugging Face에서는 Falcon3 오픈 모델을 출시하여 다양한 버전과 향상된 성능을 선보였습니다.
➡️ Google DeepMind와 Google Research는 FACTS Grounding 벤치마크를 발표하여 LLM의 사실 정확성과 문서 기반 응답 능력을 평가하였습니다.
➡️ Tencent에서는 BrushEdit을 발표하여 정밀한 이미지 편집을 지원하는 인페인팅 모델을 소개하였습니다.
Cohere, Command R7B 출시
링크, 2024년 12월 14일
- Cohere, R 시리즈 마지막 모델인 Command R7B 출시.
- Command R7B, 128k 컨텍스트 길이, 다국어 지원, 인용 검증된 검색 보강 생성(RAG), 추론, 도구 사용, 에이전트 행동 기능 탑재.
- 소형 GPU, 맥북, CPU에서도 서비스 가능, AI 애플리케이션 배포 비용 절감.
- HuggingFace Open LLM Leaderboard에서 동급 모델 중 평균 1위 기록.
- 수학, 코드, 추론 작업에서 다른 오픈 웨이트 모델 능가하는 성능 발휘.
- 기업용 AI 시스템 배포에 최적화, 높은 처리 속도와 실시간 사용 사례에 적합.
Genesis-world, Genesis 플랫폼 공개
링크, 2024년 12월 19일
- Genesis-world, 로보틱스, 엠보디드 AI, 물리 AI 애플리케이션 위한 종합 물리 플랫폼 Genesis 공개.
- Genesis, 범용 물리 엔진, 경량 로보틱스 시뮬레이션 플랫폼, 포토리얼리스틱 렌더링 시스템, 생성 데이터 엔진 통합.
- 100% 파이썬 개발, 설치 용이, 사용자 친화적 API 제공.
- 기존 시뮬레이션 플랫폼보다 10~80배 빠른 시뮬레이션 속도, 다양한 물리 솔버 지원.
- 멀티스레드 시뮬레이션과 차별화된 렌더링 기능으로 고도의 물리적 정확성과 시각적 충실도 제공.
- 오픈 소스로 제공, 커뮤니티 기여 환영, 로보틱스 연구를 위한 자동화된 데이터 생성 가능.
Answer.ai, ModernBERT 발표
링크, 2024년 12월 18일
- Answer.ai, ModernBERT 발표하여 BERT 모델 현대화.
- ModernBERT, 8192 토큰의 컨텍스트 길이와 플래시 어텐션, RoPE 임베딩, 교대 어텐션 도입, 성능과 효율성 향상.
- 2조 토큰 대규모 데이터로 훈련, 다양한 분류 작업과 다중 벡터 검색에서 뛰어난 성능 발휘.
- OpenAI O1 모델과 비교, 비슷한 크기 모델 중 우수한 성능, 메모리 효율성 뛰어남.
- 다양한 언어와 코드 데이터 학습, 프로그래밍 관련 작업에서 독보적인 성능 발휘.
- Hugging Face와 Transformers에 공개, Apache 2.0 라이선스로 제공.
Google DeepMind, Gemini 2.0 Flash Thinking 출시
링크, 2024년 12월 11일
- Google DeepMind, Gemini 2.0 Flash Thinking 모델 출시, 향상된 추론 성능 제공.
- Gemini 2.0 Flash, 다중 모달 입력(이미지, 비디오, 오디오) 지원, 체인 오브 싱크스(Chain of Thoughts) 노출시켜 강력한 추론 성능 구현.
- Gemini API 통해 Google AI Studio와 Vertex AI에서 개발자 사용 가능.
- Gemini 2.0 Flash, 빠른 응답 시간과 향상된 성능 제공, Gemini 앱과 AI 어시스턴트에 통합.
- Project Astra, Project Mariner, Jules 등 에이전트 기반 연구 프로토타입 통해 다양한 도메인에서 에이전트 활용 가능성 탐구.
- 안전 및 보안 기준 준수, 사용자 프라이버시 보호 기능 탑재.
IBM, Granite 3.1 Language Models 업데이트
링크, 2024년 12월 18일
- IBM, Granite 3.1 Language Models 업데이트, 더 긴 컨텍스트, 향상된 RAG 및 함수 호출 기능 도입.
- Granite3.1-8B-Instruct 모델, 8B 파라미터로 다양한 언어와 코드 데이터 특화 성능 발휘.
- 128K 토큰 긴 시퀀스 길이 지원, 12개 언어 다국어 지원.
- Apache 2.0 라이선스로 공개, Hugging Face에서 접근 가능, 다양한 파인튜닝 옵션 제공.
- 텍스트 분류, 질문 응답, 코드 관련 작업 등 다양한 용도로 활용 가능.
- IBM의 슈퍼컴퓨터 Blue Vela 사용, 대규모 데이터로 훈련.
오픈 소스 LLM의 장점에 대한 논문
링크, 2024년 12월 16일
- 연구자들, 오픈 소스와 클로즈드 소스 LLM 장단점 분석 논문 아카이브 제출.
- 오픈 소스 LLM인 LLaMA와 BLOOM, 커뮤니티 주도 개발과 컴퓨팅 효율성으로 경쟁력 있는 성능 발휘.
- 클로즈드 소스 모델 GPT-4, 대규모 데이터셋과 계산 자원 활용해 최첨단 성능 유지, 투명성 부족과 접근성 제한 문제 있음.
- 오픈 소스 모델, 투명성과 재현 가능성 제공, 윤리적 감사 프레임워크 부재로 일관된 윤리적 관리 어려움.
- 하이브리드 모델 필요성 강조, 접근성, 기술적 성능, 윤리적 배치 충족 가능성 제시.
Hugging Face, Falcon3 오픈 모델 출시
링크, 2024년 12월 17일
- Hugging Face, Falcon3 오픈 모델 출시.
- Falcon3 모델, 10B 미만 파라미터로 수학, 코드, 과학 지식 분야에서 뛰어난 성능 발휘.
- Falcon3-10B-Base 모델, MATH-Lvl5에서 22.9, GSM8K에서 83.0 점수 기록, 수학 추론 능력 입증.
- 다양한 버전(Instruct, GGUF, GPTQ-Int4 등) 제공, 다양한 애플리케이션에 유연하게 적용 가능.
- Llama 아키텍처와 호환, AI 생태계에 쉽게 통합 가능.
- Technology Innovation Institute (TII)에서 개발한 Falcon3, 14조 토큰으로 훈련.
Google DeepMind와 Google Research, FACTS Grounding 벤치마크 발표
링크, 2024년 12월 17일
- Google DeepMind와 Google Research, FACTS Grounding 벤치마크 발표, LLM의 사실 정확성과 문서 기반 응답 능력 평가.
- FACTS Grounding, 1,719개 예제로 구성, 860개 공개 데이터셋, 859개 비공개 데이터셋 포함.
- 다양한 도메인(의료, 법률, 기술, 금융, 소매 등) 포함, 사실 발견, 요약, 영향 분석, 개념 비교 등 작업 유형 포함.
- Gemini 2.0 Flash 모델, 83.6% 정확도로 1위, OpenAI GPT-4o 모델, 78.8%로 그 뒤.
- FACTS Grounding, 자동화된 LLM 심사 모델 사용, 다중 심사자 통해 편향 최소화.
- Kaggle 리더보드 운영, 커뮤니티 참여 통해 지속적으로 업데이트 예정.
Tencent, Brush Edit 출시
링크, 2024년 12월 17일
- Tencent, BrushEdit 출시, 정밀한 이미지 편집을 지원하는 인페인팅 모델 공개.
- BrushEdit, 자연어와 이미지를 기반으로 사용자가 원하는 대로 이미지를 편집할 수 있는 모델.
- 모델이 이미지를 정확하게 재구성하고, 다양한 물체를 삽입하거나 제거하는 기능 제공.
- 사용자가 텍스트 프롬프트와 마우스 드래그만으로 이미지를 손쉽게 수정할 수 있음.
- 고도화된 학습 데이터와 딥러닝 기술을 바탕으로 현실감 있는 이미지 생성 및 편집 가능.
- 온라인 상에서 쉽게 접근할 수 있는 플랫폼으로 이미지 편집의 새로운 패러다임 제시.
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |
기술적으로 최대한 자세하게 적어. 9개의 기사가 있고 하나도 빼먹지 말고 적어.