OpenAI는 복잡한 문제 해결 능력을 갖춘 o1-preview와 o1-mini 모델을 발표했고, Google은 공공 데이터 통계를 AI 응답에 활용하는 DataGemma 모델과 NotebookLM을 선보였습니다. Microsoft는 AI 모델 평가를 위한 Eureka 프레임워크를 발표하여 다양한 AI 모델의 강점과 약점을 분석했습니다. Mistral AI는 128K 컨텍스트를 지원하는 Small Instruct 22B 모델을 출시하며, Alibaba는 다국어 지원과 구조화된 데이터 처리에 강점이 있는 Qwen 2.5를 공개했습니다. Hugging Face는 Reflective MAGLLAMA 데이터셋과 FineVideo 비디오 이해 데이터셋을 발표하여 AI의 학습 및 비디오 분석 기능을 강화했습니다.소규모 모델(Small Models)의 역할을 분석한 연구가 발표되어, 대형 언어 모델(LLM) 시대에서 소규모 모델의 실용성을 조명하였으며, 또 다른 논문에서는 LLM의 메모리 기능을 심층 분석하며, ‘슈뢰딩거의 메모리’ 개념을 제시해 LLM이 특정 입력에 따라 메모리 기능을 발휘하는 방식을 설명했습니다.
OpenAI, o1-preview 및 o1-mini 발표
링크, 2024년 9월 13일
- OpenAI는 o1-preview와 o1-mini라는 두 가지 주요 모델을 발표하여 복잡한 문제 해결 능력을 강화
- o1-preview는 복잡한 문제를 단계적으로 분석하고 해결하는 능력을 갖추었으며, 과학, 코딩, 수학 분야에서 특히 뛰어난 성능을 보임
- 사고의 사슬(Chain of Thought) 방식을 도입하여 모델이 추론 과정에서 논리적 단계를 거쳐 정확한 답변을 생성
- **강화 학습(Reinforcement Learning)**을 통해 모델이 스스로 학습하고 추론 과정에서 발생한 오류를 수정하며 성능을 지속적으로 향상
- o1-preview는 고성능 문제 해결을 목표로 하며, o1-mini는 개발자와 연구자에게 실용적이고 비용 효율적인 솔루션을 제공
- 향후 웹 브라우징, 파일 및 이미지 업로드 기능 추가 예정
- 안전성과 정렬 지침 준수로 부적절한 응답 방지
- 다양한 분야에서 성능 입증: GPQA 다이아몬드 테스트에서 73.3% 정확도 기록, AIME 수학 시험에서 83.3% 정확도 도달
- 코딩 분야에서는 Codeforces 대회에서 1,673점의 Elo 점수를 기록하며 GPT-4o의 성능을 크게 상회
- 향후 ChatGPT Plus 및 ChatGPT Enterprise 사용자들이 o1 모델을 사용할 수 있으며, API를 통한 개발자 지원도 포함됨
Google, DataGemma 출시
링크, 2024년 9월 12일
- Google DeepMind는 DataGemma라는 새로운 AI 모델을 발표, Data Commons와 연결하여 공공 데이터에 기반한 통계 정보를 활용해 AI 응답의 정확성을 극대화
- DataGemma RIG 모델은 사용자의 질의에 대해 실시간으로 Data Commons 데이터를 조회하고 응답 생성 시 참조, RAG(Retrieval-Augmented Generation) 방법론을 통해 모델이 훈련 데이터 외부의 컨텍스트 정보를 가져와 더욱 정확한 응답을 생성
- DataGemma 모델은 LLM의 “환각(hallucination)” 문제를 해결하는 데 중점을 두며, 신뢰할 수 있는 통계 정보를 사용해 응답의 정확성을 크게 향상
- TPUv5e를 사용하여 JAX로 훈련되었으며, Hugging Face에서도 사용 가능
Google, NotebookLM 발표
링크, 2023년 7월 12일
- Google Labs는 NotebookLM이라는 AI 기반 노트북을 발표, 이 도구는 사용자가 문서에서 더 빠르게 인사이트를 얻을 수 있도록 도와주는 실험적인 노트북 시스템
- 기존의 문서 기반 노트테이킹 방식과 달리, NotebookLM은 AI를 통해 문서를 요약하고, 복잡한 아이디어를 설명하며, 새로운 연결점을 찾아내는 데 중점을 둠
- NotebookLM은 사용자가 직접 선택한 Google Docs 문서에 AI 모델을 ‘기반’으로 하여 작업을 수행, 문서의 요약, 질문 응답, 아이디어 생성 등 다양한 작업을 지원
- 학생, 연구자, 크리에이터들이 데이터를 쉽게 통합하고 인사이트를 얻을 수 있도록 설계되었으며, 향후 더 많은 문서 형식 지원 예정
Mistral AI, Small Instruct 22B 모델 출시
링크, 2024년 9월 17일
- Mistral AI는 Small Instruct 22B라는 새로운 다국어 AI 모델을 발표, 128K 컨텍스트 지원 및 함수 호출(function calling) 기능 포함
- 이 모델은 Mistral NeMo 12B와 Mistral Large 123B 사이의 중간 모델로서 22B 파라미터를 갖추고 있으며, 번역, 요약, 감정 분석 등 다양한 태스크에서 뛰어난 성능을 발휘
- 비상업적 용도로 사용 가능한 모델 가중치를 Hugging Face에서 제공
- 또한 Pixtral 12B라는 비전 모델도 출시하여, 이미지 이해 기능을 제공하며 Apache 2.0 라이선스 하에 배포
Alibaba, Qwen 2.5 발표
링크, 2024년 9월 19일
- Alibaba는 Qwen 2.5 모델 시리즈를 발표하며, 최대 72B 파라미터를 가진 이 모델은 Llama 3.1 및 Mistral Large 2(123B)를 능가하는 성능을 자랑
- Qwen2.5는 18조 개의 토큰을 사용해 훈련되었으며, MMLU 벤치마크에서 85점 이상, HumanEval 및 MATH 벤치마크에서 각각 85점 이상과 80점 이상의 성과를 기록
- 128K 토큰까지 처리 가능하며, 다국어 지원 (29개 언어) 및 JSON 생성 등 구조화된 데이터 처리에서 뛰어난 성능 발휘
- Qwen2.5-Coder, Qwen2.5-Math 등의 특화 모델도 함께 출시, 특히 코딩 및 수학 관련 작업에서 우수한 성능을 보임
Microsoft, Eureka 발표
링크, 2024년 9월 18일
- Microsoft는 AI 모델 성능을 평가하는 Eureka라는 오픈소스 프레임워크를 발표, 이 도구는 12개의 최첨단 AI 모델에 대한 심층 분석을 제공
- 멀티모달 및 언어 능력을 초점으로 한 평가를 통해 AI 모델의 강점과 약점에 대한 통찰을 제공하며, 단일 점수로 모델을 평가하는 것을 넘어 다양한 요소를 분석
- 모델 간 비교뿐만 아니라 AI의 현실 세계 응용에 중요한 기본 기능들이 여전히 도전적인 과제임을 강조
Hugging Face, Reflective-MAGLLAMA 데이터셋 출시
링크, 2024년 9월 13일
- Reflective MAGLLAMA 데이터셋은 반사적 프롬프팅(reflection prompting) 기법을 통해 심층적인 사고 및 분석을 유도하는 합성 데이터셋으로, 10,000개의 샘플을 포함
- 이 데이터셋은 LLaMa 3.1 모델을 사용하여 생성된 반사적 응답을 수집하여, 분석적 문제 해결 및 학습 촉진에 적합한 모델 훈련 및 평가에 활용 가능
Jina AI, Reader-LM 출시
링크, 2024년 9월 14일
- Jina AI는 Reader-LM이라는 모델을 발표, HTML 웹페이지에서 Markdown으로 변환하는 전체 파이프라인을 처리하는 모델
- Reader-LM-0.5B와 1.5B 두 가지 모델을 출시하여, 다양한 HTML 데이터를 처리하는 능력을 강화하고, Markdown 추출 작업을 자동화
Hugging Face, FineVideo 데이터셋 출시
링크, 2024년 9월 15일
- Hugging Face는 FineVideo라는 비디오 이해를 위한 데이터셋을 발표, 43,751개의 비디오와 122개의 카테고리를 포함
- 약 3,425시간의 콘텐츠를 제공하며, 감정 분석, 스토리텔링, 미디어 편집 등 다중 모달 작업에 최적화된 데이터셋으로, 비디오 내 장면, 캐릭터, 음향-시각적 상호작용
에 대한 자세한 주석을 포함
소규모 모델의 역할에 관한 설문 조사 논문 발표
링크, 2024년 9월 10일
- **소규모 모델(Small Models)**이 LLM(대형 언어 모델) 시대에서 가지는 역할을 체계적으로 분석한 설문 조사 논문 발표
- 소규모 모델(SM)은 실용적이며, 학술 연구나 자원이 제한된 비즈니스 환경에서 특히 유용하다는 점을 강조
- SM이 LLM과 협업 또는 경쟁하는 방식에 대해 분석하고, 효율적인 컴퓨팅 자원 사용에 대한 통찰 제공
LLM 메모리 연구 논문 발표
링크, 2024년 9월 16일
- LLM의 메모리 기능에 대한 심층 연구를 다룬 논문 발표
- **슈뢰딩거의 메모리(Schrodinger’s Memory)**라는 개념을 도입하여, LLM의 메모리는 특정 질의가 있을 때만 관찰될 수 있다고 설명
- 인간의 기억과 LLM의 기억 간 유사점과 차이점에 대해 탐구, Transformer 아키텍처가 동적 적응성을 갖춘 모델로 작동하며, 최소한의 입력 정보만으로 전체 내용을 기억할 수 있음
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |