- 알리바바에서는 새로운 추론 AI 모델 QwQ-32B-Preview를 출시하여 OpenAI의 o1 모델에 도전하고 있습니다. 이 모델은 특정 벤치마크에서 우수한 성능을 보이며, 수학 및 논리 퍼즐 해결 능력을 향상시켰습니다.
- DeepSeek에서는 DeepSeek-R1-Lite-Preview를 발표하여 AIME 및 MATH 벤치마크에서 OpenAI의 o1-preview 수준의 성능을 달성했습니다. 이 모델은 실시간으로 투명한 사고 과정을 보여주며, 곧 오픈 소스 모델과 API를 출시할 예정입니다.
- NVIDIA는 Hymba라는 하이브리드 헤드 아키텍처를 적용한 소형 언어 모델을 발표하여 성능과 효율성을 향상시켰습니다. Hymba 1.5B 모델은 유사한 크기의 오픈 소스 모델보다 우수한 성능을 보이며, 상용 사용이 가능합니다.
- Hugging Face에서는 SmolVLM이라는 소형이지만 강력한 비전 언어 모델을 공개하였습니다. 이 모델은 메모리 효율성이 뛰어나고 완전한 오픈 소스로 제공되며, 다양한 응용 프로그램에서 사용할 수 있습니다.
- Blackforest Labs는 FLUX.1 Tools를 출시하여 FLUX.1 텍스트-이미지 모델에 제어 기능을 추가하였습니다. 이 도구는 실세계 이미지와 생성된 이미지를 수정 및 재생성할 수 있게 해주며, 네 가지 모델이 공개되었습니다.
- Apple에서는 빠른 CoreML 모델과 이를 iPhone에서 실행할 수 있는 iOS 앱을 발표하였습니다. 이 모델들은 높은 성능과 효율성을 제공하며, Hugging Face에서 다운로드할 수 있고 GitHub에서 코드를 확인할 수 있습니다.
- Alex Garcia는 sqlite-vec의 새로운 업데이트를 발표하여 vec0 가상 테이블에서 메타데이터 열과 필터링을 지원하게 되었습니다. 이를 통해 SQLite 또는 LibSQL 데이터베이스에서의 벡터 검색이 더욱 향상되었습니다.
- 연구팀은 XGrammar라는 대형 언어 모델을 위한 유연하고 효율적인 구조화 생성 엔진을 제안하였습니다. 이 엔진은 기존 솔루션보다 최대 100배 빠른 속도를 제공하며, 구조화된 생성을 거의 지연 없이 수행할 수 있습니다.
- .txt 팀에서는 ‘Let Me Speak Freely’ 논문에 대한 반박을 통해 구조화된 출력이 올바르게 구현되면 LLM 성능을 실제로 향상시킬 수 있음을 보여주었습니다. 이는 프롬프트, 파서, 생성기의 일치를 통해 가능하다고 강조하였습니다.
알리바바, QwQ: Reflect Deeply on the Boundaries of the Unknown
링크, 2024년 11월 28일
- 새로운 추론 AI 모델 QwQ-32B-Preview 출시
- 325억 개의 파라미터를 포함하고 약 32,000 단어의 프롬프트를 처리 가능
- OpenAI의 o1-preview 및 o1-mini보다 특정 벤치마크에서 우수한 성능
- AIME와 MATH 테스트에서 OpenAI의 o1 모델을 능가
- 논리 퍼즐 해결 및 도전적인 수학 질문 해결 가능
- 언어 전환 및 루프에 빠지는 현상 등의 한계점 존재
- 모델 자체의 사실 확인을 통해 잘못된 답변 감소, 그러나 답변 시간이 길어질 수 있음
- Hugging Face 플랫폼에서 다운로드 가능하며 상업적 사용 가능
- Apache 2.0 라이선스 하에 공개
- 모델의 일부 구성 요소만 공개되어 전체 시스템의 재현이나 심층적인 이해는 어려움
DeepSeek, NewsDeepSeek-R1-Lite Release 2024/11/20
링크, 2024년 11월 20일
- DeepSeek-R1-Lite-Preview 출시, 향상된 추론 능력 제공
- AIME 및 MATH 벤치마크에서 OpenAI의 o1-preview 수준의 성능 달성
- 실시간으로 투명한 사고 과정 제공
- 곧 오픈 소스 모델과 API 출시 예정
- 벤치마크 전반에서 인상적인 결과 달성
- 더 긴 사고 과정을 통해 더 나은 성능 달성
- 추론 길이가 증가함에 따라 AIME에서 점수가 꾸준히 향상
NVIDIA, Hymba Hybrid-Head Architecture Boosts Small Language Model Performance
링크, 2024년 11월 22일
- NVIDIA 연구팀이 Hymba라는 하이브리드 헤드 아키텍처를 도입한 소형 언어 모델 발표
- Transformer의 어텐션 메커니즘과 SSM을 통합하여 효율성과 성능 향상
- Hymba 1.5B 모델이 유사한 크기의 오픈 소스 모델보다 우수한 성능 달성
- 더 높은 처리량과 적은 메모리 요구사항 달성
- Hymba-1.5B-Base는 상업적 사용 준비 완료
- NVIDIA Open Model License Agreement 하에 출시
- 다양한 벤치마크에서 뛰어난 성능을 입증
- 어텐션 맵 시각화를 통해 모델의 작동 방식 분석
- 구조적 재매개변수를 통한 모델 효율성 개선
Hugging Face, SmolVLM - small yet mighty Vision Language Model
링크, 2024년 11월 26일
- SmolVLM이라는 20억 규모의 비전 언어 모델 공개
- 작은 메모리 공간에서도 강력한 성능을 발휘하며, 완전한 오픈 소스로 제공
- 모델 체크포인트, 데이터셋, 훈련 레시피 및 도구를 Apache 2.0 라이선스로 공개
- 다양한 멀티모달 작업에서 우수한 성능을 보임
- 메모리 사용량과 처리량 측면에서 효율성 제공
- 비디오 이해 기능도 제공하며, 제한된 계산 자원에서도 활용 가능
- VLMEvalKit와의 통합을 통해 추가 벤치마크 평가 가능
- transformers 라이브러리를 통해 쉽게 모델 사용 가능
- 사용자 맞춤형 미세 조정을 위한 튜토리얼 및 도구 제공
Blackforest Labs, Flux1 Tools: Hugging Face Transformers
링크, 2024년 11월 21일
- FLUX.1 Tools 출시, FLUX.1 텍스트-이미지 모델에 제어 및 조정 기능 추가
- 실제 및 생성된 이미지를 수정 및 재생성할 수 있는 도구 제공
- 네 가지 오픈 액세스 모델 공개: FLUX.1 Fill, FLUX.1 Depth, FLUX.1 Canny, FLUX.1 Redux
- 각 모델은 고유한 기능과 능력을 제공
- FLUX.1 Fill은 최신 인페인팅 및 아웃페인팅 모델 제공
- FLUX.1 Depth와 Canny는 구조적 가이드를 통해 이미지 변환 제어 가능
- FLUX.1 Redux는 입력 이미지와 텍스트 프롬프트를 혼합하여 새로운 이미지를 생성
- 벤치마크 결과, FLUX.1 시리즈가 기존 모델들보다 우수한 성능을 보임
- BFL API를 통해 프로 버전 모델에 접근 가능
Apple, Core ML Models
링크, 2024년 11월 22일
- Apple이 빠른 CoreML 모델과 이를 iPhone에서 실행할 수 있는 iOS 앱 발표
- S0, S2, MobileCLIP-B(LT) 등 고성능 모델 출시
- S0는 OpenAI의 ViT-B/16과 동일한 제로샷 성능을 보이면서 4.8배 빠르고 2.8배 작음
- S2는 SigLIP의 ViT-B/16보다 우수한 성능을 보이며, 더 빠르고 작음
- 모델은 Hugging Face에서 다운로드 가능하고, 코드도 GitHub에서 확인 가능
- 다양한 컴퓨터 비전 작업에서 사용 가능
- FastViT, Depth Anything V2 등 다양한 모델 제공
- 각 모델에 대한 상세한 정보와 예제 프로젝트 제공
Alex Garcia, sqlite-vec now supports metadata columns and filtering
링크, 2024년 11월 20일
- sqlite-vec의 새로운 업데이트 버전 0.1.6 발표
- vec0 가상 테이블에서 메타데이터 열과 필터링 지원
- 메타데이터 컬럼을 통해 벡터 검색에서 조건부 필터링 가능
- 파티션 키 도입으로 벡터 인덱스를 샤딩하여 쿼리 속도 향상
- 보조 열을 사용하여 별도의 조인 없이 메타데이터 저장 및 접근 가능
- 향후 양자화 지원 개선 계획
- ANN 인덱스 지원을 통해 성능 향상 예정
- sqlite-lembed 및 sqlite-rembed 등의 관련 프로젝트도 업데이트 예정
연구팀, XGrammar: Flexible and Efficient Structured Generation Engine for Large Language Models
링크, 2024년 11월 22일
- XGrammar라는 유연하고 효율적인 구조화 생성 엔진 제안
- 문맥 자유 문법을 사용하여 구조화된 생성을 가능하게 함
- 기존 솔루션보다 최대 100배의 속도 향상 달성
- LLM 추론 엔진과 결합하여 거의 지연 없는 구조화 생성 가능
- MLC-LLM, SGLang, WebLLM 등에 적용됨
- 곧 vLLM 및 HuggingFace에서도 지원 예정
- 정확한 JSON/문법 생성 가능
- 기술 보고서에서 상세한 기술 및 성능 데이터 제공
.txt 팀, Say What You Mean: A Response to ‘Let Me Speak Freely’
링크, 2024년 11월 24일
- ‘Let Me Speak Freely’ 논문에 대한 반박을 통해 구조화된 출력이 LLM 성능을 향상시킬 수 있음을 증명
- 원 논문의 결과는 약한 프롬프트와 구조화된 프롬프트의 잘못된 사용으로 인한 것임을 지적
- 정확한 프롬프트 설계와 파서, 생성기의 일치가 중요함을 강조
- 구조화된 출력이 테스트에서 비구조화된 출력보다 우수한 성능을 보임
- JSON 생성을 위한 프롬프트 설계의 중요성 강조
- 예시에서 기대하는 형식과 실제 작업에서의 형식이 일치해야 함
- 구조화된 생성은 적절하게 구현되면 성능 향상에 기여함을 강조
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |
기술적으로 최대한 자세하게 적어. 9개의 기사가 있고 하나도 빼먹지 말고 적어.