LG AI Research는 EXAONE 3.0을 공개하며, OpenAI는 Structured Outputs 기능을 도입하였습니다. Meta는 Self-Taught Evaluators 접근법을 소개하며, Hugging Face는 Idefics3-8B를 출시했습니다. Black Forest Labs는 FLUX.1 모델을 발표하였고, BC카드는 K-금융 특화 AI를 무상 공개했습니다.
LG AI Research, EXAONE 3.0 발표
링크, 2024년 8월 7일
- EXAONE 3.0 7.8B Instruction Tuned 모델 공개
- 7.8B 파라미터와 8조 개의 토큰 데이터로 훈련된 디코더 전용 트랜스포머 아키텍처 기반
- 영어와 한국어에서 글로벌 최상위 수준의 성능 달성
- 영어: 실세계 사용 사례와 벤치마크에서 평균 1위 기록
- 한국어: 실세계 사용 사례와 일반 성능에서 모두 최상위 결과
- 경제성 확보: 3년간의 연구개발로 비용 6% 절감
- EXAONE 1.0 대비 추론 처리 시간 56% 단축, 비용 72% 절감
- AI 윤리와 투명성 강조
- Red Teaming 과정을 거쳐 윤리성과 보안 평가 수행
- 비차별적이고 법적 문제 없는 답변 제공, 개선 필요 영역 투명하게 공개
OpenAI, Structured Outputs 기능 도입
링크, 2024년 8월 6일
- API에 Structured Outputs 기능 추가
- 개발자가 제공한 JSON 스키마에 맞게 모델 출력 보장
- 복잡한 JSON 스키마 따르기에서 100% 신뢰성 달성
- 새로운 모델 gpt-4o-2024-08-06 출시
- 복잡한 JSON 스키마 추종에서 기존 모델(gpt-4-0613)보다 높은 점수 기록
OpenAI, 주요 인사 변동
링크, 2024년 8월 6일
- 공동 창업자 John Schulman, Greg Brockman, Peter Deng 등 주요 인사 이탈
- John Schulman은 경쟁사 Anthropic으로 이동
- Greg Brockman은 안식년 계획
- Peter Deng은 퇴사
- 올해 초에도 주요 인사 이탈
- 공동 창업자 Andrej Karpathy, Jan Leike, Ilya Sutskever 퇴사
- OpenAI의 새로운 음성 기능에 대한 긍정적인 초기 평가
Meta, Self-Taught Evaluators 발표
링크, 2024년 8월 5일
- 인간의 선호 데이터 없이 모델 평가자를 향상시키는 접근법 소개
- 대조적 모델 출력을 생성하고 LLM-as-a-Judge를 훈련하여 최종 판단 생성
- 개선된 예측을 사용하여 반복적으로 훈련 수행
- Llama3-70B-Instruct 모델 성능 향상
- RewardBench에서 75.4에서 88.3으로 성능 향상 (다수결로 88.7)
- GPT-4와 같은 기존 평가자를 능가하는 성능 달성
Hugging Face, Idefics 3-8B 발표
링크, 2024년 8월 4일
- 텍스트와 이미지를 모두 처리할 수 있는 멀티모달 모델
- SigLip 비전 백본과 Llama 3.1 8B 텍스트 백본 통합
- 문서 질문 응답 성능(DocVQA) 87.7, MMStar 55.9 달성
- 최대 10K 컨텍스트 지원
- OCR, 문서 이해 및 시각적 추론 능력 향상
- Apache 2.0 라이선스로 공개
- Transformers 라이브러리와 통합
Black Forest Labs, FLUX.1 모델 발표
링크, 2024년 8월 1일
- 텍스트-이미지 생성 모델 FLUX.1 시리즈 발표
- FLUX.1 [pro], FLUX.1 [dev], FLUX.1 [schnell] 세 가지 변형 제공
- 각기 다른 해상도와 비율 지원
- 12B 파라미터 하이브리드 아키텍처 사용
- Latent adversarial diffusion distillation 기법 적용
- 시드 펀딩으로 3100만 달러 확보
- 주요 투자자: Andreessen Horowitz, Brendan Iribe, Michael Ovitz 등
- 높은 품질의 텍스트-이미지 생성 능력
- Midjourney v6.0, DALL·E 3 (HD) 등보다 우수한 성능
BC카드, K-금융 특화 AI 무상 공개
링크, 2024년 7월 25일
- 한국 금융권에 최적화된 거대 언어 모델 (LLM) 공개
- Llama 3 기반, 200억 개의 파라미터 사용
- 한국어 학습 능력 및 다양한 금융 지식 정보 탑재
- 2만여 개의 금융 지식 학습 데이터와 함께 공개
- 금융 AX 분야 발전에 기여
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |