오늘의 소식에서는 xAI, OpenAI, Google, Anthropic, Intel, TII, Alibaba, Meta, AmorePacific, LG전자, 그리고 Gartner의 AI와 관련된 주요 발표와 업데이트가 포함되어 있습니다. 각각의 회사는 다양한 분야에서 AI 기술을 활용하고 있으며, 이를 통해 기술 발전을 도모하고 있습니다. xAI는 새로운 Grok-2 모델을 공개하였으며, OpenAI는 SWE-bench Verified를 소개했습니다. Google은 Gemini Live 기능을 발표했고, Anthropic은 Claude에 대한 새로운 프롬프트 캐싱 기능을 공개했습니다. 또한 Intel과 TII는 각각 RAG Foundry와 Falcon Mamba 7B를 발표하며 AI 기술의 최전선을 선도하고 있습니다. AmorePacific과 LG전자도 AI를 활용한 혁신적인 솔루션을 통해 각각 뷰티 테크와 소비자 데이터 분석을 강화하고 있습니다.
xAI, Grok-2 Beta Release
링크, 2024년 8월 13일
- Grok-2와 Grok-2 mini 출시, 𝕏 플랫폼 사용자에게 베타 버전 제공
- Grok-2는 Grok-1.5 모델에서 크게 개선된 버전으로, 특히 논리적 추론, 대화 및 코딩에서 뛰어난 성능을 발휘
- LMSYS 리더보드에서 “sus-column-r”이라는 이름으로 초기 버전을 테스트, Claude 3.5 Sonnet과 GPT-4-Turbo를 능가하는 성능 기록
- 모델 평가 기준에서, Grok-2는 지시를 따르는 능력과 정확하고 사실적인 정보를 제공하는 능력에서 두드러진 성능을 보임
- Grok-2 mini는 Grok-2의 소형 버전으로, 메모리와 계산 자원이 제한된 환경에서도 유사한 성능을 제공
- Grok-2와 Grok-2 mini는 학문적 벤치마크에서 논리, 독해, 수학, 과학, 코딩 등 다양한 분야에서 기존 모델 대비 현저한 성능 향상
OpenAI, Introducing SWE-bench Verified
링크, 2024년 8월 13일
- SWE-bench는 대규모 언어 모델(LLM)의 소프트웨어 엔지니어링 과제 해결 능력을 평가하기 위한 벤치마크로, GitHub에서 실제로 해결된 문제를 기반으로 샘플을 구성
- SWE-bench Verified는 기존의 SWE-bench에서 어려운 문제를 제거하고, 500개의 엄선된 샘플로 구성된 새로운 테스트 세트를 포함
- 각 샘플은 문제 설명과 코드베이스를 제공하며, 모델은 이를 바탕으로 문제를 해결하고 관련된 단위 테스트를 통과해야 함
- SWE-bench Verified는 테스트 설정이 올바르게 작동하지 않는 문제를 개선하여, GPT-4o가 33.2%의 샘플을 해결할 수 있도록 성능이 향상됨
- SWE-bench Verified의 데이터셋은 잘 정의된 문제와 엄격한 테스트 기준을 갖추고 있어, 모델의 소프트웨어 엔지니어링 능력을 더 정확하게 평가할 수 있도록 설계됨
Google, Gemini Live 기능 발표
링크, 2024년 8월 13일
- Gemini Live, Android 사용자를 위한 대화형 AI 경험 제공, 사용자는 자유로운 대화를 통해 아이디어를 브레인스토밍하거나 질문을 할 수 있음
- 대화 중단 후 재개 기능을 포함하여, 대화 흐름을 끊지 않고 이어갈 수 있는 기능 추가
- Gemini는 10개의 새로운 목소리 옵션을 제공하여, 사용자가 선호하는 음색과 스타일을 선택할 수 있음
- Google Keep, Tasks, Utilities, YouTube Music 등과의 새로운 확장 기능을 통해 더 넓은 범위의 작업 처리 가능
- Gemini Flash 1.5 모델은 속도와 품질을 크게 개선하여, 더 빠르고 정확한 응답 제공
Anthropic, Prompt Caching with Claude
링크, 2024년 8월 15일
- 프롬프트 캐싱 기능을 통해, 사용자가 Claude와의 상호작용에서 자주 사용되는 프롬프트 컨텍스트를 캐싱하여 비용과 대기 시간을 절감할 수 있음
- 캐시된 프롬프트는 최대 90%의 비용 절감 및 85%의 대기 시간 감소를 제공하며, 특히 긴 대화나 복잡한 작업에서 유용함
- 예를 들어, 책이나 긴 문서를 기반으로 한 대화에서는 100,000개의 토큰을 캐싱하여 응답 시간을 11.5초에서 2.4초로 단축
- 프롬프트 캐싱은 대규모 문서 처리, 코드 자동완성, 반복적인 도구 호출 등 다양한 상황에서 성능을 크게 향상시킴
- 캐싱된 프롬프트를 사용하는 비용은 일반 입력 토큰 가격의 10%에 불과해, 비용 효율적으로 AI 활용 가능
Intel, RAG Foundry
링크, 2024년 8월 14일
- Intel의 RAG Foundry는 Retrieval-Augmented Generation (RAG) 시스템 구현 및 평가를 간소화하기 위한 오픈소스 프레임워크
- 이 프레임워크는 데이터 생성, 모델 학습, 추론 및 평가를 하나의 워크플로우로 통합하여, RAG 시스템의 복잡성을 크게 줄임
- RAG Foundry는 Llama-3, Phi-3와 같은 LLM의 미세 조정에 효과적이며, 지식 집약적인 데이터셋에 대한 성능을 개선함
- Intel의 RAG Foundry는 데이터 설계 및 피드백 루프를 포함한 포괄적인 평가 프로세스를 제공하여, 모델의 정확성과 성능을 최적화함
- 이 프레임워크는 특히 학술 연구 및 산업 분야에서 RAG 시스템의 신뢰성과 효율성을 높이기 위한 강력한 도구로 평가됨
TII, Falcon Mamba 7B 발표
링크, 2024년 8월 12일
- TII의 Falcon Mamba 7B는 새로운 Mamba State Space Architecture(SSLM)를 기반으로 한 최첨단 언어 모델로, 긴 텍스트 처리에서 뛰어난 성능을 발휘
- SSLM 아키텍처는 연속적인 상태 업데이트를 통해 모델이 텍스트를 처리하며, 메모리나 계산 자원 추가 없이 긴 문맥도 처리 가능
- Falcon Mamba 7B는 Mistral 7B, Llama 3 8B와 같은 최신 트랜스포머 기반 모델과의 벤치마크 비교에서 경쟁력 있는 성능을 보임
- Arc, TruthfulQA, GSM8K 등 여러 벤치마크에서 우수한 성과를 기록하며, 특히 장문의 텍스트 생성 및 문서 기반 질문 응답에서 뛰어난 성능을 보임
- TII는 이 모델을 오픈소스로 공개하여, 연구자들과 개발자들이 모델의 성능을 더 확장하고 다양한 애플리케이션 시나리오에 적용할 수 있도록 지원
Alibaba, Qwen2-Audio 출시
링크, 2024년 8월 9일
- Qwen2-Audio는 음성과 텍스트 입력을 받아 텍스트 출력을 생성하는 오디오-언어 모델로, 다양한 언어와 방언을 지원
- 음성 인식 모듈 없이 음성 명령을 통한 대화 기능 제공, 사용자는 직접 음성으로 모델에 지시할 수 있음
- Qwen2-Audio는 음악, 소리, 언어 분석과 같은 오디오 정보를 텍스트 지시에 따라 분석할 수 있는 능력을 갖춤
- 모델은 7B 파라미터를 갖춘 버전으로 Hugging Face와 ModelScope에서 오픈 웨이트로 제공되며, 사용자는 직접 모델을 활용하여 다양한 오디오 기반 애플리케이션을 개발 가능
Meta, Llama 3.1 모델 최적화 발표
링크, 2024년 8월 14일
- NVIDIA는 Llama 3.1 8B 모델을 최적화하여 Llama-Minitron 4B 모델을 생성, 구조적 가중치 가지치기 및 지식 증류 기법 사용
- 가지치기(pr
uning)와 지식 증류(distillation)를 통해 모델 크기를 축소하면서도 성능 유지, 특히 MMLU 점수가 16% 향상
- 가지치기 기법은 네트워크의 깊이(depth)와 너비(width)를 모두 고려하여, 모델의 불필요한 부분을 제거하고 성능을 보존하는 데 중점을 둠
- 지식 증류는 원래의 대형 모델이 작은 학생 모델에게 지식을 전수하여, 성능 저하 없이 모델을 경량화하는 방법
- Llama-Minitron 4B 모델은 GPT-4o-mini와 같은 소형 모델과 비교하여 유사한 성능을 보이면서도, 비용과 자원을 크게 절감할 수 있음
AmorePacific, AI 기반 뷰티테크 SaaS 플랫폼 개발
링크, 2024년 8월 14일
- 아모레퍼시픽은 AI 기반의 뷰티테크 플랫폼을 SaaS 형태로 개발, 30여 개의 브랜드에 신속하게 확산
- 피부 측정, 진단, 제품 추천과 같은 AI 기술을 통합하여 사용자 경험을 개선
- 스마트폰 카메라를 사용한 피부 측정 기술에서 87%의 정확도를 달성, 연구소에서 확보한 임상 사진을 AI 모델에 학습시켜 고정밀 분석 가능
- AI 기반 제품 추천 시스템은 고객의 피부 타입에 맞춘 맞춤형 제품 추천을 제공, 구매 전환율을 50% 이상으로 증가시킴
- AWS 프로토타이핑 프로그램을 통해 클라우드 기반으로 빠르게 서비스를 구축, 글로벌 시장 확장 지원
LG전자, Azure OpenAI를 활용한 소비자 데이터 분석 플랫폼 구축
링크, 2024년 4월 30일
- LG전자는 Azure OpenAI를 활용하여 CHATDA라는 AI 기반의 빅데이터 분석 솔루션을 개발, 소비자 행동 분석을 통해 제품 기획과 개발에 혁신적 접근
- ChatGPT를 활용해 자연어로 데이터 분석 요청을 하면, 적절한 데이터를 찾아 분석하고 결과를 제공
- 이 솔루션은 비정형 데이터를 안전하게 처리하며, 데이터 유출 위험을 방지하기 위한 보안 기능을 갖춤
- CHATDA는 데이터 추출 및 분석 시간을 획기적으로 단축, 이전에는 수일이 걸리던 작업이 이제는 수분 내에 완료 가능
- 이 플랫폼을 통해 소비자 행동 분석을 기반으로 한 제품 개선이 빠르게 이루어져, 제품 개발 초기 단계에서 소비자 요구를 반영할 수 있음
Gartner, Generative AI 프로젝트의 30%가 2025년까지 중단될 것이라고 예측
링크, 2024년 8월 14일
- Gartner의 보고서에 따르면, 최소 30%의 Generative AI 프로젝트가 2025년 말까지 개념 증명 이후 중단될 것으로 예상됨
- 그 주요 원인으로는 낮은 데이터 품질, 부적절한 위험 통제, 증가하는 비용 및 불분명한 사업 가치가 지목됨
- 특히, GenAI 프로젝트는 즉각적인 ROI(투자 수익률)를 기대하기 어렵기 때문에, 장기적인 관점에서의 투자 기준이 필요함
- 하지만 일부 초기 도입자들은 GenAI를 통해 매출 15.8% 증가, 비용 15.2% 절감, 생산성 22.6% 향상 등 긍정적인 결과를 보고함
- 보고서에서는 각 기업이 GenAI를 도입할 때 직면할 수 있는 다양한 비용, 위험 및 전략적 영향을 고려해야 한다고 강조
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:
(today’s date in 년 월 일) AI 소식,
Summary
(overall short summary, make summary with good details. for Summary section, explain the details starting with company name, e.g. OpenAI에서는 ~~~를 발표하였습니다.)
company name, Title
링크, date
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
company name, Title
링크, date
링크, date,
- detailed summary1, (개조식 문체 사용)
- detailed summary2, (개조식 문체 사용)
… - detailed summary N, (개조식 문체 사용)
…
1 | ### |