Summary
Meta의 Yann LeCun은 AI 연구실 관리의 중요성에 대해 논하며 특히 AI 프로젝트는 상부 관리의 감시에서 독립적으로 수행되어야만 한다고 강조했습니다. Gartner는 생성 AI가 가장 널리 사용되는 AI 솔루션이라고 발표했습니다. NVIDIA는 LoRA 어댑터를 활용한 효율적인 모델 배포 방법을 설명했고, OpenAI는 새로운 model spec을 공개했습니다. DeepMind는 AlphaFold 3을 발표하며, 생물학적 분자 구조 예측에서의 혁신을 제시했습니다.
연구실 관리의 중요성
링크, 2024년 6월 9일,
Meta
Yann LeCun
VP & Chief AI Scientist at MetaVP & Chief AI Scientist at Meta
연구소의 관리를 위해서는 다음의 것들이 매우 중요합니다.
- 뛰어나고 창의적인 인재를 발굴하고, 채용하며, 유지하는 것.
- 이들이 최고의 연구를 할 수 있도록 환경, 자원, 자유를 제공하는 것.
- 유망한 연구 방향을 찾아내고(주로 연구자들이 제안하는 방향), 그 방향에 자원을 투자하는 것. 과학자들에게 책임을 맡기고 간섭하지 않는 것.
- 헛된 주장이나 비현실적인 아이디어를 잘 구별하는 것. 이는 과학자들이 부정직해서가 아니라 종종 자신을 속이기 쉬워서입니다. 자신이 대단한 발명을 했다고 생각하기 쉽습니다. 출판을 장려하고 오픈 소싱을 통해 연구 커뮤니티가 좋은 연구와 그렇지 않은 연구를 구별하도록 하는 방법이 있습니다.
- 연구자들이 야심찬 목표를 가진 연구 프로젝트에 참여하도록 동기를 부여하는 것. 단순한 개선 작업은 너무 쉽고 덜 위험할 수 있습니다.
- 단기적 성과와 단순한 지표(예: 논문 수)에 지나치게 집중하지 않는 방식으로 연구자들을 평가하는 것. 당신의 판단력을 사용하십시오. 그것이 당신이 높은 보수를 받는 이유입니다.
- 프로젝트를 상부 경영진의 감시에서 보호하는 것. 감시하는 냄비는 절대 끓지 않습니다. 계획된 혁신과 6개월 단위의 마일스톤으로는 결코 돌파구를 마련할 수 없습니다.
Gartner 설문 조사: 생성 AI가 가장 널리 사용되는 AI 솔루션
링크, 2024년 5월 7일,
Gartner
- 설문 조사에 따르면, 29%의 응답자가 생성 AI를 사용 중.
- 생성 AI는 그래프 기술, 최적화 알고리즘, 규칙 기반 시스템 등을 제치고 가장 많이 사용됨.
- Microsoft Copilot for 365와 Adobe Firefly와 같은 기존 응용 프로그램에 포함된 생성 AI 활용이 가장 일반적임.
- AI 도입의 주요 장애물은 AI 프로젝트의 가치 추정 및 입증의 어려움.
- 성숙한 AI 조직은 AI 운영 모델, AI 엔지니어링, 업스킬링, 신뢰 및 보안 관리에 중점.
LoRA 어댑터를 활용한 효율적 모델 배포
링크, 2024년 6월 7일,
NVIDIA
- LoRA는 전체 모델을 업데이트하지 않고도 작은 수의 추가 매개변수만 튜닝.
- 두 가지 LoRA 배포 방법: LoRA 어댑터 병합 및 동적 로드.
- NIM을 통해 다양한 LoRA 어댑터를 한꺼번에 배치하여 여러 작업을 동시에 처리 가능.
- NVIDIA NIM은 GPU 메모리와 호스트 메모리에서 어댑터를 동적으로 로드하여 성능 향상.
OpenAI의 새로운 모델 사양 공개
링크, 2024년 5월 8일,
OpenAI
- 모델 사양(Model Spec)은 모델 행동을 안내하는 고급 지침.
- 공개 피드백을 통해 모델 사양을 조정.
- 헌법 AI(Constitutional AI)와 달리 인간 피드백을 활용하여 모델을 강화.
- 모델 사양은 플랫폼 규칙, 법률 준수, 지적 재산권 존중 등 여섯 가지 행동 원칙 포함.
AlphaFold 3: 모든 생화학을 아우르는 혁신
링크, 2024년 5월 8일,
DeepMind
- AlphaFold 3는 단백질뿐만 아니라 DNA, RNA, 리간드 등 모든 생물학적 활성 분자의 구조를 예측.
- 기존 아미노산 구조 지식을 바탕으로 분자의 3D 구조 생성.
- PoseBusters 데이터베이스에서 77%의 예측 성공률 기록.
- 단백질-단백질 상호작용 예측에서 77% 성공률 달성.
Hugging Face의 DITTO: 시연 피드백을 통한 모델 정렬
링크, 2024년 6월 3일,
Hugging Face
- DITTO는 10개 미만의 시연을 통해 LLM 출력을 사용자 행동에 맞추는 방법 제안.
- 비교 데이터 생성 및 반복 학습을 통해 성능 향상.
- 소수의 시연으로도 모델을 효과적으로 사용자 정의 가능.
Intel의 Lunar Lake: AI PC를 위한 새로운 코어와 GPU
링크, 2024년 6월 4일,
Intel
- Lunar Lake는 새로운 코어 IP, GPU, NPU, 메모리 시스템을 갖춘 혁신적인 아키텍처.
- P-코어와 E-코어의 성능 개선으로 IPC와 단일 스레드 부동 소수점 성능 향상.
- 새로운 Xe2 Battlemage 아키텍처의 GPU는 50% 더 높은 그래픽 성능 제공.
Microsoft의 Copilot 사용 경험
링크, 2024년 6월 9일,
Microsoft
- Copilot 도입 첫 해, AI가 업무에 미치는 영향 평가.
- 초기 도입 부서: 판매, 고객 서비스, 인사.
- Copilot 사용으로 생산성, 작업 즐거움, 워크라이프 밸런스 개선.
LLM 구축 경험에서 얻은 교훈
링크, 2024년 6월 8일,
Applied LLMs
- LLM 제품 구축의 전술적, 운영적, 전략적 측면을 다룸.
- 전술적: 프롬프트 작성, RAG, 흐름 엔지니어링, 평가 및 모니터링.
- 운영적: 제품 배송의 일상적 문제와 효과적인 팀 구축.
- 전략적: 장기적 관점과 시스템 중심 접근 방법 강조.
로컬 파일을 위한 생성 검색 엔진 구축
링크, 2024년 6월 8일,
Towards Data Science
- 로컬 파일과 상호작용하는 오픈 소스 생성 검색 엔진 구현.
- Qdrant와 Streamlit을 사용하여 Llama 3 모델을 로컬에서 실행.
- 파일 인덱싱 및 쿼리 응답을 위한 구조와 사용자 인터페이스 설계.
- 성능과 유연성을 높이기 위해 문서 청크화 및 벡터 유사성 메트릭 사용.
실행 가능한 코드 작업으로 LLM 에이전트 개선
링크, 2024년 2월 2일,
Hugging Face
- LLM 에이전트의 행동 공간을 통합하기 위해 실행 가능한 Python 코드를 사용.
- CodeAct를 통해 JSON이나 텍스트 대신 실행 가능한 코드로 작업을 수행.
- API-Bank와 새로운 벤치마크에서 최대 20% 더 높은 성공률 달성.
- Llama2와 Mistral에서 파인튜닝된 CodeActAgent를 통해 복잡한 작업 수행 가능.
Sources
This GPT assists users by creating a detailed daily newspaper in Korean based on provided links. It follows these steps: read the content, summarize each content with detailed points, and write a report. The report format is:1 | # (today's date in 년 월 일) AI 소식, |
1 | ### |