라벨이 모델인 게시물 표시

LG AI연구원의 새로운 AI 모델 발표

 LG AI연구원의 새로운 AI 모델 발표 - LG AI연구원은 오픈소스로 자체 개발한 추론 인공지능(AI) 모델을 발표하였다. - 이 모델은 고성능 AI 연구·개발 분야에서 글로벌 경쟁력을 증명하는 데 기여하고 있다. - 발표는 2025년 3월 18일 미국 캘리포니아주 새너제이에서 열린 **엔비디아 개발자 콘퍼런스(GTC)**에서 이루어졌다. - 모델은 **글로벌 오픈소스 AI 플랫폼인 허깅페이스(Hugging Face)**를 통해 다운로드 가능하며, 다양한 성능 평가 데이터도 공개되었다. 엑사원 딥의 특징과 성능 - **'엑사원 딥'**은 기존 AI와 달리 단순한 지식 기반이 아닌 스스로 가설을 세우고 검증하는 방식으로 문제를 해결하는 에이전틱(Agentic) AI 개념을 적용하고 있다. - 현재 미국의 오픈AI, 구글과 중국의 딥시크, 알리바바 등 소수의 기업만이 자체 추론 AI를 보유하고 있다. - LG AI연구원의 발표는 글로벌 AI 패권 경쟁에 본격적으로 뛰어들겠다는 선언으로 해석된다. 경쟁력 있는 성능 평가 - **320억 패러미터의 '엑사원 딥-32B'**는 **6천710억 패러미터의 딥시크 'R1'**에 비해 5%의 규모만으로도 최고 수준의 성능을 기록하였다. - 한국어 강점을 기반으로 지난해 수능 수학 영역에서 94.5점의 최고점을 기록하였다. - 선택과목인 확률과 통계, 미적분, 기하에서도 1등급을 달성하였다. - 수학(MATH)-500 테스트에서 95.7점을 받아 수학적 논리 추론 능력을 입증하였다. 경량 모델과 온디바이스 AI - '엑사원 딥-32B' 외에도 **경량 모델인 '엑사원 딥-7.8B'**와 **온디바이스 초경량 모델인 '엑사원 딥-2.4B'**가 함께 공개되었다. - 경량 모델은 32B 대비 24% 크기지만 성능을 95%까지 유지하고 있다. - 온디바이스 모델은 7.5% 크기로도 86% 성능을 유지하여 실용성과 경제성을 동시에 확보하였다. ...

알리바바의 동영상 생성 AI 모델 공개

알리바바의 동영상 생성 AI 모델 공개 - 알리바바는 자사의 동영상 생성 AI 모델 4가지 버전을 오픈소스로 공개하였다. - 이 모델은 **완2.1(Wan2.1)**이라고 불리며, 텍스트-동영상 변환 기능을 갖추고 있다. - 공개된 모델은 복잡한 움직임을 정확하게 처리하고, 픽셀 품질을 향상시키며, 물리적 원칙을 준수하는 특징이 있다. - 이러한 기술은 현실적인 영상을 만드는 데 뛰어난 성능을 발휘한다고 알리바바는 강조하였다. 완2.1 모델의 특징과 성능 - 완2.1 모델은 명령 실행의 정밀도를 최적화하여 고품질의 영상을 생성할 수 있도록 설계되었다. - 이 모델은 13억 개에서 140억 개에 이르는 매개변수를 사용하여 몇 초 길이의 동영상을 최대 720p 해상도로 생성할 수 있다. - 1080p 해상도 동영상을 생성할 수 있는 모델에 대한 출시 계획은 아직 알려지지 않았다. - 알리바바는 이 모델이 텍스트 및 이미지 입력을 기반으로 고품질 이미지와 동영상을 생성하도록 설계되었다고 밝혔다. 상업적 출시와 경쟁 모델 - 완2.1은 2024년 상업적으로 출시될 예정이다. - 이 모델은 오픈AI의 소라(Sora) 동영상 생성 모델에 대한 무료 대안으로 제공된다. - 소라는 챗GPT 플러스 요금제에 포함되어 있으며, 월 20달러에 480p 해상도 동영상을 최대 50개 생성할 수 있다. - **구글의 비오 2(Veo 2)**는 일부 사용자에게만 공개되어 있어, 완2.1의 경쟁 모델로 언급된다. 동영상 생성 AI의 발전과 한계 - 동영상 생성 AI는 유용한 생산성 도구가 될 수 있지만, 기술이 성숙하는 데 시간이 걸린다. - 잭 골드는 현재 많은 모델이 아직 기초적인 수준이라고 언급하며, 이 기술로 3시간짜리 영화를 만들 수 있는 단계는 아니다라고 말했다. - 그는 현재의 동영상 생성 AI 모델을 1980년대 워드 프로세서에 비유하며, 시간이 지나면서 점점 개선될 것이라고 예측하였다. - 워드 프로세서와 AI의 차이점은 사용자가 모델에 정보를 입력한다는 점이다. 기업 사...

딥시크 'R1' 모델 출시

 딥시크 'R1' 모델 출시 - 딥시크는 오픈AI의 'o1' 모델과 경쟁하는 추론 모델 ‘R1’ 시리즈를 오픈 소스로 공개하였다. - 이 모델은 **20일(현지시간)**에 공식 출시되었으며, R1, R1-제로(R1-Zero), R1-증류(R1-Distill) 등의 모델이 포함된다. - 딥시크-V3를 기반으로 하여 개발된 이 모델들은 세계 최고의 오픈 소스 모델로 평가받고 있다. R1 모델의 구조와 특징 - R1과 R1-제로는 각각 6710억 개의 매개변수를 포함하고 있다. - 이 모델은 전문가 혼합(MoE) 아키텍처를 채택하여, 전체 매개변수 중 약 340억 개만 활성화되도록 설계되었다. - 이러한 설계는 추론 비용과 메모리 사용량을 줄이면서도 높은 성능을 유지하는 데 기여한다. 추론 기술의 학습 방법 - 추론 특화 LLM은 일반적으로 **강화 학습(RL)**과 지도 미세조정(SFT) 두 가지 방법으로 학습된다.   - RL: 시행착오를 통해 AI가 작업을 수행하도록 훈련하는 방식이다.   - SFT: 작업 예시를 제공하여 출력 품질을 향상시키는 방식이다. - 딥시크는 R1-제로를 개발하는 과정에서 SFT를 생략했음에도 불구하고, 주요 추론 기술을 성공적으로 구현하였다. R1-제로의 성능과 한계 - R1-제로는 **추론 벤치마크(AIME 2024)**에서 o1과 비슷한 성능을 기록하였다. - 그러나 출력 품질에 한계가 있었으며, 다음과 같은 문제점이 발생하였다:   - 응답의 반복   - 낮은 가독성   - 언어 혼합 문제 - 이러한 문제를 해결하기 위해 딥시크는 R1 모델을 개발하였다. R1 모델의 개선 사항 - R1은 R1-제로의 개선 버전으로, 수정된 훈련 워크플로우를 적용하였다. - 이 훈련 워크플로우에는 R1-제로 개발 시 생략했던 SFT가 포함되어 있다. - 딥시크는 이를 통해 출력 품질을 크게 향상시켰다고 밝혔다. 비용 효율성과 성능 비교 - R1은 높은 성능을 제공하며, 딥시크의 API를 통해 ...