• 전체 53 |
  •  페이지 1/8
“휴머노이드 로봇, 스마트폰 이상의 파괴적 혁신될 것”, 페기 존슨 어질리티 로보틱스 CEO

2025.02.14

14

지난 60년간 지속적으로 발전해 온 로봇, 그중에서도 휴머노이드 로봇이 AI라는 새로운 날개를 달고 비상하고 있다. 학교나 연구소에서의 연구 대상에서 공장의 자동화와 노동력 보조 역할로 탈바꿈하고 있는 휴머노이드 로봇을 실제로 개발하고 공장과 창고 업무에 공급하고 있는 어질리티 로보틱스(Agility Robotics)의 페기 존슨(Peggy Johnson) CEO를 만나 휴머노이드 로봇의 현황과 미래에 대해 들어봤다. 신동윤 수석 에디터 2025년 2월 14일AI 기술의 발전과 함께 휴머노이드 로봇 산업이 본격적인 성장기에 돌입했다. 제조업과 자동차 조립 공장을 넘어 이제 가정까지 휴머노이드 로봇이 보급될 날이 머지않았다. 이에 현대차그룹이 인수한 보스턴 다이내믹스와 일론 머스크가 이끄는 테슬라와 어질리티 로보틱스 등 휴머노이드 로봇 시장을 차세대 먹거리로 인식한 글로벌 로봇 기업들의 시장 선점 경쟁이 날로 치열해지고 있다. 이중 산업용 휴머노이드 로봇 분야에서 테슬라와 함께 양강 체제를 형성하고 있다는 평가를 듣는 어질리티 로보틱스의 페기 존슨 CEO를 만나 휴머노이드 로봇의 현재와 미래에 대해 들어보는 시간을 가졌다. MIT 테크놀로지 리뷰 발행사인 DMK 주최로 지난해 12월 개최된 AI Summit Seoul에 참석차 내한한 존슨 CEO는 휴머노이드 로봇이 스마트폰 이상의 파괴적 혁신을 가져올 것으로 예측하며, AI 기술의 발전이 로봇 산업의 발전을 더욱 가속화하고 있다고 진단했다. 또한 아마존 물류 창고, 세계 최대 3자 물류계약 기업인 GXO 로지스틱스, 여성 의류 브랜드 스팽스, 그리고 자동차 제조업체 등과의 협업 사례를 통해 휴머노이드 로봇이 실제 산업 현장에서 어떻게 활용되고 있는지에 대한 강력한 인사이트를 공유했다. 페기 존슨(Peggy Johnson) 어질리티 로보틱스(Agility Robotics) CEO 로봇 사이의 연결에 인간이 필요하다 1961년 최초의 산업용 로봇으로 알려진 유니메이트 암(Unimate Arm)이 등장한 이후, 컴퓨터를 이용한 제어 기술이 도입되고, 구동계가 유압 방식에서 전기 모터로 전환되는 등의 지속적인 발전이 이루어졌다. 이후 비전 시스템과 레이저 가이드 기술 등이 적용되면서 주변 환경을 스캔하고 자율적으로 이동하는 로봇이 등장하기 시작했다. 이러한 발전으로 로봇의 적용 범위가 점차 확대되었으며, 산업 현장에서 폭넓게 활용되기 시작했다. 자율이동로봇(Autonomous Mobile Robot, 이하 AMR)은 공장과 창고를 점령하고 있으며, 아마존은 2024년 기준 총 75만 여 대의 다양한 로봇을 창고 운영에 활용하는 등 산업 현장의 모습을 바꾸고 있다. 이렇게 산업용 로봇의 활용이 급격히 증가하고 있음에도 불구하고 휴머노이드 로봇은 아직 공장이나 창고, 물류 등의 산업 현장에서 찾아보기 어렵고 여전히 많은 작업이 인간에 의해 이뤄지고 있다. 공장 내 많은 부분에서 생산성 향상을 위해 로봇을 이용한 자동화가 진행되고 있지만, 이런 자동화는 마치 섬처럼 공정마다 개별적으로 진행되고 있어 컨베이어 벨트와 AMR 등 여러 로봇 사이의 연결에 인간의 개입이 필요하기 때문이다. 존슨 CEO는 2023년 미국에서 창고 및 물류 분야의 인력 부족이 100만 명에 달했다며, 이는 창고 및 물류 산업의 작업 환경이 열악하고, 육체적으로 힘든 일이기 때문이라고 설명했다. “이러한 인력 부족 문제에 대해 휴머노이드 로봇이 해결책이 될 수 있다. 인간이 기피하는 힘들고 반복적인 작업을 도맡아 수행함으로써 제조업과 물류 분야에서 혁신적인 기술로 자리 잡을 가능성이 크다.” 물류, 창고, 제조업에서 가시적 성과 보여 존슨 CEO는 물류나 창고, 제조업 등이 휴머노이드 로봇이 활약을 시작하기 가장 완벽한 장소라며 이미 아마존 등에서는 직원들이 로봇과 협력해 작업을 수행하는 등 가시적인 성과가 드러나고 있다고 말했다. 아마존은 지난해 3월부터 어질리티 로보틱스의 이족보행 휴머노이드 로봇 디짓(Digit)을 물류 현장에 투입해 운반 작업을 하고 있다. 이 과정에서 직원들의 역량과 작업 효율 향상 등의 긍정적인 효과를 얻고 있다는 것이다. 그러나 그녀는 휴머노이드 로봇의 영향이 산업 현장에 그치지 않고 일반 대중 속으로 파고 들어 과거 PC나 스마트폰이 우리 삶을 송두리째 바꾼 것과 마찬가지의 혁신을 가져올 것이라고 생각하고 있다. 예를 들면 정원 가꾸기나 세탁, 청소, 요리 등을 휴머노이드 로봇이 대신하며 일상생활을 획기적으로 편하게 만들어 줄 수 있다는 것이다. 존슨 CEO는 “우리는 사람들이 하기 싫어 하는 일을 휴머노이드 로봇에게 모두 맡길 수 있는 미래를 만드는 것이 목표”라며 어질리티 로보틱스가 이런 혁신을 이끌어 갈 것이라고 포부를 밝혔다. 어질리티 로보틱스의 휴머노이드 로봇의 개발 과정은 인간을 위해 만들어진 환경에서 효율적으로 이동하기 위한 2족 보행 로봇인 캐시(Cassie)를 2016년에 개발했으며, 몸체와 팔을 달고 각종 센서를 부착한 디짓 V.1을 만들고 현재는 디짓 V.4에 이르기까지 수많은 발전을 이뤘다. 이런 와중에 가장 극적인 전환이 일어난 것은 바로 지난 2022년이었다. 존슨 CEO는 “휴머노이드 로봇에 AI 기술이 적용되면서 혁신적인 변화가 일어나기 시작했다. 바로 AI가 휴머노이드 로봇의 기술 학습 속도를 급격히 가속화한 것이다”라고 설명했다. 휴머노이드 로봇은 시맨틱 지능(Semantic Intelligence)과 피지컬 지능(Physical Intelligence)의 두 가지 지능을 갖춰야 한다. 시맨틱 지능은 무엇을 해야 하는지 이해하는 능력이며, 피지컬 지능은 실제로 작업을 수행할 수 있도록 돕는 능력이다. 다시 말해 어떤 일을 해야 할지, 그리고 어떻게 해야 할지 이해할 수 있는 지능을 바로 AI가 부여하는 것이다. 그녀는 “이런 지능을 탑재함에 따라 휴머노이드 로봇은 기존의 워크셀, 즉 한정된 작업 구역 밖에서도 일을 할 수 있게 됐다. 이는 무제한의 로봇을 제공하는 데 가장 큰 장벽을 뛰어 넘을 수 있는 돌파구다. 예를 들면 제조 시설에서 하역장에 이르는 전 영역에서 인간과 아주 가까운 곳에서 같이 협력해 작업할 수 있는 것이다”라고 AI의 역할에 대해 설명했다. 또한 “어질리티 로보틱스는 2026년까지 인간과 같이 작업하는 협력적인 휴머노이드 로봇을 선보일 예정이다. 그리고 이런 발전은 이전의 휴머노이드 로봇이 할 수 없었던 수많은 일들을 실제로 할 수 있게 된다는 것을 의미한다”며, 시니어 케어와 같은 일반 대중과 상호작용하는 과정에 안전을 보장하면서 섬세함이 필요한 작업까지도 할 수 있게 될 것이라고 설명했다. 남겨진 3가지 도전 과제 존슨 CEO는 휴머노이드 로봇이 해결해야 할 도전 과제로 안전성과 배터리, 가격 등 3가지를 꼽았다. 넘어지지 않는 안정성이 중요한 이유는 대략 사람과 비슷한 크기와 무게를 갖는 휴머노이드 로봇이 넘어질 경우 로봇 자체는 물론이고 주변의 사람이나 기물에 피해를 입힐 수 있기 때문이다. 그럼에도 불구하고 이것이 쉽지 않은 이유는 사람이라면 쉽게 인지할 수 있는 조그만 턱도 커다란 장애물이 될 수 있으며, 좁은 통로에서 사람이나 다른 로봇과 마주쳤을 때의 이를 감지하고 적절히 대응하는 방식 또한 개선할 필요가 있다. 또 다른 도전 과제는 배터리다. 여러 개의 모터와 센서 등으로 구성된 휴머노이드 로봇의 무게를 줄이면서 충분한 배터리 용량을 확보하는 것은 쉽지 않은 일이다. 존슨 CEO는 “실제로 현재 나와 있는 휴머노이드 로봇 중에는 배터리 시간이 약 20분에 불과한 경우도 있다. 연구나 데모 시연을 위해서는 충분한 시간이지만, 실용성에 한계가 있다”고 설명했다. 현재 일반적인 운영 환경에서 충전비는 4:1 수준이다. 다시 말해 40분 일을 하고 10분을 충전하는 방식이다. 그래서 일반적으로 두 대의 로봇이 서로 번갈아 가면서 일을 하고 배터리가 방전되면 다시 돌아와 충전을 하는 방식으로 운영하고 있다. 그녀는 “어질리티 로보틱스는 이를 개선해 10:1 수준으로 개선하려고 한다. 그러면 100분 일을 하고 10분만 충전할 수 있게 되는 것이다”라며 배터리 관련 기술에 많은 투자를 하고 있다고 밝혔다. 세번째는 가격이다. 일부에서는 휴머노이드 로봇의 가격이 너무 비싸다는 얘기가 나오고 있다. 일반적으로 기업이 휴머노이드를 도입하는 방식은 두가지가 있다. 하나는 CAPEX 방식이다. 이는 기업이 설비 투자를 하는 방식으로 로봇을 도입하는 것이다. 또 다른 방식은 OPEX 방식으로 로봇을 하나의 서비스로 간주하는 것이다. 최근 많은 기업들이 OPEX 방식으로 로봇을 도입함으로써 도입에 필요한 초기 투자 비용을 절감하려는 시도가 이어지고 있다. 로보틱스와 자동화가 노동을 바꿀 것 휴머노이드 로봇이 인간의 일자리를 빼앗을 것이라는 우려에 대해, 그녀는 “인간이 하기 싫어하는 일을 하기 위해 로봇을 만드는 것이다. 인간은 단순 반복작업을 싫어한다. 힘들고 더러우며 위험한 일도 싫어한다. 그래서 인간이 싫어하는 이런 일들을 시키기 위한 존재로 휴머노이드 로봇을 만드는 것이다”라고 주장했다. 존슨 CEO는 “실제로 작업 현장에서 휴머노이드 로봇과 함께 작업하는 사람들은 더럽고 힘든 일을 휴머노이드가 대신하면서 오히려 자신들의 일이 쉬워진다고 느끼고 있다. 아직 휴머노이드 로봇의 도입이 이제 막 시작된 초기에 불과함에도 일부에서는 생산성이 약 40% 향상됐다는 이야기를 하고 있다”고 휴머노이드 로봇의 도입 성과에 대해 설명했다. 휴머노이드 로봇의 발전이 빠르게 진행됨에 따라 이전에 불가능했던 작업을 할 수 있게 되면서 인간 작업자들의 일자리를 위협할 것이라는 우려도 충분히 나올 수 있다. 그녀는 “100년 전의 농부는 하루 12시간씩 일을 했다. 그 다음에는 하루 8시간을 일하게 됐고, 이제는 주 4일 근무 얘기도 나오고 있다. 휴머노이드 로봇은 우리가 작업 시간을 줄이고, 좀 더 창의적인 일을 할 수 있도록 도울 수 있다”며, 휴머노이드 로봇은 이런 과정을 통해 인간을 더 자유롭게 만들어 줄 것이라고 주장했다. 특히 한국과 같이 인구감소가 사회 문제가 되고 있는 곳에서는 로보틱스와 자동화를 통해 노동을 어떻게 바꿀 것인지에 대해 심도 깊은 논의가 필요할 것이라고 조언했다. 페기 존슨 CEO는 2024년 3월에 어질리티 로보틱스에 합류하여, 회사의 제품 포트폴리오 확장과 디짓 로봇의 대규모 제조를 이끌고 있다. 어질리티 로보틱스에 합류하기 전에는 매직리프(Magic Leap)의 CEO로 증강현실(AR) 헤드셋인 매직리프 2(Magic Leap 2) 출시를 진두지휘했다. 그 전에는 마이크로소프트(Microsoft)와 퀄컴(Qualcomm)에서도 임원으로 근무한 경력을 갖고 있다.

과기정통부, 올해 소프트웨어 중심대학 신규 10개교 선정 예정

2025.02.14

16

과학기술정보통신부(이하 과기정통부)는 2.6.(목)부터 3.18.(화) 까지 2025년도 소프트웨어 중심대학 사업 신규 선정 모집을 공고하고, 10개 대학을 선정할 계획이라 밝혔다. 신규 선정될 10개 대학은 일반부문(트랙) 8개교, 특화부문(트랙) 2개교다. 소프트웨어 중심대학사업은 대학의 교육체계를 소프트웨어 중심으로 혁신하고, 인공지능(AI) 등 산업현장의 신기술 수요를 반영하여 현장중심의 전공교육을 강화하는 대표적인 소프트웨어 전문·융합인재 양성사업으로, 지난 2015년부터 시작되어 지금까지 약 35만 4천 명의 소프트웨어 전문·융합인재를 양성했다. 이 사업은 올해 10개 대학을 신규 선정하여 총 975억 원 규모로 58개 대학을 지원할 예정이며, 대학 선정은 일반부문(8개교)과 특화부문(2개교)으로 나누어 진행한다. 올해 신규로 선정되는 대학은 기존과 달리 전교생을 대상으로 인공지능 기초·활용 교육을 의무화해 인공지능 교육이 대학 전체로 확산될 수 있도록 적극적으로 지원할 예정이다. 이를 통해 대학이 인공지능 및 소프트웨어 혁신 인재를 체계적으로 양성하고, 인공지능 기술을 다양한 학문과 융합할 수 있도록 추진할 계획이다. 일반부문은 소프트웨어 학과 입학정원 100명 이상이며, 소프트웨어 학과의 대학원을 운영하는 대학이 지원할 수 있으며, 선정 시 매년 20억 원(1차년도 10억 원)이 지원된다. 기업 맞춤형 교육을 위해 계약정원제의 계약정원도 입학정원에 포함이 가능하다. 일반부문의 지원기간은 최대 8년(4+2+2)이며, 기존에 1단계 소프트웨어 중심대학으로 선정되어 지원이 종료된 대학이 재선정될 경우는 6년(2+2+2)을 지원한다. 특화부문은 재학생 수 1만 명 미만인 중소대학만 지원할 수 있으며 일반부문과 달리 소프트웨어학과 정원 및 대학원 운영 등의 자격 조건이 없고, 선정 시 연간 10억 원(1차년도 5억 원)을 지원한다. 특화부문의 지원기간은 최대 6년(2+2+2)이며, 중소대학의 참여 기회 확대를 위해 정부 예산을 지원받아 운영되는 과학기술특성화대학(한국과학기술원, 광주과학기술원, 대구경북과학기술원, 울산과학기술원, 포항공과대학교)과 기존에 소프트웨어 중심대학으로 선정된 바 있는 대학은 지원이 제한된다. 지역의 우수한 소프트웨어 인재 양성을 통한 지역경제 활성화를 위해 수도권(서울·경기·인천) 이외의 지역이 참여할 경우 가점 2점, 글로컬대학이 참여할 경우 추가적으로 가점 최대 1점을 부여할 예정이다. 과기정통부 송상훈 정보통신정책실장은“디지털 대전환 시대의 핵심은 인공지능(AI)과 소프트웨어(SW)이며, 이는 국가 경쟁력을 좌우하는 중요한 요소”라며,“소프트중심대학 사업을 통해 우리나라가 인공지능 세계 3대 강국으로 도약하고, 첨단 기술 인재 양성의 국제 표준을 만들어 나갈 것”이라고 밝혔다.

인공지능 원샷으로 이해하기 🏌️‍♂️

2025.02.12

25

Today's index 딥러닝-LLM-GPT AI는 구름 속에 삽니다 데이터센터는 AI시대 발전소 모닝브리핑 ※ 볼딕 단어나 밑줄 단어에는, URL이 포함돼 있습니다. 클릭하면 세부 내용이 연결됩니다. 컴퓨터도 AI도 인간 지능의 확장이 아닐까요? <챗GPT> 인공지능이란? 딥러닝-LLM-GPT 요즘 전세계를 떠들썩하게 만드는 AI는 ‘딥러닝’이라는 방법론으로 만들어진 소프트웨어라고 할 수 있어요. 딥러닝은 인공신경망이라는 것을 만들어서 AI가 방대한 데이터를 가지고 스스로 학습하도록 하는 방식으로 만들어지는데요. 이 인공신경망은 병렬연산에 강점을 가진 GPU라는 반도체를 가지고 만들 때(=학습) 가장 빠르고 효율적으로 만들수 있어요. 한번 만들어진 인공신경망 기반 AI는 역시 GPU에서 작동 시킬 때 가장 빠르고 효율적으로 작동이 됩니다. 우리는 이 GPU를 그래서 AI반도체, 혹은 AI 가속기라고도 부릅니다. 2017년 구글에서 공개한 한 논문은 ‘트랜스포머’라는 새로운 딥러닝 방식을 제시합니다. 이 트랜스포머 방식에서는 데이터의 양, 매개변수의 크기, GPU 연산량을 늘리면 AI의 성능이 계속 좋아집니다. 이것이 ‘스케일링 법칙(Scaling Law)’이며, 오픈AI는 이 스케일링 법칙을 극한으로 밀어부친 기업이에요. 스케일링 법칙이 만들어낸 AI가 바로 우리도 잘 알고있는 ‘챗GPT’. GPT 같은 AI를 거대언어모델(LLM)이라고 부르는데요. 다음 단어를 예측하는 능력을 갖고 있는 AI인데, 이 LLM은 지금까지 인간이 만들어낸 AI 중 언어능력이 가장 인간에 가깝고, 어떤 영역에서는 인간을 뛰어넘는 능력을 갖고 있어요. 그래서 그 활용범위가 무궁무진해요. 오픈AI가 9일 슈퍼볼에 공개한 광고 : 지능시대 <오픈AI> 소프트웨어로 만든 지능=AI 언어에서 시작해 LLM은 다른 영역까지도 확장하는데요. 우리가 많이 사용하는 챗GPT가 이미지를 인식하거나 생성할 수 있고, 동영상을 만들수 있는 것 처럼 향후에는 로봇에서도 쓰일 수 있죠. LLM은 이미 우리 스마트폰과 PC에 들어와 있고, 스마트안경에도 쓰이고 있어요. 하지만 챗GPT도, 최근에 화제가 된 딥시크도 하늘에서 뚝 떨어진 기술은 아니에요. 딥러닝은 아주 긴 역사를 가진 AI 방법론 중 하나인데 2014년 ‘알렉스넷’을 시작으로 가치를 인정받았어요. 이후 빅테크 기업과 대학의 연구자들이 이 분야에 많은 연구를 해왔습니다. 2022년 챗GPT의 등장에는 구글과 오픈AI 연구자들의 오랜 노력이 있었고, 2025년 딥시크의 등장에는 2014년 이후 이 분야에 들어온 수많은 중국계 AI연구자들이 중요한 역할을 했습니다. 정리해 보면 AI라는 것은 인공신경망(딥러닝)에 기반한 소프트웨어이고, LLM이라는 새로운 딥러닝 기술이 등장해 우리 삶의 모든 영역에 번져나가고 있어요. 그래서 AI를 터미네이터 처럼 '진짜 사람처럼 생각하고 움직이는 무서운 존재'라고 생각하면 안됩니다. 이를 인간 이상의 능력을 낼 수 있는 소프트웨어 기술이라고 봐야 우리는 AI를 잘 이해할 수 있어요. 자동차와 핵무기가 사람을 살상할 수 있는 무서운 기술인 것 처럼, AI도 어떻게 사용하느냐에 따라서 인간의 삶을 행복하게 할 수도, 인류를 파괴할 수도 있습니다. 지금 AI 컴퓨팅은 대부분 클라우드에서 이뤄집니다. <챗GPT> AI는 어디서 살아? 구름 속에서 산단다 AI를 사용하는 방식은 두 가지가 있어요. 하나는 클라우드이고, 다른 하나는 온 디바이스(On Device)에요. 지금 우리가 사용하는 모든 인터넷과 소프트웨어 서비스는 대부분 클라우드 기반으로 작동하고 있어요. 이미 옮겨왔어요. 제가 지금 미라클레터를 작성하고 있는 뉴스레터 서비스인 스티비가 대표적인 클라우드 서비스인요. 저는 어디서든 인터넷만 연결되어있으면 스티비에 접속해서 미라클레터를 쓸 수 있습니다. AI도 이렇게 클라우드에서 작동하는데요. 대표적인 B2C 소비자앱인 챗GPT를 보자면, 우리가 스마트폰으로 챗GPT에 던지는 질문은 인터넷을 통해 챗GPT가 들어가 있는 데이터센터 속 서버컴퓨터로 전송되고, 그 안에 있는 AI모델에서 처리된 후 나온 답이 다시 제 스마트폰으로 전송됩니다. AI모델은 스마트폰으로 작동하기에는 소프트웨어의 크기가 크고, AI를 작동시키기에는 스마트폰 속 반도체의 성능이 낮아요. 하지만 데이터센터에는 저장용량도 매우 크고, 성능도 매우 좋은 AI전용 반도체가 있죠. 그러니 데이터센터로 제 질문을 보내고 답을 가져오는 과정이 훨씬 효율적입니다. 인터넷을 빠른 속도로 사용이 가능한 상황에서 우리가 넷플릭스 영화를 다운받아서 볼 필요가 없는 것과 마찬가지. 아이폰 애플 인텔리전스 이거 가능? <테크몽> AI폰과 AI PC가 왜 필요할까? 하지만 스마트폰에서 AI를 작동 시켜야할 때도 있죠. 예를 들어 비행기를 타고 오랜시간을 여행할 때는 넷플릭스 영화를 미리 다운받아놓는 것처럼, 인터넷이 연결되어있든 없든 AI를 사용하고 싶다면 AI를 내 스마트폰에 저장해놓아야합니다. 뿐만 아니라 데이터센터에 내 정보를 보낸다는 것은 내 개인정보가 기업에게 흘러들어갈 수 있다는 의미에요. 내 정보가 사용되는 것을 막고 싶은데 AI를 사용하고 싶다면, 온디바이스AI가 필요합니다. 온디바이스는 비용도 싸요. 예를 들어 아이폰의 클라우드 저장서비스인 아이클라우드를 사용하려면 월 사용료를 지불해야해요. 하지만 내 스마트폰에 저장된 사진은 언제든 무료로 열어볼 수 있어요. 클라우드는 단순히 저장용이 아니라 내 스마트폰 대신 반도체를 사용하는 비용도 포함해요. 그러니까 내가 그 비용을 내지는 않더라도, 누군가는 그 비용을 내게됩니다. 스마트폰이나 PC에 LLM을 어떻게 집어넣을 수 있을까요? 학습을 마친 고성능 AI를 작게 만드는 과정을 거쳐요. 작아진 AI는 스마트폰에 집어넣을 수 있고, 스마트폰 반도체에서도 작동이 됩니다. 하지만 작아진 만큼 성능이 좋지 않기 때문에, 스마트폰와 PC의 성능 자체를 높이려는 시도도 따라오고 있어요. 이것이 삼성전자가 갤럭시에 AI폰이라는 이름을 붙이고, 마이크로소프트가 성능을 높인 랩탑들에 '코파일럿+PC'라는 이름을 붙이는 이유에요. 학습을 통해 AI 거푸집을 만들면 추론을 통해 AI를 계속 쓸 수 있게 됩니다. <국가유산청> 학습 중심에서 추론 중심으로 그런데 온디바이스는 꽤 특수한 경우에서 사용될 뿐, AI는 대부분 클라우드에서 작동이 됩니다. 왜냐면 우리는 24시간 하루종일 인터넷에 연결되어 있는 상황에 살고 있거든요. AI로 실시간 정보를 검색하고, 훨씬 고성능의 일을 시키기 위해서는 결국 클라우드를 통해서 AI를 사용하는 것이 주력이 됩니다. AI는 클라우드, 데이터센터와 대부분의 경우 함께 간다. 이렇게 생각하시면 좋을 것 같습니다. 문제는 AI는 CPU와는 다른 GPU 라는 반도체에서 작동시켜야 빠르고 효율적으로 작동된다는 것. 챗GPT 이전의 데이터센터는 모두 CPU가 중심이고, GPU는 부가적인 역할을 했어요. 하지만 LLM이 우리의 생활 전반에 들어오면, GPU에 대한 수요는 폭발적으로 늘어나게될 수 밖에 없어요. 저 만해도 하루에 한번 이상 챗GPT를 사용하는데요. 구글 검색이 AI 검색으로 대체되고, AI 개인비서의 사용이 늘어나고, AI를 창작과정에서 사용하는 크리에이터가 늘어날수록, AI 데이터센터에 있는 GPU를 찾는 수요는 늘어날 수 밖에 없어요. 기존에는 GPU를 AI모델 학습에 주로 사용했다면, 이제 AI 사용자가 많아지면 GPU를 AI를 서비스(이를 추론 inference이라고 부릅니다)하는데 더 많이 쓰게 될 거에요. AI 학습이 일종의 ‘거푸집’을 만드는 것이라면 AI 추론은 ‘거푸집’에 쇳물을 부어서 도구를 계속 생산해내는 것에 비교할 수 있어요. 거푸집을 만드는 것은 1번이지만, 도구를 만드는 것은 수백번 수천번이 될 수 있어요. 120년전에는 발전소가 지금의 데이터센터였습니다. 데이터센터는 AI시대의 발전소 AI를 쓰는 것은 곧 클라우드를 통해서 데이터센터에 있는 AI를 쓰는 것이에요,. 그러니 앞서 말씀드린 클라우드 비용이 중요해집니다. 클라우드 컴퓨팅이 무엇인가.. 라고 여쭤보신다면 ‘전기’에 비유하는 것이 가장 쉬워요. 전기를 쓴 만큼 돈을 내는 것처럼(종량제), 컴퓨팅도 쓴만큼만 돈을 내는 것이죠. 전기료는 발전소를 건설하는데 드는 비용으로 정해지는 것처럼, 클라우드 컴퓨팅 비용은 컴퓨팅 발전소, 즉 데이터센터의 건설비에 달려있어요. 데이터센터를 만들기 위해서 무엇이 필요할까요? 먼저 땅이 있어야겠죠. 땅에다 건축물을 세우고 거기에 컴퓨터를 가득 채웁니다. 컴퓨터에는 뭐가 들어가죠? 우리가 사용하는 PC와 똑같아요. CPU, GPU, 메모리, 케이블 등등이 들어가겠죠. AI데이터센터에서는 이중 GPU가 제일 중요하고, 컴퓨터와 컴퓨터를 연결하는 케이블=네트워크 장비가 중요합니다. 데이터센터는 하나의 컴퓨터가 아니라 수천대 수만대의 컴퓨터가 들어가는데, 이들 사이에서 데이터를 빠르게 이동시키고 연산 작업을 효율적으로 나눠주는 것에 따라 데이터센터 운용비가 크게 줄어들어요. 데이터센터에 필요한 것은 또 있어요. 컴퓨터 수만대가 한꺼번에 작동되니 엄청난 열이 발생하기 때문에 이를 식히는 장비가 필요합니다. 또 수만대의 컴퓨터에 제공할 전력이 필요합니다. 일반적인 데이터센터에 비해 AI데이터센터에는 훨씬 더 많은 전력이 필요해요. 얼마나 저렴하고 안정적으로 전력이 공급되느냐도 데이터센터의 원가에 중요합니다. 이처럼 데이터센터 건축비와 운영비에 맞춰서 AI 사용료가 결정이 될거에요. AI 사용료가 저렴해질수록 AI를 학습시키는 비용과 사용하는 비용 모두 낮아집니다. 비용이 낮아질수록 AI를 바탕으로 하는 더 좋은 서비스가 나올 것이고, 이것이 선순환으로 AI에 대한 수요를 높일 수 있어요. 샘 올트먼과 AI 인프라에 투자하는 사람들은 이런 계산을 누구나 하고 있습니다. 삼성도 CSP사업을 하는 것 알고 계셨나요? <삼성SDS> 빅테크는 사실 클라우드 인프라 회사 AI데이터센터를 운영하는 주체는 누가될까요? 지금도 클라우드는 우리가 클라우드 서비스 프로바이더(CSP)라고 하는 회사에 의해서 운영됩니다. 아마존 AWS, 마이크로소프트 애저, 구글 클라우드가 대표적인 회사죠. 클라우드 컴퓨팅을 전기에 비유한다면, CSP는 한국전력처럼 전기를 공급하는 서비스 회사. 하지만 전력회사와 빅테크 CSP가 다른 결정적인 이유가 있는데요. 빅테크들은 자신들의 본업을 하면서 만든 데이터센터를 안쓰는 시간에 다른 회사에 빌려주다보니 그 사업이 커진 케이스에요. CSP는 직접 데이터센터를 짓기도 하고, 이미 건축되어있는 데이터 센터를 임대하기도 하면서 전세계 기업들에 클라우드를 서비스하죠. 빅테크 기업들이 엔비디아 GPU를 수조원씩 구매하는 것은 그 GPU를 가지고 데이터센터를 짓기 위해서에요. 비슷한 이유로 중국에서도 제일 큰 빅테크 기업들이 CSP를 운영해요. 알리바바, 텐센트, 화웨이 모두 자체적인 CSP 서비스를 하고 있어요. 한국에서는 네이버가 네이버클라우드라는 클라우드서비스를 하고 있지만, 미국 중국 기업들에 비교하면 미미한 수준이에요. CSP가 아니지만 대규모 데이터센터를 운영하는 회사도 있어요. 세계에서 가장 큰 소셜미디어 서비스를 운영하는 메타, 자율주행을 AI로 학습시키는 테슬라가 대표적. 이렇게 초거대 데이터센터를 운영하는 기업들을 하이퍼스케일러라고 하는데요. 이 기업들은 엔비디아의 GPU를 가장 많이 구매하는 기업이면서, 자체적으로 엔비디아 GPU를 대체할 제품도 만들어요. 왜냐면 AI의 성능은 곧 데이터센터의 성능인데, 최근에는 이를 높이기 위해 기술을 수직적으로 통합하려는 시도가 활발해요. 하이퍼스케일러는 아니지만, 기술을 수직적으로 통합하는 대표적인 회사가 애플이에요. 애플은 아이폰에 들어가는 반도체에서부터 시작해 소프트웨어까지 중요한 기술을 직접 만들죠. 애플은 애플인텔리전스를 위한 자체 데이터센터를 더 늘리고 있는데요. 거기에 들어가는 GPU를 직접 설계하기 시작했어요. 엔비디아의 GB200 NVL72 서버랙 <엔비디아> 엔비디아는 데이터센터를 만드는 기업 우리가 잘 아는 엔비디아도 CPU, GPU, 네트워크까지 직접 만들고 있어요. 엔비디아는 더이상 반도체 회사가 아니라, 서버컴퓨터 회사 혹은 데이터센터 회사라고 부르는 것이 적절하답니다. 미국의 또다른 반도체 기업 AMD가 ZT시스템스라는 서버컴퓨터 제조회사를 인수했는데요. 이 것도 비슷한 맥락이에요. 엔비디아의 AI 반도체 시장에 도전하기 위해, 엔비디아처럼 직접 서버를 만들기로 한거죠. 반도체부터 서버컴퓨터까지 수직적으로 통합하고 있는 회사가 또 있어요. 바로 중국의 화웨이인데요. 화웨이도 반도체부터 서버까지 하드웨어를 모두 만들 뿐 아니라, 화웨이 클라우드라는 이름으로 CSP 사업까지 하고 있어요. 다만 미국 정부의 규제때문인지 2021년 서버사업부만 엑스퓨전이라는 이름으로 분리한 상태. 이처럼 AI라는 새로운 전기를 싸게 사용하기 위해 전세계에 AI 데이터센터가 지어지고 있어요. 다행히 전기와 달리 AI에 필요한 클라우드 컴퓨팅은 국경을 넘나들며 사용될 수 있어요. 다만 어떤 나라에 AI 데이터센터의 수가 적다면 그만큼 AI비용은 높아질 수 있을 것 같아요. 비용을 높이기 어렵다면 속도가 늦어질수도 있죠. 개인 소비자이 내야하는 비용은 동일하더라고 기업들 시장에서는 차이가 생길 수도 있을 것 같아요. 딥시크라고 땅파서 장사할 수는 없죠. <챗GPT> 딥시크가 갑자기 비싸진 이유 AI 사용비용은 LLM의 API 비용으로 비교해볼 수 있는데요. 소프트웨어 개발사가 오픈AI, 구글 같은 AI개발 회사가 만든 AI를 쓸 때 내는 비용이 API 비용이라고 생각하면 되는데요. 이는 딥시크 같은 오픈소스 AI를 사용할 떄도 지불해야 해요. 오픈소스 AI모델을 어딘가 데이터센터에 넣어놓고 이를 클라우드를 통해서 사용하기 때문이죠. 딥시크는 출시 이후 파격적으로 낮은 가격으로 API 비용을 책정했어요. 딥시크-챗(V3)의 가격이 100만 토큰(단어)당 입력기준 0.014달러, 출력 기준 0.28달러에 불과했죠. 당시 모든 미국의 AI 회사들보다 비용이 낮았어요. 그만큼 학습비용이 낮기 때문에 가능하다고 생각했죠. 하지만 45일 정도만 이런 가격을 유지하고 현재는 입력기준 0.07달러, 출력기준 1.1달러로 가격을 높였어요. 이건 두 가지 이유때문인데요. 첫번째는 딥시크가 너무 유명해지고 사용자가 많아지면서 기존의 낮은 비용으로 서비스하기 불가능해졌기 때문이에요. 딥시크가 100명 정도만 서비스할 수 있는 클라우드 인프라를 준비했는데, 1만명이 사용하려고 오면 어떻게될까요? 만약 원가 이하로 서비스를 하고 있다면 손실이 눈덩이처럼 불어났겠죠? 그래서 가격을 높인겁니다. 두번째 이유는 딥시크가 유명해지면서 클라우드 서비스 업체들이 자체 클라우드에서 딥시크를 서비스하고 있기 때문이에요. 마이크로소프트, AWS 같은 미국 기업뿐 아니라 중국내에서 경쟁자였던 알리바바, 화웨이가 자신들의 클라우드에서 고객들이 딥시크를 사용할 수 있도록 서비스하고 있어요. 각 클라우드에서는 각자의 API 사용료를 책정해서 서비스를 하고 있으니 딥시크가 굳이 계속 낮은 비용의 API를 제공할 필요가 없는거죠. 참고로 딥시크는 중국내에서 화웨이의 GPU를 사용해서 서비스(추론)을 하고 있다고 하는데요. 이 성능이 엔비디아 GPU를 사용했을 때의 60% 정도라고 해요. 화웨이의 GPU를 사용해서 딥시크를 훌륭하게 서비스할 수 있다면? 적어도 추론 시장에서만큼은 엔비디아의 수요를 화웨이가 많이 가져갈 것 같아요. 이는 중국 정부가 바라던 방향이기도 하죠. 구글은 6세대 TPU에 트릴리움이라는 이름을 붙였어요. <구글> 오픈AI가 데이터센터 구축에 적극적인 이유 이렇게 본다면 AI 인프라의 왕. 누구일까요? 가장 가격 경쟁력을 갖춘 곳은 구글이에요. 최근 공개된 구글의 '제미나이 2.0 플래시 라이트'는 100만토큰당 사용 비용이 출력 기준으로 0.3달러, 1.1달러인 딥시크 가격의 3분의 1도 안되죠. 어떻게 구글은 이렇게 싸게 서비스를 할 수 있을까요? 일단 어느정도 손해를 보고 판다는 것이 맞을 것 같아요. 하지만 이것도 장기적으로는 비용을 계속 낮출 수 있다는 자신감이 있기 때문에 가능한 것. 구글은 일찍부터 엔비디아 GPU와 경쟁 관계에 있는 반도체인 TPU를 만들어온 회사. 그리고 TPU를 중심으로 AI데이터센터를 구축해왔어요. 앞서 말씀드린 데이터센터의 수직적인 통합이라는 측면에서 가장 노하우가 많은 회사라고 할 수 있어요. 이렇게 본다면 샘 올트먼이 오라클과 손잡고, 전세계에 데이터센터를 짓기 위해 돌아다니는 이유를 알 수 있어요. AI 개발 경쟁은 점차 성능에서 비용으로 옮겨가고 있어요. 딥시크 쇼크가 그런 것을 제대로 보여줬죠. 오픈AI의 경쟁자인 구글은 그런 점에서 비용 경쟁력을 가지고 있어요. 가장 많은 클라우드 고객을 가지고 있는 AWS에 오픈AI가 들어가지 못하는 점도 아쉽죠. AWS가 아무리 AI데이터센터를 낮추고 비용을 낮춰도 오픈AI에게는 그림의 떡. 그렇다면 오픈AI의 주주이면서 오픈AI의 모든 AI서비스에 대한 클라우드 인프라를 제공하는 마이크로소프트는 어떨까요? 두 회사는 협력관계이면서 동시에 경쟁관계이기도 해요. 당장 딥시크도 마이크로소프트에서 쓸수 있어요! 거기에 두 회사가 손잡은 것은 반독점법 위반이라는 감독당국의 따가운 시선도 있어요. 두 회사는 표면적으로든, 내부적으로든 '불가근 불가원'의 관계를 유지해야합니다. 반면 오라클은 클라우드서비스 회사이지만 AWS, 구글 처럼 자체 LLM을 만들지 않는 회사. 오픈AI 입장에서는 가장 이해관계의 충돌이 적고 협력할 부분이 많은 회사에요. 오히려 마이크로소프트보다 덜 껄끄러워요. AI데이터센터 밸류체인의 다양한 기업들 오픈AI가 자체 AI반도체를 만드는 이유 오픈AI가 '스타게이트'를 비롯해 AI 인프라 구축에 나서는 것은 오픈AI가 활동하는 주요국가 미국, 일본, 유럽 등에서 전반적인 AI 데이터센터 비용을 낮추기 위해서에요. 하지만 단순히 인프라 건설만을 생각한다면 이는 샘 올트먼 답지 않은 것. 글로벌 AI 데이터센터 구축은 1900년대 미국내 발전소 건설 붐에 비견되는 대규모 인프라 투자에요. 여기서 만들어지는 가치 중 많은 부분을 오픈AI는 가져가고 싶어하는 것 같아요. 가장 중요한 것은 AI 데이터센터의 핵심인 'GPU(AI 가속기)'. 오픈AI는 구글의 TPU를 만든 브로드컴과 함께 자체 AI 가속기를 만들고 있는데요. 앞으로 만들어지는 데이터센터 속 서버에 오픈AI가 만든 AI반도체가 탑재된다면 오픈AI는 큰 매출을 얻을 수 있고, 엔비디아로부터 반도체 독립도 가능해지죠. 이런 기회를 찾는 것은 오픈AI만이 아니에요. 소프트뱅크는 데이터센터용 CPU를 만드는 스타트업 '암페어'를 인수하려고 하고있는데요. 소프트뱅크가 오픈AI가 함께 만드는 데이터센터에 '암페어'의 CPU를 넣을 수 있겠죠? 특히, 암페어는 소프트뱅크가 대주주인 Arm의 설계를 사용하고 있기 때문에 소프트뱅크는 암페어가 잘 되면 이중으로 득을 보게됩니다. 미국 뿐 아니라 중국도 AI데이터센터 구축에 적극적으로 뛰어들 것으로 예상됩니다. 역시 AI를 전기에 비교하자면, 미국보다 낮은 전기료를 만들기 위해 AI데이터센터에 투자하는 것이죠. 뿐만 아니라 이 과정에서 중국산 반도체나 부품을 최대한 많이 집어넣을 것 같아요. 이 과정에서 중국 반도체 기업과 데이터센터 기업들이 성장할 수 있겠죠. Briefing ※ 붉은 제목을 누르면 상세 내용으로 연결됩니다. 머스크 "오픈AI 사겠다" 올트먼 "트위터 살게" 오픈AI와 소송중인 일론 머스크 테슬라 CEO가 오픈AI를 974억달러(약 141조원)에 사겠다고 제안. 샘 올트먼은 X에서 제안을 거절하면서 "트위터를 97.4억달러에 사겠다"고 제안. 일론 머스크를 비꼰 것인데 머스크는 '사기꾼'이라고 답했어요. 샘 올트먼은 머스크의 이런 제안이 경쟁자인 오픈AI를 흔들기 위한 목적이라고 말했어요. 밴스 부통령 "AI 규제 가볍게 해야" 파리 AI 정상회의에 미국을 대표해 참석한 JD밴스 미국 부통령. 동맹국들에게 AI애 대한 규제를 가볍게 해야한다고 주장. 빅테크 기업들의 AI를 강력하게 규제하려는 유럽연합에 경고를 한 것으로 보여요. 그는 미국 최강의 AI를 만들 것이라고 자신감을 표했어요. 애플 중국서 알리바바와 AI 만든다 아직 중국서 애플 인텔리전스를 서비스하지 못하고 있는 애플. 알리바바의 AI를 가지고 중국내에서 AI서비스를 할 것이라는 보도. 딥시크는 검토해봤지만 사용하지 않기로. 메타 한국AI 스타트업 퓨리오사 인수 추진 메타가 한국 AI 반도체 기업 퓨리오사AI 인수를 검토하고 있다는 보도가 나왔어요. 이미 자체추론용 AI 반도체를 만들고 있는 메타가 AI 반도체 인력을 보강하기 위한 목적의 인수일까요? 퓨리오사는 1700억원을 누적투자유치했고, 지난해 초 기준 약 6800억원이었다고 해요.

KITA STARTUP Weekly

2025.02.11

18

Innobranch 2.0 플랫폼 소개 한국무역협회는 국내 스타트업의 해외 진출 및 스케일업을 위해 오픈이노베이션 플랫폼 Innobranch를 운영하고 있습니다. 이번에 2.0을 새로 오픈하여 다양한 기능들이 개선되었습니다. 글로벌 기업과의 밋업을 찾는 스타트업, 혁신 기술을 보유한 스타트업을 찾는 대기업, 스타트업 지원기관 등 스타트업 생태계 관계자 모두 이용가능합니다. 글로벌 시장 진출 및 혁신을 원하는 스타트업 관계자들의 많은 이용 바랍니다🤩 Innobranch 2.0 바로가기 🚀

덩크슛하는 코비 AI 로봇, 애플이 만든 램프 로봇 새창으로 읽기

2025.02.10

30

자본 시장은 기술 시장 보다 훨씬 속도가 빠릅니다. 작년 한해는 엔비디아를 중심으로 인공지능 시대 필수품인 AI 반도체·데이터센터 기업의 주가가 날아올랐는데요. 이후 저비용 고성능 기술을 찾는 투자자가 늘어나면서, 양자컴퓨터 주식이 한 때 솟구치기도 했습니다. 그리고 올 들어선 로봇 기업과 AI 서비스 기업이 크게 주목을 받고 있습니다. 이는 딥시크와 같은 저비용 고효율 AI 파운데이션 모델이 나오다 보니, 로봇 산업에 대한 기대감이 커졌기 때문입니다. 이런 AI를 활용할 경우 로봇 기술력을 한층 강화할 수 있는데다 비용 절감 (자본지출 감소)과 수익 향상을 동시에 달성할 수 있기 때문입니다. 이런 무렵에 오픈AI, 애플, 엔비디아에서 로봇 개발 소식이 잇따라 들려 왔는데요. 이에 더해 미국 국방고등연구계획국과 카네기 멜런대의 신흥 로봇 기술 소식을 함께 분석해 드리겠습니다. Today's index 덩크슛 시도하는 로봇 애플의 차세대 램프봇 오픈AI 상표출원의 비밀 로봇도 협업하는 시대 ※ 볼딕 단어를 누르면, 상세 내용이 이어집니다. 직접 하실 말씀이 있으시다면, 머릿말에 있는 사진을 클릭하고 링크드인 1촌을 신청해 보세요. 코비 브라이언트 덩크 슛을 흉내낸 AI 로봇: ASAP 기술을 접목했다 (출처 카네기멜론대) 영상 코비 브라이언트 로봇 덩크슛을 시도하다! 로봇 AI 기술은 이제 단순한 보행을 넘어 인간의 정교한 움직임까지 재현하는 단계에 도달했습니다. 카네기멜런대와 엔비디아 연구진이 ASAP(Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-body Skills)라는 프레임워크를 개발했는데요. 영상을 보시면 로봇은 덩크슛 모션을 정교하게 따라합니다. 작년만 하더라도 달리기나 손동작 모방이 주류를 이뤘다면, 이제는 고차원 행동도 모방하는 단계! 호날두 모션을 복제하자 즉! ASAP를 활용하면 휴머노이드 로봇이 크리스티아누 호날두의 세리머니나 코비 브라이언트 덩크 모션을 정교하게 모방할 수 있습니다. 인간 수준의 복잡한 전신 운동(Whole-body Motion) 을 수행하는 것이 가능해진 것인데요. 이런 도약이 가능해진 것은 델타 액션 러닝 (Delta Action Learning)이라는 알고리즘이 발달했기 때문입니다. 📚 용어사전 (델타 액션 러닝) : 로봇이 수행한 액션(Action) 간의 차이(Δ 델타 변화량)를 기반으로 학습하는 기법입니다. 이전 행동과 현재 행동의 차이만 학습하는 것인데요. 더 적은 데이터로 더 빠르게 최적화하는 방식입니다. 종전에는 "완전히 새로운 행동을 학습"했는데요. 이제는 "이전 행동을 기반으로 미세 조정"하는 방식인 것이죠. 이전 행동 보고 오류를 줄이자 ASAP는 이러한 델타 액션 러닝을 기반으로 합니다. 특히 ASAP는 가상 세계에서 학습하는데요. 과거에는 가상 시뮬레이션에서 훈련한 AI 로봇이 실제 환경에서는 제대로 동작하지 않는 문제가 있었습니다. 그래서 이를 해결하기 위해 시뮬레이션과 실제 환경의 차이를 자동으로 보정하는 기술을 적용했습니다. 그것이 바로 ASAP 프레임워크입니다. 학습 방식을 매우 간단히 요약하면 이렇습니다. 1️⃣ 첫 번째 단계 시뮬레이션에서 기초 학습: 비디오 데이터를 분석해 인간의 움직임을 학습합니다. 시뮬레이션 환경에서 초기 제어 정책(Control Policies)을 훈련합니다. 특히 덩크슛이나 레이업처럼 로봇이 하기 힘든 동작을 따라합니다. 2️⃣ 두 번째 단계 실제 환경에서 미세 조정(Fine-Tuning): 로봇이 실제 환경에서 움직일 때, 센서로 데이터를 수집합니다. ASAP 프레임워크가 시뮬레이션과 실제 동작 간의 차이를 보정하는 ‘델타 액션 모델’을 학습합니다. 실시간으로 동작을 미세 조정하기 때문에, 더욱 정밀하고 자연스러운 움직임을 구현할 수 있습니다. ASAP 프레임워크: 동작 데이터를 비디오에서 추출해 데이터셋을 구축한 뒤, 시뮬레이션과 실제 환경 간 차이를 보정하기 위해 델타 액션 모델을 적용한다. 이후 파인튜닝을 거쳐 실제 환경에서 실행한다. 오류율 무려 53% 감소 연구진에 따르면 해당 기술을 적용했더니, 기존 기술 대비 오류율이 53% 감소했다고 합니다. 특히 이번 연구의 의미는 휴머노이드가 복잡한 인간 움직임까지 재현할 수 있다는 것을 보여준데 있습니다. 단순 보행이 아니라, 점프, 회전, 덩크 슛 같은 고난도 전신 운동을 구현할 수 있는 것이죠. 연구진은 이런 로봇을 활용할 경우, 매우 다양한 로봇이 미래에 등장할 수 있다고 믿고 있습니다. 예를 들어볼게요. 1️⃣ 스포츠 훈련 분석: 운동선수 동작 분석과 로봇 트레이닝 시스템 구축이 가능합니다. 축구, 농구, 테니스 등 다양한 스포츠 훈련 모두에서 말이죠. 예를 들어 로봇이 메시의 드리블 패턴을 학습하여 축구 훈련 도우미가 될 수 있습니다. 2️⃣ 헬스케어 재활 치료: 재활 로봇이 환자의 움직임을 분석하고 맞춤형 운동을 제공할 수 있습니다. 걸음이 불편한 환자라면 로봇이 먼저 따라 걸어 보고, 이를 잡아주는 걸음걸이를 보여줄 수도 있습니다. 3️⃣ 영화 게임 제작: 영화 속 액션 장면을 로봇이 직접 연기할 수 있습니다. 또 가상공간에서는 이런 것도 가능할 듯 합니다. 게임 개발에서 모션 캡처 없이 AI가 배우 움직임을 학습해 애니메이션을 제작하는 것이 가능해 질 것 같습니다. 4️⃣ 휴머노이드 로봇 개발: 아직은 아니겠지만 보스턴다이내믹스나 테슬라에서도 향후 ASAP 기술을 접목할 것으로 예상이 됩니다. 그만큼 휴머노이드가 실제 인간과 비슷하게, 자연스러운 움직임을 구현할 것으로 보입니다. 다만 아직 만능은 아닙니다. 고난도 동작을 수행할 수 있다는 것은, 역으로 하드웨어에 과부하가 걸릴 수 있다는 뜻입니다. 하드웨어 기술이 얼마나 뒷받침해줄지가 로봇 개발의 관건이 될 것으로 보입니다. 애플이 개발한 램프 로봇: 사용자 의도를 알아차려 감정을 표현한다. 영상 애플 '귀여운 로봇 램프’ 홈로봇 진출 신호탄? 로봇이 사람의 감정을 이해할 수 있을까요. 애플이 내부적으로 로봇 램프(Robot Lamp)를 개발 중이라는 소식을 전했는데요. 공개한 논문과 영상을 살펴보면, 단순한 조명이 아니라 마치 픽사의 룩소 주니어(Luxo Jr.)를 연상시킵니다. 애플이 단순한 실험을 넘어, 스마트 홈 로봇 시장에 진입할 가능성을 보여준 장면인데요. 📚 논문 ELEGNT (Expressive and Functional Movement Design for Non-Anthropomorphic Robots) 감정을 표현할 수 있으며, 기능적으로도 유용하고, 움직임을 다루는 디자인이며, 인간 형태가 아닌 로봇에 대한 연구라는 뜻 입니다. 엘레강스를 연상시키는 영어 단어! 때문에 스마트 홈 로봇 시장을 겨냥한 애플의 미래 전략일 가능성이 있다고 봅니다. 로봇 램프, 어떻게 작동할까? 감정을 표현하고 인간과 자연스럽게 상호작용하는 것이 핵심 목표입니다. 애플은 로봇이 인간과 자연스럽게 소통하는 존재가 되어야 한다고 믿고 있는 것으로 보입니다. 그래서 로봇 램프는 제스처, 자세, 시선을 활용해 감정을 표현합니다. 예를 들어, 사람이 가까이 다가오면 램프가 고개를 들어 반응합니다. 여기서 핵심은 감정입니다. 때문에 사용자의 의도(intent)를 파악하고, 행동으로 주의(attention)를 끌고 감정(emotion)을 전달하는데 초점이 맞춰져 있습니다. 즉 애플이 목표로 하는 것은 단순한 가전제품이 아니라 완전히 새로운 형태의 로봇 경험이라는 것을 알 수 있습니다. 작년부터 시동건 홈 로봇 애플의 로봇 램프 실험은 단순한 연구 프로젝트일까요? 아니면 스마트 홈 로봇 시장 진출을 위한 첫걸음일까요? 블룸버그의 마크 거먼은 2024년부터 애플이 가정용 로봇을 연구 중이라고 보도했었습니다. 그 이유는? 타이탄프로젝트 (자율주행 자동차)를 접으면서 상당수 인력이 AI 로봇 연구에 배치된 것으로 보입니다. 공식적으로 로봇을 출시한 적이 없지만, 오랫동안 관련 기술을 개발해 온 것으로 보입니다. 그동안 수많은 빅테크 기업이 홈 로봇 개발을 서둘렀습니다. 아마존은 가정용 로봇 아스트로를 출시했고요. 삼성은 AI 로봇 볼리를 내놓았습니다. 또 LG는 클로이라는 귀여운 로봇을 선보였는데요. 심지어 중국 TCL 마저 CES 2025에서 로봇 에이미를 내놓았죠. 이들 로봇의 가장 큰 공통점은 스마트 홈의 허브라는 점입니다. 아마존 삼성과 경쟁하라 애플은 이미 스마트 스피커(HomePod), AI 비서 시리, 스마트 홈 플랫폼(HomeKit)을 보유하고 있기 때문에 AI 스마트 홈 로봇 시장에 진출하는 것은 어찌 보면 자연스러운 수순입니다. 스태티스타에 따르면 AI 기반 스마트 홈 시장은 2023년 1,600억 달러 (233조원)에서 2028년 3,000억 달러 (436조원) 이상으로 성장할 전망이고요. 램프 로봇과 애플이 지금껏 선보인 기술을 살펴보면, 향후 애플이 어떤 전략을 펼칠지 대충 직감이 옵니다. 시리와 연동해 음성 명령이 가능한 스마트 홈 로봇을 만들고, 아이패드와 홈키트를 연동해 스마트 홈 허브로 변신시킬 것으로 보입니다. 이런 로봇은 현재 연구 단계이지만, 미래에 정식 제품으로 출시될 가능성이 큽니다. '홈 로봇'브랜드 내놓나 벌써 일부에서는 홈팟(HomePod)과 같은 스마트 기기처럼, 홈로봇 브랜드를 런칭한느 것 아니냐는 전망마저 있습니다. 특히 아마존과 삼성이 홈 로봇을 출시했기 때문에, 애플도 경쟁에서 밀리지 않기 위해 로봇을 런칭할 것으로 보입니다. 다만 애플 특유의 프리미엄 감성과 혁신적인 사용자경험(UX)이 차별점이 될 전망입니다. 차세대 머스크로 불리는 브렛 애드콕이 이끄는 피규어 AI: 오픈AI와 협업을 하다, 자사 기술 강화를 위해 이번주 결별을 선언했다. 애드콕은 "AI는 하드웨어처럼 외부에서 조달할 수 있는 것이 아니다”면서 “통합의 한계를 극복하기 위해 결국 자체 모델을 개발해야 한다”고 결별 이유를 설명했다. 오픈AI 출원의 비밀 AI부터 로봇까지?!? 오픈AI는 지난주 미국 특허청(USPTO)에 새로운 제품군을 보호하기 위한 상표를 출원했습니다. 빅테크 기업이 상표를 등록하는 일은 흔한데요. 이번 출원에는 눈길을 끄는 흥미로운 내용이 포함돼 있었습니다. 오픈AI가 단순한 소프트웨어 기업을 넘어 하드웨어와 로봇, 그리고 심지어 양자 컴퓨팅까지 고려하고 있다는 점이 드러났기 때문입니다. 헤드폰 헤드셋 노트북 VR까지 출원된 상표를 살펴보면, AI와 연계된 다양한 하드웨어 제품이 포함돼 있습니다. 헤드폰, 헤드셋 안경, 리모컨, 노트북, 스마트폰 케이스, 스마트워치, 스마트 주얼리, 그리고 가상현실(VR), 증강현실(AR) 헤드셋 등입니다. 해당 제품의 목적에 대해선 "AI 인터랙션, 시뮬레이션 훈련"이라고 적었습니다. 음... 오픈AI가 하드웨어 개발을 고려하고 있다는 것은 새 소식은 아닙니다. 오픈AI는 애플 수석 디자이너 조니 아이브와 협력해, AI 하드웨어 프로젝트를 진행 중이라고 밝혔습니다. 또 샘 올트먼은 이번 한국 방문에서 “여러 기업과 협력해 AI 기반 소비자용 하드웨어를 개발하고 싶다"고 언급하기도 했습니다. 실제로 오픈AI는 삼성전자와 손잡고 AI TV 개발 가능성을 모색 중입니다. "프로그래밍 가능한 로봇" 이번 출원에는 로봇과 관련된 내용이 포함돼 있습니다. 특히 오픈AI는 사용자가 프로그래밍 할 수 있는 휴머노이드 로봇, 의사소통과 학습 기능을 갖춘 휴머노이드라고 구체적으로 못 박았습니다. 이런 문구는 오픈AI가 로봇 개발을 본격적으로 진행하고 있다는 사실을 알려줍니다. 실제로 오픈AI는 새 로봇 팀을 꾸리기 위해 채용을 하고 있습니다. 리더는 메타의 AR 글래스 부문 출신인 케이틀린 칼리노우스키인데요. 향후 휴머노이드 형태의 로봇을 테스트할 가능성이 큰 것으로 알려졌습니다. 다만, 상표 출원이 반드시 실제 제품 출시로 이어지는 것은 아닙니다. 아직은 오픈AI가 이 모든 기술을 실제로 시장에 내놓을지, 혹은 언제 출시할지는 아직 미지수입니다. 다만, 이번 출원을 통해 오픈AI가 종합 테크 기업으로 나아가려 한다는 점은 분명해 보입니다. DARPA에 따르면, 한 사람이 100대 이상의 자율 로봇을 효과적으로 제어할 수 있다. 로봇도 협업하는 시대 한사람이 100대까지? 한 사람이 조종할 수 있는 로봇의 최대 수는 몇 대일까요? 미국 국방부 방위고등연구계획국, DARPA가 100대 이상도 끄떡없다는 연구 결과를 발표했습니다. 그동안 인간 로봇 협업(Human-Robot Interaction, HRI) 분야에서는 “인간이 과연 몇 대나 통제할 수 있을지”에 대해 의견이 분분했습니다. 업무 부담, 과부하 고작 3% DARPA 연구에 따르면, 한 사람이 100대 이상의 자율 로봇을 효과적으로 제어할 수 있습니다. 또 업무 부담이 과부하 상태에 있는 시간은 단 3%에 불과하다고 하는데요. 기존에는 사람이 많은 로봇을 동시에 조종하기 어렵다는 가설이 우세했지만, 이번 연구는 이를 뒤집는 중요한 발견으로 평가받고 있습니다. 실험은 오리건주립대의 줄리 아담스 교수 연구팀이 주도를 했고요. 상황은 이렇습니다. 로봇 조종 전문가 2명이 공중 드론(UAV) 110대, 지상 로봇(UGV) 30대, 가상 시뮬레이션 차량 50대 등 190대를 조정해 가상의 적을 무력화하고 작전을 수행하는 것입니다. 190대 조종도 무리없다 로봇들은 이번 실험에서 자율적으로 움직이면서 미션을 수행했지만 인간이 콘트롤을 했습니다. 기존 연구에서는 10~20대 이상을 조종하면 부담이 커진다고 봤지만, 190대도 무리가 없었다고 하네요. 특히 연구팀은 조종사의 심박수, 음성 속도, 자세 등을 분석해 업무 부담을 측정했으며, 전체 실험 시간 중 3%만 과부하 상태에 도달한 것으로 판별! 다만 지상 로봇은 장애물 충돌 위험이 높아 조종 난이도가 있었던데 반해, 공중 드론(UAV)은 상대적으로 제약이 적어 더 쉽게 운영 가능했다고 합니다. AI가 개별 로봇을 자동으로 운영하고, 인간 조종자는 전략적인 조정만 담당하는 방식이 더 효과적이라는 것이 밝혀졌는데요. 이번 연구를 통해 인간-로봇 협업 분야도 활기를 띌 것으로 보입니다. 군집 로봇이 갖고올 미래 특히 군집 로봇 기술은 소규모 인간 부대로, 대규모 로봇 군단을 조정할 수 있도록 하고 화재 지진 홍수 등에서 다수의 드론을 투입할 수 있게 해줍니다. 또 몇 명이서 수백 대의 배달 드론을 자동 운영할 수 도 있습니다. 다만 현재 숙제도 있습니다. 조종사가 쉽게 로봇을 모니터링하고 제어할 수 있는 인터페이스(UI) 개발이 필수적입니다. 예를 들어 “드론 A가 충돌 위험, 회피할까요?”라고 말하면, 인간은 “예, 우회 경로 실행” 같은 간단한 명령만 내리는 방식이 적합합니다. 뉴스 브리핑 ※ 제목을 클릭하면, 상세 내용으로! 로봇에 달린 전자피부 중국 화중과기대학이 개발한 ‘전자피부’가 200여 대의 휴머노이드 로봇에 적용됐다는 소식이 있었습니다. 전자피부는 휴머노이드 로봇의 촉각 감지 시스템으로 활용되는데요. 손뿐만 아니라 몸통, 발바닥 등 다양한 부위에 적용할 수 있습니다. 현재 샤오미 케플러 등 다양한 기업의 로봇 200대 이상에 이미 적용됐고, 올해 말까지 약 500대 이상의 로봇이 전자피부를 장착할 것으로 예상됩니다. 틱톡 퇴사자, 메타가 흡수했다? 틱톡이 매각이나 청산이냐를 놓고 갈림길에 서있는데요. 지난 6개월 동안 채용한 인재 보다, 퇴사한 인재가 더 많았다는 분석이 나왔습니다. 라이브데이터에 따르면, 틱톡을 등진 엔지니어는 주로 메타 구글 아마존 마이크로소프트 애플 등 빅테크 기업으로 이직을 했는데요. 틱톡의 AI와 추천 알고리즘 엔지니어들이 매우 경쟁력 있는 인재이기 때문입니다. 트럼프 “US스틸 인수 없다” 트럼프 대통령이 일본 이시바 시게루 총리와의 회동에서 일본제철의 US스틸 인수는 없다고 못박았습니다. 트럼프는 일본제철이 US스틸을 인수하는 대신 투자에 나설 것이라고 밝혔는데요. 앞서 일본제철은 149억달러를 투자해 US스틸을 인수하려고 했지만, 바이든 행정부에서도 불허를 한 바 있습니다. 만약 양사가 합병했을 경우 중국 바오우강철에 에어 세계 2위 철강사가 태어날 수... 드리는 말씀 다양한 로봇 트렌드를 살펴봤는데요. ASAP 프레임워크, 로봇 램프와 같은 스마트홈 로봇, 군집 로봇이 확산되면 삶이 크게 바뀔 수 있습니다. 휴머노이드 로봇이 스포츠 선수의 동작을 정밀하게 모방하고, 로봇 램프가 인간과 직관적으로 소통하며, 군집 로봇이 자연재해나 전장에 투입될 수 있습니다. 로봇의 발전은 긍정적 면도 있지만, 일자리를 대체하고 부작용을 줄 수도 있습니다. 하지만 두려워만 할 필요는 없습니다. 돌아보면 증기 기관이 등장했을 때도, 컴퓨터가 보급되었을 때도, 우리는 같은 질문을 던졌습니다. "기술이 인간을 대체할 것인가" 그러나 현실은 달랐습니다. 새로운 기술이 대체로 인간이 더 창의적인 일을 할 수 있도록 했는데요. AI 로봇 역시 마찬가지 아닐까 합니다. 비에프 스키너는 이런 말을 남겼습니다. "문제는 기계가 생각할 수 있느냐가 아니라, 인간이 생각하고 있느냐다." "The real problem is not whether machines think but whether men do." 기술이 인간을 대신할지 걱정하기보다, 우리가 창의적이고 비판적으로 사고를 하고 있는지를 먼저 돌아봐야 한다는 메시지입니다. 미라클레터는 변화를 두려워하기보다 테크와 함께 성장하는 방법을 고민하는 분들을 응원합니다. 또 인사드리겠습니다.

[전문가 칼럼] 한국 기업 관점에서 본 ‘딥시크’ 해석서

2025.02.06

44

딥시크가 불러온 거대한 파도는 AI 산업에 커다란 변화를 예고하고 있지만 딥시크에 대한 기대감과 함께 우려 섞인 눈길이 쏟아지고 있다. 딥시크에 대한 근본적인 실체는 무엇이고, 국내 기업들은 이에 어떻게 대응해야 하는지 알아보자. 장동인 2025년 2월 5일 딥시크(Deepseek)는 확실히 기술적인 진보의 산물이며, 이전의 AI 모델과는 차별화되는 부분을 갖고 있다. 기존 실리콘 밸리의 AI 연구자들은 더 많은 데이터, 더 큰 모델, 더 많은 GPU가 있어야 더 좋은 AI 모델을 만들 수 있다는 고정관념에 빠져 있었다. 반면 딥시크의 연구자들은 실리콘 밸리의 AI 연구자들이 지금까지 해온 것들을 다시 하나하나 확인하면서 다시 기술적으로 효율성을 높일 수 있는 방법을 찾았던 것이다. 특히 대형언어모델(LLM)의 기반 기술인 트랜스포머에 대한 연구에 집중했으며, 이를 개선하기 위해 노력했다. MLA(Multihead Latent Attention)를 이용해, 분할 계산 후 합산하는 방식인 기존의 멀티헤드 어텐션(Multihead Attention) 방식을 개선해 중요한 요소만 남겨두고 필요 없는 데이터의 크기를 줄임으로써 추론의 성능을 크게 개선했다. 또한 기존의 FP16(16비트 부동소수점) 대신 FP8(8비트 부동소수점)을 사용해 GPU의 메모리 사용을 줄이고 연산을 최적화했다. 딥시크의 이런 노력은 분명 데이터 요구량뿐 아니라 트랜스포머에서 사용되는 어텐션 벡터의 연산량 크기를 줄일 수 있다. 또한 이로 인해 AI 모델의 학습에 필요한 GPU와 메모리 사용량 역시 크게 줄일 수 있다. 더구나 엔비디아 GPU를 사용할 때 거의 필수적으로 사용하는 CUDA 라이브러리를 사용하지 않고 더 낮은 레벨인 PTX(Portable Thread Execution)라는 일종의 기계어(Assembler)를 사용한다. 이는 GPU와 메모리 사용을 직접 제어할 수 있기 때문에 자사의 모델을 GPU에 최적화할 수 있게 만들며, 결과적으로 GPU의 성능을 최대한으로 끌어올릴 수 있게 됐다. 여기에 MOE(Mixture of Experts), RLHF(Reinforcement Learning with Human Feed), Knowledge Distillation 같은 기존의 기술을 통합해 최적화했다. 특히, 추론 시 효율성과 실제 응답 품질을 유지하는 데 초점을 맞춰 통합함으로써, 대형 모델을 보다 작은 모델로 압축하더라도 성능 저하 없이 응답 속도를 개선할 수 있었다. 바로 이런 점들은 딥시크가 이전의 AI 모델과 차별화되는 부분들이다. 다음은 딥시크 R1과 R1 직전에 나온 V3의 기술적 요소와 기존 AI 모델과 차별화되는 부분을 정리한 것이다. 딥시크의 기술적 요소와 기술 기여 분야 개발 비용을 진짜 10분의 1로 줄일 수 있나? 딥시크 측에서는 AI 모델의 훈련에 2048개의 엔비디아 H800을 사용했했고, 총 278만 8,000 시간이 소요되었으며, 이를 H800을 시간당 2달러에 2개월 빌린 것으로 계산했을 때 560만 달러의 비용이 들었다고 발표했다. 이 발표가 바로 전 세계 모든 사람들에게 충격을 안겨준 부분이다. 지금까지는 새로운 AI 모델 개발에 수억 달러가 필요하다고 믿고 있었는데, 560만 달러라는 상대적으로 저렴한 비용으로 수준급의 AI 모델을 만들었다는 것은 충격이 아닐 수 없다. 그렇다면 지금까지의 AI 개발에 왜 그렇게 많은 비용이 필요했는지에 대한 의문을 제기할 수밖에 없는 것이다. 그러나 딥시크가 발표한 내용은 단순히 GPU 사용 시간에 대한 이야기일 뿐 학습 데이터 확보나 정제 비용, RLHF 방식에 필요한 인건비, 모델 테스트 인력, 해서는 안되는 답변이나 틀린 답변을 체크하는 레드티밍(Red Teaming)이라는 고급 인력의 인건비 등은 계산하지 않은 것이다. 딥시크는 2023년 5월 중국 항저우에서 중국의 유명 투자자이자 기업인인 량원펑(梁文锋)이 설립한 하이플라어(High-Flyer)라는 헤지펀드 퀀트회사의 자회사이다. 이 하이플라이어는 AI를 활용한 트레이딩을 성공적으로 운영하고 있다. AI를 활용한 트레이딩을 하려면 대량의 GPU가 필요하다. 따라서 하이플라어는 이미 많은 양의 GPU를 사용하고 있었을 것으로 추측된다. 또한 이번에 딥시크의 이전 버전 개발에 들어간 비용은 포함이 되지 않았다. 따라서 딥시크가 이번 버전을 GPU 2,048개만 운영해 개발했다고 하는 것은 그대로 믿는다해도 ‘560만 달러’라는 비용으로 만들었다는 것은 액면 그대로 받아들이기 힘든 부분이 있다. 그러나, 논문의 내용으로 볼 때 지금까지 당연하다고 생각하고 넘겼던 부분을 정밀하게 분석해 최적화하고, 이를 종합한 것이어서 앞으로 LLM을 만드는 많은 기업과 사람들에게 큰 도움이 될 것으로 기대를 모으고 있다. 앞으로 전 세계의 많은 AI 연구자들이 이번 딥시크 V3, R1 논문에서 이야기한 내용을 그대로 따라서 모델을 제작할 것으로 예상되며, 이 논문이 주장하는 내용이 진실인지 증명받게 될 것이다. ‘딥시크 사태’가 과연 ‘스푸트니크 모멘트’가 될 것인가? 이번 ‘딥시크 사태’는 AI 분야에서 우위를 차지하고 있던 미국의 자존심에 상처를 준 것은 분명하다. 1957년 소련의 스푸트니크 인공위성의 성공적인 발사는 냉전 이데올로기 상황에서 미국의 자존심을 크게 무너뜨렸고, 결과적으로 자극을 받은 미국은 천문학적인 투자를 통해 가장 먼저 인간을 달에 보낼 수 있었다. 현재 상태에서 보면 딥시크가 또 하나의 ‘스푸트니크 모멘트’가 되기는 어려워 보인다. 우선 딥시크가 논문으로 공개한 LLM 기술은 이미 미국에서 연구가 진행되고 있는 기술들이기에 충분히 수개월 내에 기존 제품에 적용할 수 있을 것으로 보이기 때문이다. 더구나 딥시크는 텍스트 기반 기술이기에 현재 오픈AI나 구글, 앤트로픽이 서비스하고 있는 기술 수준과는 아직 격차가 있다. 많은 자본과 비용을 투자해 최초로 개발하는 것과, 그 결과를 활용해 기존 제품을 개선하는 것은 근본적으로 다르다. 만약 미국의 주요 AI 기업들이 지금까지 개발한 것들을 공개하지 않았다면 딥시크를 비롯한 중국의 AI 기술이 현재 수준에 도달할 수 없었을 것이다. 중국에서는 딥시크와 같은 결과물은 미국의 무역제재, 특히 GPU 수출 제한으로 인해 부족한 중국 내 GPU 공급을 타개하기 위한 방안을 모색한 결과라고 말한다. 즉 AI 모델의 학습과 추론을 개선해 비용을 대폭 절감하려고 노력한 결과인 것이다. 다시 말해 미국의 무역제재가 가져온 뜻밖의 결과이다. 이를 두고 ‘딥시크 사태’라고 부르는 이유는 딥시크 개발 소식이 알려진 지난달 27일 엔비디아의 주가가 17%, 시가총액 5,888억 달러가 증발했기 때문이다. 그날 브로드컴도 17%, TSMC 13%의 주가 하락을 겪었다. 이는 딥시크의 상대적으로 낮은 비용으로 인해 지금까지 미국 위주의 AI 개발과 유지에 지나치게 과도한 비용을 지불한 것이 아닌가라는 의문을 제기하게 됐으며, 앞으로 AI 개발과 유지에 더 낮은 성능, 더 적은 비용이 필요할 것이라는 예측으로 인해 AI 반도체 주가에 영향을 미친 것이다. ‘딥시크 사태’는 트럼프 대통령이 야심차게 추진하려고 했던 5,000억 달러 규모의 초대형 AI 인프라 구축 프로젝트인 ‘스타게이트 프로젝트(Stargate Project)’에 ‘과연 AI 개발에 그렇게 거대한 데이터센터가 필요한 것인가’라는 근본적인 의문을 던졌다. 트럼프는 딥시크를 언급하며 미국 AI 산업계 경종을 울렸다고 지적했다. 사실상 미국과 중국은 이제 거대한 AI 전쟁이 시작된 것이다. 트럼프 대통령은 젠슨 황 엔비디아 CEO를 백악관으로 초청해 ‘딥시크 사태’에 대해 논의한 것으로 알려졌다. 아마도 엔비디아에게 중국을 위한 H800과 같은 로우엔드 제품 판매조차도 막는 것에 대해 논의했을 것으로 예상된다. 특히 싱가포르에서 엔비디아 제품의 매출이 2023년 이후 급격하게 증가해, 미국 매출의 절반이나 되고 있다는 점은 주목할 필요가 있다. 싱가포르가 자체적으로 이렇게 많은 양의 GPU를 소비하기는 어렵다. 당연하게도 싱가포르가 통해 중국으로 GPU가 흘러 들어가는 관문 역할을 하고 있다는 의심을 받고 있는 것이다. 앞으로는 엔비디아 제품뿐 아니라, 중국 기업의 미국내 AI를 비롯한 로봇, 자율주행, 우주 분야 투자, 사업 금지 조치 등도 충분히 가능성이 있다. 현재 미국 공화당을 중심으로 중국에 대한 다양한 제제를 위한 법안을 만들려는 움직임도 보이고 있다. 과연 한국에는 어떤 영향을 줄 것인가? 엔비디아와 하나로 묶여져 있는 SK하이닉스의 주가도 딥시크 개발 소식이 전해지고 10% 정도 하락했다. 이처럼 딥시크는 한국의 반도체 산업에도 커다란 영향을 주고 있다. 이제 트럼프는 중국의 AI에 대해 철저한 보복을 준비하고 있을 것이다. 이때 우리는 ‘중국에 보복’하는 일에 한국이 꼭 필요하며, ‘중국의 대안’으로 한국이 될 수 있다는 메시지를 미국에 날려야 한다. 딥시크에 적용된 기술들은 국내 AI 업계에 경종을 울리고 있고 우리도 할 수 있다는 활기를 불어줄 것이다. 이런 기술을 우리의 AI 모델에 적용하는 것은 어려운 일이 아니기 때문이다. 다만 문제는 GPU이다. 한국에는 AI 연구자들이 활용할 수 있는 대량의 GPU가 부족하다. 최소 H100 1만 대는 필요할 것으로 보인다. 딥시크는 장기적으로 보면 AI 모델과 서비스를 더 적은 비용으로 만들고 운영할 수 있도록 돕기 때문에 AI 서비스 가격의 하락을 이루게 될 것이다. 따라서 더 많은 사용자가 유입되면서 AI 생태계 저변을 넓힐 수 있을 것으로 기대된다. 딥시크는 현재 3가지 모델이 공개돼 있다. 오픈AI의 GPT-4o 버전에 해당하는 딥시크 V3는 6,710억 개의 파라미터를 갖고 있으며, 다운로드하려면 400GB 이상이 필요하다. 즉 이를 서비스하려면 상당히 큰 서버와 GPU가 필요하다. 오픈AI의 o3 버전에 해당하는 추론 모델인 딥시크 R1은 다양한 크기로 구성된다. 파라미터의 크기에 따라 1.5b, 7b, 14b, 32b, 70b이며, 각각 15억 개, 70억 개, 140억 개 320억 개, 700억 개의 파라미터로 만들어졌다. 그리고 오픈AI의 달리(Dalle) 3에 해당하는 야누스 프로(Janus-Pro)는 10억 개, 70억 개의 파라미터 버전이 있다. 이 모델들은 모두 무료로 다운로드해 사용할 수 있다. 다만 딥시크로 인한 정보 유출에는 주의해야 한다. 딥시크는 공개된 모델을 모두 다운로드 받아서 사용할 수 있지만, 딥시크 V3는 크기로 인해 개인이 다운받아 사용하기 어렵다. 따라서 딥시크가 제공하는 무료 서비스를 이용하는 경우가 대부분이다. 이때 개인정보를 입력해야 하고, 개인이 입력하는 내용(prompt)과 파일, 그에 대한 답변들은 모두 딥시크에 저장된다. 그리고 딥시크가 이를 자유롭 활용할 수 있도록 명시돼 있다. 미국에 있는 서버를 활용하는 오픈AI나 구글, 앤트로픽 등의 회사들도 개인정보와 프롬프트, 파일 등을 수집하고 하지만, 딥시크의 경우는 좀 더 조심할 필요가 있다. 사용자의 비밀번호, 쿠키, 지불 정보까지 수집한다고 약관에 명시돼 있기 때문이다. 따라서 기업에서 딥시크의 서비스를 사용하는 것은 조심할 필요가 있다. 우리는 여기서 무엇을 배워야 하나 한국 기업들은 딥시크 사태를 보면서 몇가지 명심해야 할 부분이 있다. 우선 앞으로 딥시크와 같은 매우 뛰어난 LLM이 계속 나올 것이라는 점을 명심해야 한다. 따라서 우리는 새로운 AI 모델을 바로 활용할 수 있는 유연한 구조를 갖춰야 한다. 이를 위해서는 특정 LLM에 종속되는 방식으로 시스템을 만들거나 의사결정을 하면 안된다. 또한 파인튜닝(fine tuning)을 통해 자체적인 LLM을 만드는 것 또한 바람직하지 않다. 이는 파인튜닝이 특정 파운데이션 모델(foundation model)을 기반으로 자제 보유한 데이터를 학습을 시키는 방식으로 이뤄져, 특정 파운데이션 모델에 종속될 수밖에 없는 상황이 벌어지기 때문이다. SLLM(Small LLM) 또한 주의해야 한다. 이 또한 LLM을 특정 분야에 맞춰 파인튜닝한 것이기 때문에, 파운데이션 모델에 종속되기 때문이다. 오픈소스 측면에서 딥시크는 즉시 활용이 가능하다. 한국어 지원도 뛰어나 기업의 내부망에서도 쉽게 운용할 수 있으며, 새로운 모델이 등장할 때마다 즉각 다운로드해 사용할 수 있다. 지속적으로 빠르게 새로운 모델이 나오기 때문에 기업은 어느 특정 모델만 사용하는 구조를 채택하면 변화에 대응할 수 없다. 일반적으로 국내 기업이 LLM을 도입하는 과정을 살펴보면, 보안에 대한 우려 때문에 특정 기업에서 만든 인하우스 모델을 선택하는 경우가 대부분이다. 오픈AI나 구글, 앤트로픽 등의 주요 AI 모델이 아닌 국내에서 개발한 모델을 사용하는 것이다. 하지만 이런 방식은 특정 국내 기업에 종속되는 문제를 만든다. 하루가 다르게 새로운 AI 모델이 등장하고 있는 가운데, 국내 기업이 얼마나 자사의 모델을 지속적으로 빠르게 업그레이드해 줄 수 있는지는 명확하지 않다. 이런 제반 상황을 고려하면 과감하게 오픈소스 모델을 채택하되, 어느 특정 모델만 사용하는 것이 아니라 다양한 모델을 동시에 사용할 수는 환경을 조성해야 한다. 다시 말해 ‘모델 중립적인 LLM 아키텍처’를 구성해야 하는 것이다. 모델 중립적인 오픈소스 LLM 아키텍처 여기에는 랭체인(LangChain)과 같은 요소를 활용할 수도 있고 Open webui, Dify 등을 이용해 구현할 수도 있다. 기업 데이터는 안전하게 기업 내부의 벡터DB(vector DB)에 임베드돼 보관하며, 이때 오픈소스 무료 임베딩(embedding)을 사용할 수도 있다. 그리고 다양한 오픈소스 LLM을 다운로드받아 사용하면 된다. 물론 딥시크를 사용할 수도 있으며, 최근에 나온 성능 좋은 LLM을 얼마든지 활용할 수 있다. 물론 LLM 시스템이라고 정의된 부분을 이런 모델 중립적인 아키텍처로 만들면 된다. 랭체인이나 Dify 등으로 어렵지 않게 구현할 수 있다. 딥시크는 장기적인 AI 흐름 관점에서 볼 때, 수많은 이정표 중 중요한 하나가 될 수는 있지만, 2012년 AlexNet이나 2017년 트랜스포머와 같은 AI의 흐름 자체를 바꾸는 분기점의 역할은 하지 못할 것으로 보인다. 다만 우리에게 좋은 배움의 기회가 되었다는 점을 받아들여서 열심히 우리 것으로 만들면 된다. 그리고 기업은 언제나 새로운 모델을 안전하게 사용할 수 있는 ‘모델 중립적인 오픈소스 LLM 아키텍처’를 고려해 보는 것이 좋을 것이다.

미국을 삼키는 중국 인공지능, 동네북이 된 오픈AI

2025.02.03

60

'동네북'은 말그대로 동네사람들이 공통으로 사용하는 북을 가리키는데요. 무슨 일만 있으면 꺼내 두들겨대기 때문에, 여러 사람이 두루 건드리는 만만한 사람을 뜻합니다. 설연휴를 전후로 인공지능 업계에서 누군가를 계속 두들겨 대고 있는데요. 바로 그 대상이 오픈AI입니다. 혜성처럼 등장한 중국 딥시크가 얼마 전 이렇게 외쳤죠? "고작 80억원으로 오픈AI의 첨단 AI와 맞먹는 성능의 AI를 개발했다" 이에 질세라 주말을 전후해 오픈AI를 두들기는 AI 기업들이 속속 늘었습니다. 미스트랄, 앨런인공지능연구소, 알리바바가 그들입니다. AI 업계 전교 1등인 오픈AI는 이를 지켜만 볼 순 없었는데요. 그래서 새로운 AI 모델 'o3-미니'를 부랴부랴 발표했습니다. 또 오픈AI와 운명 공동체로, 한 배를 탄 엔비디아 역시 분주한 주말을 보냈습니다. 미국의 대규모언어모델 붕괴는 곧 미국 AI 칩의 붕괴를 가리키기 때문입니다. 오늘 편지는 지금껏 보내드린 AI 대전 3부작중 마지막 편인데요. 주말 동안 벌어진 숨 막힌 AI 대전 스토리를 짧고 굵게 분석하겠습니다. P.S. 아래 제목을 누르고 지난 편지를 보세요 1회: 트럼프의 스타게이트 2회: 딥시크가 뭐길래 Today's index 오픈AI 전교 1등 옛말? "누구 보고 도둑이라고!" 딥시크 80억 개발 진실은? 오픈AI의 대대적 반격 엔비디아의 커지는 고민 ※ 볼딕 단어를 누르면, 상세 내용이 이어집니다. 직접 하실 말씀이 있으시다면, 머릿말에 있는 사진을 클릭하고 링크드인 1촌을 신청해 보세요. 숀 탄(Shaun Tan) 화풍으로 그린 중국 깃발을 흔드는 초대형 고래 (자작) # 장면1 "전교 1등은 이제 옛말" AI 학교의 새로운 1등? AI 모델의 성능을 평가하는 시험이 있습니다. 벤치마크(Benchmark)는 여러 가지 방법과 데이터셋을 활용하여 모델이 얼마나 정확하고, 효율적이며, 인간과 유사한 응답을 생성할 수 있는지를 측정하는 테스트인데요. 대표적으로 57개 주제로 구성된 MMLU, 초등학교 수준의 수학 문제를 담은 GSM8K, 문맥적 이해력과 상식을 테스트한 헬라스웨그(HellaSwag), 사실과 허구를 구별하는 트루스풀QA(TruthfulQA) 등이 있습니다. 전교 1등이 위태로운? 오픈AI AI라는 학교가 있다고 해볼게요. 그동안 줄곧 전교 1등은 오픈AI였습니다. 하지만 지난달부터 순위를 역전했다고 주장하는 학생이 등장하기 시작했습니다. 첫 학생은 딥시크였는데요. 이후에는 너도 나도 “오픈AI를 이겼다”고 주장하는 학생들이 쏟아져 나오기 시작했습니다. 크게 미스트랄, 알리바바, 앨런 인공지능 연구소입니다. 프랑스 AI 기업인 미스트랄은 지연 시간(AI가 특정작업을 하는데 걸리는 시간)을 최적화한 240억 파라미터 규모의 AI 모델 미스트랄 스몰 3(Mistral Small 3)을 주말에 공개했습니다. 미스트랄은 “메타의 라마 3.3 70B나 알리바바의 큐원 32B 등 대형 모델과 경쟁할 수 있는 성능을 제공한다"며 “특히 GPT-4o 미니와 같은 폐쇄형 모델을 대체할 수 있다"고 말했어요. 미스트랄 "GPT-4o 대체하겠다" 미스트랄은 이번 모델이 빠른 응답이 필요한 대화형 AI, 저지연 함수 호출, 도메인 특화 전문가 모델 구축, 로컬 배포 환경 등에서 매우 유용하다고 강조했는데요. 즉 금융, 의료, 제조 등 다양한 산업에서 두루 두루 사용할 수 있다는 메시지입니다. 구체적으로 금융업에서는 사기 탐지에 활용가능하고, 의료에서는 환자 분류나 상담 서비스에 투입이 가능! 알리바바 역시 주말에 1등을 외쳤습니다. 바로 큐원 2.5-맥스를 공개한 것인데요. 알리바바는 “오픈AI의 GPT-4o, 딥시크-V3, 메타의 라마-3.1-405B를 잊으라"며 "거의 모든 영역에서 알리바바가 이긴다”고 말했습니다. 특히 알리바바는 딥시크만큼 저렴한 가격을 앞세웠습니다. 딥시크는 V2에 대해 100만 토큰당 1위안(약 200원)의 낮은 가격을 설정했는데요. 알리바바는 모델 가격을 최대 97%까지 내렸습니다. 알리바바 바이트댄스도 맹추격 틱톡 모회사인 바이트댄스도 새로운 AI 모델을 공개했습니다. 블룸버그에 따르면 바이트댄스의 신형 AI 모델은 특정 벤치마크에서 오픈AI의 o1 모델을 능가하는 성능을 보였다고 하는데요. 중국 AI 업계가 오픈AI를 무선운 속도로 추격하는 모양새입니다. AI 기반 연구 논문 검색 엔진을 개발한 것으로 유명한 비영리단체, 앨런 인공지능 연구소(AI2)도 오픈소스 형태의 Tulu 3 405B를 공개했습니다. AI2는 “툴루3 405B 모델은 오픈AI GPT-4o와 대등한 성능을 갖추고 있다”면서 “딥시크 V3보다 우수한 성능을 기록했다”고 말했습니다. 특히 오픈AI와 달리 완전한 오픈소스 모델이라는 점을 강조했습니다. (하지만 써보니 성능은 아직; 좌표는 여기입니다) "내가 전교1등": AI 기업들이 오픈AI를 제치고 벤치마크에서 1등을 차지했다고 주장하고 나섰다. (1) 미스트랄 (2) 알리바바 레딧에 등장한 딥시크 오픈AI 풍자 만화 에드 지트론의 실랄한 비판: "아 미안한데 진짜 너무 웃겨서 멈출 수가 없네. 온 인터넷을 통째로 베껴 만든 오픈AI가 지금 딥시크가 챗GPT 출력을 학습했을 수도 있다고 징징대고 있다잖아? 아주 눈물 콧물 다 쏟고 있겠네. 이런 위선적인 애기들 같으니라고. 더 울어라, 요망한 것들아!" # 장면2 “인터넷 통째로 베꼈는데 누구보고 도둑이라고?!?“ 중국 기업의 공세적 움직임에, 오픈AI는 앞서 이렇게 말했습니다. “중국에서 미국의 AI 모델을 '증류'해 복제하려는 이들이 활발히 활동하고 있습니다. 딥시크가 오픈AI의 모델에서 대량의 데이터를 추출해 개발했다는 정황을 포착해 살펴보고 있습니다.” 📚 용어 사전: AI 모델 증류(Distillation)은 크고 복잡한 AI 모델을 더 작고 가벼운 모델로 변환하는 작업입니다. AI 모델 증류는 큰 교수(Teacher)가 학생(Student)에게 핵심 개념만 가르쳐서 시험을 잘 보게 만드는 과정과 비슷해요. 중국 AI가 던진 미국의 숙제 딥시크 AI 모델이 지난주 큰 충격파를 던졌죠? 마이크로소프트, 메타, 알파벳, 아마존이 올해 AI 투자금 등으로 책정한 자본지출 규모가 3100억달러(452조원)에 달하는데요. 투자자들이 이런 생각을 한 것이죠. “꼭 저렇게 막대한 돈을 AI에 투자할 필요가 있나?. 중국 기업처럼 효율적 방법을 찾아야 하는 것 아냐?” 특히 미국 벤처캐피털 업계는 그동안 AI 스타트업에만 1000억달러(145조원)를 투자했는데요. 중국 AI처럼 저렴한 비용으로 효율적 AI를 구축하는 것이 가능하다면, 그동안 투입한 돈은 잘못된 투자로 판명이 됩니다. 그만큼 자본시장마저 위험에 노출된 것인데요. 이후 하루 만에 기술 기업의 시가총액 1조 달러(약 1450조 원)가 증발하기도 했습니다. 오픈AI가 딥시크의 정보 유출을 조사한 것도 이유가 있죠. 동정표마저 잃은 오픈AI 오픈AI의 주장이 일리가 없는 것은 아니지만, AI 업계 반응은 신통치 않았습니다. “도둑이 도둑보고 도둑이라고 부르는 격이다.”라는 반응? 특히 오픈AI가 딥시크를 상대로 “AI 학습 데이터를 훔쳤다”고 주장하자, 인터넷에서는 오히려 오픈AI의 위선적 태도를 조롱하는 글들이 쏟아졌습니다. 테크 작가인 에드 지트론: “오픈AI는 전 세계 인터넷을 통째로 베낀 기업인데, 딥시크가 챗GPT를 학습에 사용했을 가능성이 있다고 징징대고 있다.” 404 미디어의 제이슨 코블러: “하하하하하하하하하하하하하” 한 SNS 사용자: “우리를 베끼지 마라! 우리는 정당하게 먼저 베꼈다!라는 것인가?" 이들 대다수는 개방형 인터넷을 지지하는 사람들인데요. 오픈AI의 사명인 오픈(Open)과 실제 운영 방식은 모순된다는 지적입니다. 오픈AI는 처음에는 비영리 연구소로 출발했지만, 현재는 폐쇄적인 독점적 사업 모델을 구축한 영리 기업으로 변모했다고 꼬집은 것이죠. 세미애널리시스의 분석: (위) AI 모델 비용이 시간에 따라 점진적으로 하락하며, 딥시크-V3가 현재 가장 저렴한 모델이다. (아래) 딥시크 AI의 GPU 운영 비용 분석 결과, 총 운영 비용만 25억7300만 달러로 추정. # 장면3 80억원에 만들었다고? 대충 계산해도 7.2조! 하지만! 이런 우려 속에, 딥시크 AI가 '저비용 고성능'이 아닌 '고비용 고성능'아니냐는 분석이 나왔습니다. 실제 투자비용은 7조2000억원(약 50억달러)에 육박할 것이라는 분석인데요. 반도체 산업에 특화된 연구 컨설팅 업체인 세미애널리시스(SemiAnalysis)는 이렇게 말했습니다. "딥시크의 하드웨어 투자는 총 50억 달러를 웃돌 것으로 추정됩니다." 딥시크 실제 비용? 딥시크는 공식적으로 AI 모델 훈련 비용이 557만6000달러(81억원)라고 밝혔지만, 세부 내용은 공개하지 않았습니다. 딥시크는 2023년 중국 AI 헤지펀드 하이플라이어(High-Flyer)에서 독립한 스타트업입니다. 하이플라이어는 중국명으로 환팡량화(幻方量化)입니다. 사실 하이플라이어의 반도체 구매 내역을 보면, 2021년 미국의 수출 제한 조치 이전에 A100 GPU 1만 개를 선제적으로 확보했는데요. 이후 AI 모델 개발에 전력 투구한 이력이 있습니다. 세미애널리시스는 하이플라이어와 딥시크 2개사가 총 5만 개 이상의 엔비디아 GPU를 보유하고 있는 것으로 보인다고 분석했습니다. 현재는 H20 3만개, H800 1만개, H100 1만개 추가 중... 서버 비용만 2조원 넘어 그러면서 세미애널리시스는 딥시크의 총 서버 투자 비용(CapEx·자본 지출)이 약 16억 달러(약 2조3332억원)에 달하고, 운영 비용만 9억4400만 달러(약 1조 3766억원)에 육박할 것이라고 분석했습니다. 세미애널리시스는 "AI 연구소나 하이퍼스케일 데이터센터는 단일 모델 훈련에 투입되는 GPU보다 훨씬 더 많은 GPU를 보유해야 한다"면서 "연구, 실험, 중앙 자원 관리 등의 이유 때문"이라고 설명했습니다. 딥시크는 구글과 같은 대형 AI 연구소와 달리, 외부 클라우드 업체에 의존하지 않고 자체 데이터센터를 운영하고 있습니다. 이를 통해 모델 개발과 실험 속도를 극대화하고 있는 전략입니다. 이러한 GPU는 멀티헤드잠재어텐션(Multi-head Latent Attention, MLA) 등 새로운 AI 아키텍처를 연구할 수 있었던 배경입니다. 📚 용어 사전: 멀티헤드잠재어텐션은 자연어 처리(NLP)와 컴퓨터 비전 모델에서 사용되는 기술인데요. 모델이 잠재(latent) 상태에서 더 깊은 의미를 학습할 수 있도록 설계된 구조입니다. 일반 멀티헤드 어텐션은 여러 개의 돋보기로 표면적인 특징들을 다각도로 관찰하는 것이고, MLA는 이에 더해 X-ray 같은 도구를 추가해 겉으로 보이지 않는 내부 구조까지 파악할 수 있습니다. 연봉 18억 연구원도 근무 이뿐 아닙니다. 딥시크는 중국내에서 우수 AI 인재를 대거 영입하고 있는데요. 베이징대, 저장대 등 주요 대학에서 적극적으로 인재를 채용하고 있습니다. 뛰어난 연구원에게 130만 달러(약 18억 원) 이상의 연봉을 지급하는 것으로 알려졌습니다. 현재 직원 수는 약 150명 수준이지만 빠르게 증가하는 추세입니다. 세미애널리시스 주장이 맞다면 '저성능 고비용' AI가 자본 시장을 강타한 것이 아니라, 중국 AI 기술력 자체가 미국 테크를 위협한 것으로 해석할 수 있습니다. 배경만 컬러 스케치로 전환해 본 스타게이트 기념도: 샘 올트먼(오른쪽)이 지난달 21일 미국 백악관에서 열린 스타게이트 발표 기자회견에서 트럼프(왼쪽) 앞에서 소감을 밝히고 있다. (자작) 오픈AI o3-미니 성능: Codeforces 벤치마크에서 o3-미니는 항상 o1-미니 보다 좋은 성적을 낸다. 중간 정도의 사고 만으로 o1과 비슷한 성능을 보인다. # 장면4 오픈AI 반격 “o3 봤어?!” 삼성 보다 덩치 키운다 경쟁자들이 “내가 전교 1등이야” 외치는 소리에, 전교 1등 오픈AI는 가만히 있을 순 없었습니다. 그래서 오픈AI는 새로운 AI 추론 모델 ‘o3-미니’를 출시했습니다. 일반적인 대규모 언어 모델과 달리 o3-미니는 답변을 제공하기 전에 스스로 사실 검증을 수행한다고 해요. 이를 통해 AI 모델이 흔히 겪는 오류를 줄이는 것이 가능하다는 설명입니다. 수학 코딩 과학에 최적화한 o3 특히 오픈AI는 o3-미니가 수학, 코딩, 과학(STEM) 문제 해결에 최적화됐으며, 기존 o1 시리즈와 유사한 성능을 보이면서도 속도는 빠르고 비용은 낮다고 강조했습니다. 오픈AI는 “외부 테스트에서 사용자들은 o3-미니의 답변을 o1-미니보다 더 선호한 것으로 나타났다”면서 “오픈AI는 o3-미니가 어려운 현실 문제에 대한 A/B 테스트에서 o1-미니보다 주요 오류 발생률이 39% 적었다”고 밝혔습니다. 또 응답 속도는 평균적으로 24% 빨랐으며, 보다 명확한 답변을 제공하는 것으로 평가됐는데요. 현재 o3-미니는 챗GPT를 통해 즉시 이용할 수 있고요. 챗GPT 플러스 및 팀 요금제 사용자는 하루 150회 요청이 가능합니다. 더 비싼 요금제인 챗GPT 프로 사용자는 무제한으로 사용할 수 있습니다. 딥시크 의식했나? 가격 낮춰 특히 오픈AI는 딥시크를 의식한 듯 o3-미니를 API로 제공한다고 밝혔는데요. API를 통해 사용자는 ‘낮음’, ‘중간’, ‘높음’ 3단계로 추론 강도를 조절할 수 있습니다. 모델의 가격은 100만 입력 토큰당 0.55달러, 100만 출력 토큰당 4.40달러로 책정됐습니다. (그래도 딥시크 보다는 5배 비싼듯 하네요.) 이는 o1-미니 대비 63% 저렴한 수준인입니다. 그러면서 오픈AI는 “중국 AI 기업 딥시크의 R1 추론 모델을 능가했다"고 말했습니다. 전교 1등 오픈AI가 이런 발언을 하니... 좀 이상하긴 하네요. 이뿐 아닙니다. 오픈AI는 주말을 전후해 미국 정부와 협력해 AI를 핵무기 보안에 활용하는 계약을 체결했습니다. 미국 국립연구소 소속 과학자 최대 1만5000명이 오픈AI의 최신 AI 모델 ‘o1 시리즈’를 이용하게 하는 것인데요. 미국을 위해! 핵무기 보안 참여 샘 올트먼 오픈AI 최고경영책임자(CEO)는 “핵전쟁 위험을 줄이고, 핵물질과 핵무기의 전 세계적 보안을 강화하는 것이 목표”라고 밝혔습니다. 하지만 논란은 더욱 커졌습니다. 오픈AI의 모델은 아직 사용자 데이터 유출, 허위 정보 생성(환각 현상) 등의 문제를 반복적으로 일으키고 있는데요. 핵무기 보안에 적용하는 것이 적절할까요? 또 오픈AI는 더 큰 자금 조달에 나섰습니다. 월스트리트저널은 오픈AI가 새로운 투자 유치를 위해 협상 중이며, 기업 가치를 3400억달러(약 495조원)로 평가받을 가능성이 있다고 보도했습니다. 이는 지난해 평가된 1750억달러(약 255조원)의 두 배에 해당하는 금액입니다. 삼성전자 시가총액이 312조원이니, 국내 1위 기업보다 약 58% 덩치가 더 커지는 셈입니다. 기업가치는 495조원으로! 오픈AI의 이러한 행보는 테크 업계 종사자라면 눈여겨 볼 필요가 있습니다. 오픈AI는 중국 AI의 공격을 애국심으로 돌파하려는 모습도 내비치고 있는데요. 더군다나 트럼프가 오픈AI를 위협하는 xAI의 일론 머스크를 중시하자, 트럼프 라인을 붙잡으려는 모습마저 보이고 있습니다. 올트먼은 고개를 숙였습니다. 그는 "다른 형태의 오픈소스 전략을 만들어낼 필요가 있다고 개인적으로 생각한다"면서도 "이를 오픈AI 모든 구성원이 공유한 건 아니다. 또 현재 우리의 최우선 사항도 아니다"고 말했는데요. 그는 "우리는 더 나은 모델을 만들 것이지만 지난 몇 년간 유지해 온 (기술 등의) 우위는 줄어들 것"이라고 시인했습니다. 새로운 오픈소스 전략? 현재로선 구형 AI 모델을 오픈소스로 공개하는 방안을 검토하고 있는 것으로 알려졌는데요. 개방형 폐쇄형 사이에서, 중간 포지션을 잡기는 매우 어려울 것 같다는 생각이 듭니다. 이에 더해 오픈AI는 오는 4일 서울에서 개발자 워크숍을 엽니다. 올트먼이 방한할 가능성이 있는데, 그가 온다면 무슨 말을 할까요? 마블코믹스 화풍으로 그린 도널드 트럼프(왼쪽)와 GB200 NVL72 방패를 들고 있는 젠슨 황. 엔비디아의 중국 매출 비중은 17%에 달해, 트럼프가 AI 칩 수출 규제를 하면 엔비디아 매출을 타격을 받는다. (자작) # 장면5 트럼프 젠슨 황 회동 H20 칩까지 규제받나 주말 동안 비상인 것은 오픈AI만은 아니었습니다. AI 데이터센터 칩을 만드는 엔비디아의 젠슨 황 CEO 역시 중국의 ‘저비용 고성능’ AI 공세에 당황할 수밖에 없었습니다. 젠슨 황 CEO는 도널드 트럼프 대통령과 주말에 회동을 가졌습니다. 특히 딥시크의 AI 모델 발표 이후, 미국 테크 업계가 큰 충격을 받은 상황에서 이뤄져 더욱 주목을 받았는데요. (지난달 27일 엔비디아 주가는 17% 폭락...) "좋은 만남을 가졌다"...근데? 로이터에 따르면, 이번 회동은 딥시크 발표 이전부터 예정된 일정이었습니다. 특히 트럼프 행정부가 대중국 반도체 수출 규제 강화를 검토하고 있는 가운데 열렸습니다. 트럼프 대통령은 회동 후 젠 슨 황 CEO를 가리켜 “신사(gentleman)”라고 부르며 “우리는 좋은 만남을 가졌다. 하지만 무슨 일이 일어날지 말할 수는 없다”고 말해 궁금증을 유발했습니다. 엔비디아는 공식 입장문에서 “트럼프 대통령과 만나 반도체와 AI 정책에 대해 논의할 기회를 갖게 되어 감사하다”면서 “미국의 기술 및 AI 리더십 강화를 위한 중요성을 논의했다”고 밝혔습니다. 반도체 업계에서는 황 CEO와 트럼프 대통령이 딥시크의 기술력과 AI 칩 수출 통제 강화 방안에 대해서도 의견을 나눈 것으로 추정하고 있는데요. "H800으로 만든 딥시크" 특히 딥시크가 AI 모델 구동에 엔비디아가 중국 수출용으로 제작한 저사양 칩 H800을 사용한 것으로 알려지면서, 트럼프 행정부가 추가 규제를 하는 것 아니냐는 전망마저 나오고 있습니다. 실제로 트럼프 행정부는 엔비디아의 대중국 반도체 수출 규제를 H20 칩까지 확대하는 방안을 검토 중인 것으로 전해졌습니다. 미국 정부는 2022년 엔비디아의 고성능 AI 칩 H100의 중국 판매를 제한한 데 이어, 2023년에는 H800 칩 수출도 금지했는데요. 이에 엔비디아는 조금이라도 더 팔려고 새로운 규정을 준수하는 H20 칩을 출시해 중국 시장에 공급했습니다. 엔비디아의 AI 칩인 H20과 H100의 성능 차이는 상당한데요. H20까지 규제할 가능성도 H100은 1979테라플롭스(TFlops)의 연산 능력을 보유한 반면, H20은 약 296테라플롭스로, H100의 6분의 1 수준에 불과합니다. 또 H20은 H100에 비해 코어 수가 41% 적고, 성능 역시 28% 떨어집니다. 하지만 딥시크가 저사양 칩으로도 강력한 AI 모델을 개발했다는 점이 드러나면서, 미국 정부로서는 새로운 규제를 하지 않을 수 없게 됐습니다.