본문 바로가기

IT/AI

🏗️ AI 붐이 끝나면 우리에게 남는 건 뭘까요?

닷컴 버블과 AI 붐, 결정적 차이점

요즘 AI 열풍 정말 대단하죠? 그런데 문득 이런 생각이 들더라고요. 만약 이 열풍이 식는다면, 우리에게는 과연 무엇이 남을까요?

어떤 분들은 닷컴 버블 때를 떠올리시더라고요. 그때도 엄청난 투자가 있었지만, 결국 그 덕분에 인터넷 인프라가 갖춰져서 오늘날의 디지털 세상을 만들 수 있었잖아요. AI 붐도 비슷하지 않을까 하는 기대를 하시는 거죠.

하지만 자세히 들여다보면, 상황이 좀 다르더라고요.

1990년대 닷컴 시대에 깔린 광케이블들, 기억하시나요? 당시 엄청난 돈이 투자됐는데요. 놀라운 건 그때 깔린 광케이블 중 상당수가 지금도 쓰이고 있다는 거예요. 실제로 시스코 시스템즈의 2024년 보고서에 따르면, 1990년대 후반에 설치된 광섬유 인프라의 약 60% 이상이 여전히 현역으로 활용되고 있다고 해요.

웹 초창기부터 지금까지 인터넷 트래픽은 수백만 배 증가했어요. 1995년 전 세계 인터넷 트래픽이 하루 1테라바이트 정도였다면, 2024년에는 분당 194,000테라바이트가 넘어요. 그런데도 1990년대에 깔린 광섬유를 그대로 쓸 수 있는 이유는 뭘까요? 양쪽 끝의 전자장비만 업그레이드하면 되거든요.

더 중요한 건, 이 인프라가 TCP/IP, HTTP 같은 개방형 표준을 기반으로 만들어졌다는 거예요. 누구나 접근할 수 있고, 누구나 그 위에서 새로운 걸 만들 수 있었죠. 유튜브도, 넷플릭스도, 줌도 모두 이 인프라 위에서 탄생했어요.

그런데 지금 AI 투자는 좀 달라요.

AI 투자의 현주소, GPU 전쟁

현재 AI 붐의 핵심은 GPU예요. 특히 엔비디아의 GPU가 시장을 장악하고 있죠. 존 페디 리서치의 2024년 분석에 따르면, 엔비디아는 AI 칩 시장의 약 88%를 차지하고 있어요. 사실상 독점이나 다름없는 상황이죠.

엔비디아의 최신 H100 GPU는 대당 약 4만 달러, 우리 돈으로 5,300만 원 정도 하는데요. 더 강력한 차세대 칩인 B200은 개당 7만 달러, 약 9,300만 원에 달할 것으로 예상돼요. 메타는 2024년 한 해에만 AI 인프라에 약 40조 원을 투자했고, 마이크로소프트는 약 70조 원을 쏟아부었어요. 아마존도 2024년 약 50조 원을 AI 데이터센터 구축에 투자했다고 밝혔죠.

근데 문제가 뭐냐면요. 이 비싼 GPU들의 수명이 생각보다 짧다는 거예요. 가트너의 2024년 리포트에 따르면, AI 전용 하드웨어의 평균 경제적 수명은 2~3년에 불과하다고 해요. 기술이 너무 빠르게 발전하다 보니 금방 구형이 되어버리거든요. 게다가 AI 학습에 쓰이는 GPU들은 24시간 내내 풀가동되면서 엄청난 열을 내기 때문에 물리적으로도 빨리 소모돼요.

2023년 기준으로 ChatGPT를 운영하는 데 하루 약 70만 달러, 우리 돈으로 9억 3천만 원 정도가 드는 것으로 추정되는데요. 이 중 상당 부분이 GPU 비용과 전력 비용이에요. 국제에너지기구(IEA)의 2024년 보고서에 따르면, 하나의 대형 AI 데이터센터가 연간 소비하는 전력은 약 300~500메가와트로, 중소 도시 하나가 쓰는 전력량과 맞먹는다고 해요.

폐쇄적 생태계의 한계

더 큰 문제는 이 GPU들이 범용 컴퓨터가 아니라는 거예요. 오직 AI 모델 학습과 실행에만 최적화되어 있거든요. 엔비디아, 구글, 아마존 같은 몇몇 대기업의 특정 소프트웨어와 아키텍처에 맞춰져 있죠.

구글의 TPU, 그러니까 텐서처리장치만 해도 그래요. 구글이 자체 개발한 이 칩은 구글의 텐서플로우 프레임워크에 최적화되어 있어요. 다른 용도로 쓰기가 정말 어렵죠. 아마존도 자체 AI 칩인 트레이니엄과 인퍼렌시아를 개발했는데, 역시 아마존의 생태계 안에서만 제대로 작동해요.

AI 데이터센터들도 마찬가지예요. 일반적인 클라우드 데이터센터와는 완전히 달라요. 엄청난 전력 밀도를 감당하기 위한 특수 냉각 시스템, 초고속 네트워킹, 특화된 전력 공급 장치가 필요하거든요.

마이크로소프트가 오픈AI를 위해 구축한 초대형 AI 슈퍼컴퓨터는 1만 개 이상의 V100 GPU를 연결했는데요. 이런 시설을 다른 용도로 전환하는 건 거의 불가능에 가까워요. 처음부터 특정 목적을 위해 설계됐거든요.

버블이 꺼진다면 남는 것

솔직히 걱정되는 부분이에요. 만약 AI 투자 열풍이 식는다면, 우리에게는 수명이 짧은 특수 칩들과 용도 변경이 어려운 거대한 데이터센터들만 남을 수 있어요. 한때의 영광을 상징하는 텅 빈 대성당 같은 거죠.

골드만삭스의 2024년 보고서에 따르면, 생성형 AI 시장이 기대만큼 성장하지 못할 경우 약 1조 달러, 우리 돈으로 1,330조 원 규모의 투자가 좌초될 수 있다고 해요. MIT 테크놀로지 리뷰는 현재 AI 인프라 투자의 약 40%가 과잉 투자일 가능성이 있다고 분석했어요.

물론 긍정적인 시나리오도 있어요. 투자가 수요를 앞지르면 가격이 떨어지겠죠? 닷컴 버블 이후 인터넷 회선 비용이 폭락했던 것처럼요. 실제로 2000년대 초반 광대역 인터넷 비용은 90% 이상 하락했어요.

만약 AI 컴퓨팅 비용이 내려간다면 어떨까요? 더 많은 사람들이 고성능 컴퓨팅을 활용할 수 있게 될 거예요. 생성형 AI뿐만 아니라 과학 연구, 시뮬레이션, 데이터 분석 같은 다양한 분야에서 말이죠.

중고 AI 하드웨어 시장도 형성될 수 있어요. 대기업들이 더 이상 쓰지 않는 GPU들을 중소기업이나 연구기관이 저렴하게 구입해서 활용하는 거죠. 실제로 IDC의 2024년 보고서에 따르면, 중고 AI 하드웨어 시장이 연간 15억 달러 규모로 성장하고 있다고 해요.

개방성이 만드는 미래

결국 핵심은 개방성이에요. 인터넷이 수십 년간 혁신의 플랫폼이 될 수 있었던 건 개방형 표준 덕분이었어요. 누구나 접근할 수 있고, 누구나 새로운 걸 만들 수 있었죠.

하지만 지금 AI 생태계는 폐쇄적이에요. 컴퓨팅 자원도, 모델도, API도 모두 소수의 기업이 소유하고 통제하고 있어요. 각자 자기만의 시스템을 만들고 있죠.

오픈소스 AI 모델들이 조금씩 나오고 있긴 해요. 메타의 라마 시리즈나 미스트랄 같은 모델들이 대표적이죠. 하지만 이들조차 완전히 개방적이진 않아요. 학습 데이터나 세부 아키텍처는 여전히 비공개인 경우가 많거든요.

하드웨어가 아무리 저렴해져도, 개방되지 않으면 소수의 기업만 혜택을 볼 뿐이에요. 공유된 표준이나 상호운용성이 없다면, 잉여 인프라는 공공재가 아니라 사적 자산으로 남을 거예요.

AI 산업이 진짜 오래가는 유산을 남기려면, 개방성을 확보해야 해요. 표준화된 AI 모델 포맷이 필요해요. 현재 ONNX, 그러니까 개방형 신경망 교환 같은 시도가 있긴 하지만, 업계 전반의 지지를 받지 못하고 있어요.

컴퓨팅 자원에 대한 접근성도 높아져야 해요. 지금처럼 몇몇 클라우드 기업만 AI 인프라를 독점하는 구조는 장기적으로 좋지 않아요. AI 모델의 투명성도 중요해요. 어떤 데이터로 학습됐는지, 어떻게 작동하는지 공개되어야 신뢰할 수 있고, 더 나은 모델을 만들 수 있어요.

우리가 선택할 미래

AI 붐이 인터넷 광케이블처럼 수십 년 쓰일 인프라를 남길지는 아직 모르겠어요. 지금 방향대로라면 어려워 보이긴 해요. 하지만 산업이 방향을 틀 수 있다면, 즉 폐쇄적인 시스템을 개방적인 플랫폼으로 바꿀 수 있다면, 여전히 가능성은 있어요.

앞으로 몇 년이 정말 중요할 것 같아요. 우리가 어떤 선택을 하느냐에 따라 AI 시대의 유산이 결정될 테니까요. 오늘의 사적 인프라가 내일의 공유 플랫폼이 될 수 있도록, 우리 모두가 관심을 가지고 지켜봐야 할 때예요.

결국 AI 붐이 남길 유산은 단순히 하드웨어나 데이터센터가 아니에요. 그보다는 개방성, 접근성, 투명성이라는 가치를 얼마나 지켜낼 수 있느냐가 진짜 유산이 될 거예요. 닷컴 버블이 우리에게 인터넷이라는 열린 광장을 선물했듯이, AI 시대도 모두가 함께 성장할 수 있는 플랫폼을 남길 수 있기를 기대해봅니다.

 

300x250
반응형