브랜든 루이스(Brandon Lewis), 마우저 일렉트로닉스
<이미지 출처: Emily/Stock.adobe.com; AI로 생성된 이미지>
생성형 인공 지능(gen AI)은 기술 환경을 재편하고 있지만 그 영향력은 사용자 인터페이스를 넘어서고 있다. 이면에서는 생성형 AI가 데이터센터 인프라의 근본적인 변화를 주도하고 있다. 에퀴닉스(Equinix) 2023 글로벌 기술 동향 조사(Global Tech Trends Survey)에 따르면, IT 리더의 42%는 인프라가 증가하는 생성형 AI 도입을 수용할 수 있을지 의심하고 있으며, 41%는 자사의 기술 구현 능력에 의문을 제기하고 있는 것으로 나타났다.[1]
본 글에서는 생성형AI 가 데이터센터설계및운영 에 미치는 영향과 지속적인 발전을 지원하는 데 필요한 변화에 대해 살펴본다.
진화하는 인텔리전스: 생성형 AI가 변화를 주도하는 방식
생성형 AI는 기존의 머신 러닝 접근 방식에서 크게 진화하여 새로운 기능과 과제를 도입하고, AI 및 데이터센터 운영 환경을 재편한다.
수십 년을 지배해온 AI 패러다임인 머신 러닝은 과거 데이터를 기반으로 한 패턴 인식과 예측에 탁월하다. 분류, 회귀, 클러스터링과 같은 작업에도 매우 효과적이다. 하지만 머신 러닝 모델은 일반적으로 학습 데이터와 사전 정의된 규칙에 의해 제약을 받기 때문에 새로운 결과물을 만들어내는 데 한계가 있다.
생성형 AI는 패턴 인식을 넘어 새롭고 독창적인 콘텐츠를 제작하는 데까지 나아가고 있다. 이 같은 기능의 근본적인 변화는 몇 가지 커다란 차이점을 가져온다.
창의적 결과물: 생성형 AI는 인간의 창의성을 모방한 새로운 텍스트, 이미지 또는 기타 콘텐츠를 생성하는 데 중점을 둔 머신 러닝의 하위 집합이다. 반면, 기존의 머신 러닝 모델은 예측이나 분류에 중점을 둔다. 이와 같은 구형 모델은 인간과 유사한 의사 결정에 사용할 수 있지만 창의적인 결과물을 제공하지는 못한다.
문맥 이해: 생성형 AI는 일반적으로 방대한 데이터 세트에서 학습된 대규모 모델을 사용하기 때문에 맥락에 대한 미묘한 이해와 복잡하고 개방적인 작업을 처리할 수 있다. 이는 다소 더욱 전문적이고 범위가 제한된 머신 러닝 모델과는 대조적이다.
데이터 요구 사항: 생성형 AI는 일반적으로 기존 머신 러닝 모델보다 훨씬 더 큰 데이터 세트를 학습에 필요로 한다. 이 같은 데이터 수요의 증가는 데이터 센터의 스토리지 및 처리 능력에 큰 영향을 미친다.
모델 복잡도: GPT-4 또는 DALL-E에 사용되는 것과 같은 생성형 모델은 기존 머신 러닝 모델보다 훨씬 더 복잡한 경우가 많다. 이러한 복잡성은 더 많은 계산 요구 사항과 보다 정교한 하드웨어 요구 사항으로 이어진다.
학습 및 추론 프로세스: 생성형 AI 모델의 학습 프로세스는 일반적으로 기존 머신 러닝 모델보다 리소스와 시간이 더 많이 소요된다. 또한, 특히 실시간 애플리케이션의 경우 생성형 AI를 사용한 추론(즉, 결과물 생성)은 더 많은 계산 작업을 필요로 할 수 있다.
적응성: 머신 러닝과 생성형 AI 모두 미세 조정이 가능하지만, 생성형 AI 모델은 광범위한 재학습 없이 새로운 작업이나 도메인에 적응하는 데 더 큰 유연성을 발휘하는 경우가 많다.
표 1은 머신 러닝과 생성형 AI의 몇 가지 커다란 차이점을 요약하여 보여준다.
<표1>. 표준 AI와 생성형 AI 비교
이와 같은 차이는 데이터 센터 설계와 운영에 중대한 영향을 미친다. 방대한 연산 요구 사항, 특수 하드웨어의 필요성, 방대한 양의 데이터 처리 및 저장에 대한 요구 사항은 모두 생성형 AI 워크로드를 지원할 때 고유한 과제를 제시한다. 데이터 센터 인프라에 필요한 혁신을 모색할 때는 이러한 근본적인 차이점을 염두에 두어야 하며, 기존 머신 러닝에 최적화된 솔루션으로는 생성형 AI의 요구 사항을 충족시키기에 충분하지 않을 수 있다는 점을 이해해야 한다.
오늘날 데이터 센터가 생성형 AI를 지원할 수 없는 이유는?
생성형 AI에 대한 리소스 요구 사항은 기존 AI의 것보다 훨씬 높기 때문에 데이터 센터 운영의 다방면에서 변화가 필요하다. 여기에는 컴퓨팅 용량 증가, 전문화된 아키텍처, 더 높은 전력 및 네트워크 최적화 접근 방식이 포함된다. 이 같은 과제는 2028년까지 생성형 AI 서버 인프라 및 운영 비용이 760억 달러를 초과하는 규모가 될 것이라는 전망에 반영되어 있다.[2]
또한, 생성형 AI에는 고유한 데이터 거버넌스 과제도 따른다. 대중적인 모델 다수가 웹에서 스크랩한 데이터를 기반으로 학습되기 때문에 이로 인한 개인정보 보호 및 저작권법에 대한 우려가 제기되고 있다.[3] 또한 민감하거나 특허가 붙은 정보를 학습 데이터로 사용하여 잠재적인 법적 및 규제 문제를 일으킬 위험도 있다.
하드웨어 아키텍처에 대한 재고
생성형 AI의 요구 사항은 기존 워크로드와 근본적으로 다르기 때문에 데이터 처리 하드웨어 아키텍처를 완전히 재구상해야 한다. 엄청난 규모의 연산, 운영의 복잡성, 방대한 양의 데이터로 인해 오늘날의 데이터 센터 설계는 한계에 다다랐다. 이는 단순히 기존 솔루션을 확장하는 정도의 문제가 아니라 데이터 센터의 구축 및 운영 방식에 대한 오랜 전제에 도전하는 혁신적인 접근 방식이 필요하다.
생성형 AI의 요구 사항을 충족하려면 데이터 센터는 몇 가지 주요 영역에서 발전해야 한다.
HPC 및 GPU
고성능 컴퓨팅(HPC)은 생성형 AI 애플리케이션을 실행하는 데 필수적이다. HPC 아키텍처는 여러 컴퓨팅 노드를 활용하여 복잡한 작업을 병렬로 처리할 수 있다. 따라서 고유의 병렬 처리 기능을 갖춘 GPU(그래픽 처리 장치)는 HPC 시스템과 생성형 AI의 연산 요구 사항에 매우 적합하다.[4]
ChatGPT를 구동하는 LLM(대규모 언어 모델) 이전 버전인 GPT-3을 생각해 보자. 1,750억 개의 파라미터를 최소 지연 시간으로 실행하려면 최소 2,048개의 GPU를 갖춘 분산 병렬 컴퓨팅 시스템이 필요했다.[5] 업계에서는 GPT-3의 후속 버전인 GPT-4에 약 1조 8천억 개의 파라미터가 포함되어 있어 고급 세대 AI 모델의 방대한 연산 요구 사항을 더욱 잘 반영한다고 추측하고 있다.[6]
연산 속도도 연산 능력만큼이나 중요할 수 있다는 점에 주목할 필요가 있다. 가상 현실 환경에서 시각적 콘텐츠를 생성하는 애플리케이션을 생각해 보자. 이 경우에는 피로도를 줄이기 위해 90fps의 프레임 속도가 필요하다. 따라서 컴퓨팅 리소스는 90분의 1초 만에 콘텐츠를 생성할 수 있을 만큼 강력해야 한다.[7]
그러나 암호화폐 채굴을 포함한 다양한 분야에서 GPU에 대한 수요가 증가함에 따라 공급 문제가 발생할 수 있다. 데이터 센터를 설계할 때 요구 사항을 충족시킬 만큼 충분한 GPU를 확보하는 데 어려움을 겪을 수 있다.
구식 아키텍처에서 벗어나기
생성형 AI의 등장으로 기존 데이터 센터의 아키텍처는 한계에 다다르고 있다. 서버 팜에 사용되는 CPU 중심 기술은 수익이 감소하는 시점에 도달하여 컴퓨팅, 메모리, 스토리지 리소스를 분리하는 이기종 아키텍처로의 전환이 필요해졌다.[8]
FPGA(필드 프로그래머블 게이트 어레이)는 고정 하드웨어 구조에 대한 한 가지 대안을 제공한다. 버스 폭의 제약을 받지 않는 FPGA는 지연 시간이 짧고 하드웨어 수준의 병렬 처리를 제공하므로 퍼지 검색(fuzzy search)과 같은 특정 데이터 중심 분석 애플리케이션에서 최대 100배 더 빠르다.[9]
데이터 처리 장치(DPU)는 이기종 아키텍처에서 중요한 역할을 한다. 특수 저전력 코어, 코프로세서, 고속 인터페이스를 갖춘 DPU는 암호화, 데이터 압축, 서비스 품질(QoS) 관리 작업을 처리할 수 있다. 이와 같은 오프로딩은 대역폭 집약적이고 과금 가능한 워크로드를 위해 CPU와 GPU의 여유 공간을 확보하여 전력 사용량을 줄임으로써 데이터 센터의 총 소유 비용을 낮출 수 있다.[10]
신경 처리 장치(NPU)는 AI 및 머신 러닝 워크로드를 가속화하도록 설계된 특수 프로세서이다. 이미지 인식 및 자연어 처리와 같은 작업에 탁월한 성능을 발휘하여 차세대 AI 워크로드의 효율성을 더욱 향상시킨다.[11]
에너지 사용량 절감
생성형 AI의 연산 수요는 상당한 에너지 요구 사항으로 이어진다. 평균적으로 ChatGPT 쿼리 한 건은 표준 구글 검색보다 10배 더 많은 에너지를 소비한다. 따라서 2030년까지 데이터 센터의 전력 수요는 생성형 AI로 인해 160% 증가할 것으로 예상된다.[12]
이 문제를 해결하기 위해 데이터 센터는 몇 가지 전략을 구현할 수 있다:
특정 칩-투-칩 통신 프로토콜을 활용하여 집적 회로 간 데이터 전송을 최적화한다.[13] 예를 들어, NVIDIA의 다이렉트 칩-투-칩 프로토콜을 사용하면 고속 인터커넥트를 통해 IC 간 데이터 전송을 최적화할 수 있다.[14]
기존의 하드 디스크 드라이브(HDD)를 에너지 효율이 더 높은 솔리드 스테이트 드라이브(SSD)로 교체한다. 예를 들어, 15,000rpm SAS HDD의 전력 소비량은 6W인 반면, 삼성의 기업용 SSD는 활성 모드에서 1.25W의 전력만 소비한다.[15]
칩 직접 냉각 및 액체 침지 냉각과 같은 고급 냉각 기술을 구현한다. 칩 직접 냉각은 열원과 직접 접촉하는 판을 통해 차가운 액체를 순환시키는 방식이다. 반면, 액체 침지 냉각은 더 효과적인 방열을 위해 열 전도도가 높은 유전성 유체에 IT 하드웨어를 담그는 방식이다.
AI 그 자체를 활용할 경우 특히 냉각 시스템에서 에너지 활용을 최적화할 수 있다. 예를 들어, 구글의 딥마인드(DeepMind) AI는 냉각 비용을 40% 절감했다.[16]
더 나은 네트워크 최적화 구현
네트워킹 인프라는 생성형 AI를 지원하기 위해 컴퓨팅 리소스와 함께 발전해야 한다. 데이터 센터는 더 높은 데이터 속도와 더 큰 복잡성을 지원하면서 비용을 제어할 수 있는 고용량 네트워킹 솔루션을 구현해야 한다.[17]
잠재적인 해결책은 다음과 같다:
더 높은 대역폭과 더 나은 전력 효율을 위해 광 인터커넥트로 마이그레이션한다.[18]
Amazon Web Services(AWS)의 Elastic Fabric Adapter(EFA)와 같이 최적화된 상호 연결을 통해 초대형 GPU 클러스터를 배포한다.[19]
이러한 네트워킹의 발전은 생성형 AI 시스템의 방대한 데이터 전송 요구 사항을 지원하여 더 빠른 학습 및 추론 프로세스를 가능하게 하는 데 매우 중요하다.
데이터 프라이버시 향상
마스킹, 집계, 가명 처리와 같은 기존의 데이터 익명화 방법은 데이터 활용도를 떨어뜨리는 경우가 많기 때문에 생성형 AI 워크로드에는 충분하지 않다. 민감한 정보를 손상시키지 않으면서 데이터 유용성을 유지하려면 데이터 센터는 차등 개인정보 보호 및 합성 데이터 생성과 같은 AI 기반 익명화 기술을 모색해야 한다.
개인정보 보호 문제를 해결하기 위한 새로운 교육 방법론도 등장하고 있다.
연합 학습(Federated Learning)은 데이터가 아닌 클라이언트 간에 모델 매개변수를 공유하여 데이터 전송 없이 여러 장치나 서버에서 알고리즘을 학습하는 방식이다. 이 접근 방식은 데이터 프라이버시를 보장하고 스마트폰, IoT 네트워크 및 엣지 장치에 배포하기에 이상적인 민주화된 학습 프레임워크를 가능하게 한다.[20]
분할 학습(Split Learning)은 각 클라이언트가 업데이트를 중앙 서버로 전달하기 전에 모델을 부분적으로 학습하고, 이러한 업데이트를 최종 출력으로 통합하는 방식이다. 이 방법은 데이터 개인정보 보호와 모델 성능 간의 균형을 제공한다.[21]
이와 같은 접근 방식은 개인정보 보호 문제를 해결하고 데이터 소비를 줄이고 보다 분산된 AI 학습 패러다임을 구현할 수 있는 잠재적인 솔루션을 제공한다.
생성형 AI의 미래는 엣지에 있다
데이터 센터를 재설계하는 것은 생성형 AI를 지원하는 데 매우 중요하지만, 엣지 컴퓨팅은 차세대 개척지라고 할 수 있다. 엣지 컴퓨팅은 데이터 원본 지점에서 데이터를 처리함으로써 대역폭과 개인정보 보호 문제를 해결하는 동시에 데이터 센터 워크로드를 줄여준다. 이는 상당한 양의 데이터가 이미 엣지에서 생성된 의료 및 소매업과 같은 산업에 있어 특히 중요하다.[22]
엣지 컴퓨팅은 데이터 센터 인프라를 더욱 민첩하고 모듈화할 수 있게 해준다. 엣지 컴퓨팅은 데이터가 생성된 곳과 더 가까운 곳에서 데이터를 처리함으로써 지연 시간을 줄이고 실시간 처리 기능을 향상시킬 수 있으며, 이는 많은 생성형 AI 애플리케이션에 매우 중요하다.[23]
그러나 이 같은 변화를 위해서는 우선 데이터 센터가 차세대 AI 워크로드를 지원하는 데 필요한 하드웨어, 아키텍처, 인프라를 수용해야 한다. 여기에는 앞서 설명한 컴퓨팅 리소스와 엣지 컴퓨팅의 분산 특성을 지원할 수 있는 네트워킹 및 스토리지 솔루션이 포함된다.
생성형 AI가 지속적으로 진화함에 따라 데이터 센터도 진화해야 한다. 이 같은 변화에는 기술 업그레이드와 데이터 관리, 개인정보 보호, 분산 컴퓨팅에 대한 새로운 접근 방식이 수반될 것이다. 데이터 센터는 이와 같은 새로운 요구 사항에 적응함으로써 생성형 AI 기술의 잠재력을 최대한 발휘하여 오늘날 우리가 상상할 수 없는 혁신의 길을 열어주는 데 중요한 역할을 하게 될 것이다.
출처
[1] https://blog.equinix.com/blog/2023/06/14/accelerating-ai-innovation-requires-ecosystems-and-infrastructure/
[2] https://www.forbes.com/sites/tiriasresearch/2023/05/12/generative-ai-breaks-the-data-center-data-center-infrastructure-and-operating-costs-projected-to-increase-to-over-76-billion-by-2028/
[3] https://www.wired.com/story/how-to-stop-your-data-from-being-used-to-train-ai/
[4] https://www.nvidia.com/en-us/glossary/high-performance-computing/
[5] https://ieeexplore.ieee.org/document/10268594
[6] https://the-decoder.com/gpt-4-architecture-datasets-costs-and-more-leaked/
[7] https://ieeexplore.ieee.org/document/10268594
[8] https://www.edgecortix.com/en/blog/ai-drives-the-software-defined-heterogeneous-computing-era
[9] https://www.dataversity.net/future-data-center-heterogeneous-computing/
[10] https://www.kalrayinc.com/blog/dpus-gpus-and-cpus-in-the-data-center/
[11] https://www.purestorage.com/knowledge/what-is-neural-processing-unit.html
[12] https://www.goldmansachs.com/insights/articles/AI-poised-to-drive-160-increase-in-power-demand
[13] https://research.manchester.ac.uk/en/studentTheses/energy-efficient-encoding-methods-for-chip-to-chip-communication
[14] https://developer.nvidia.com/blog/strategies-for-maximizing-data-center-energy-efficiency
[15] https://www.techtarget.com/searchdatacenter/tip/Four-ways-to-reduce-data-center-power-consumption
[16] https://www.digitalrealty.co.uk/resources/articles/green-data-centre-ai
[17] https://www.laserfocusworld.com/optics/article/14300952/unleashing-ai-data-center-growth-through-optics
[18] https://semiengineering.com/ai-drives-need-for-optical-interconnects-in-data-centers/
[19] https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html
[20] https://medium.com/@cloudhacks_/federated-learning-a-paradigm-shift-in-data-privacy-and-model-training-a41519c5fd7e
[21] https://medium.com/@minhanh.dongnguyen/a-gentle-introduction-on-split-learning-959cfe513903
[22] https://www.forbes.com/sites/forbestechcouncil/2023/12/11/why-generative-ai-makes-sense-for-edge-computing/
[23] https://www.datacenterdynamics.com/en/opinions/are-data-centers-obsolete-in-the-age-of-ai/