Computer >> 컴퓨터 >  >> 시스템 >> Mac

픽셀에서 예측까지:GPU가 최신 AI를 지원하는 방법

픽셀에서 예측까지:GPU가 최신 AI를 지원하는 방법

사람들은 인공지능이라고 하면 복잡한 모델, 데이터 센터, 클라우드 서버를 상상합니다.

대부분의 사람들이 깨닫지 못하는 것은 이 AI 혁명의 실제 엔진이 거의 예상하지 못한 곳, 즉 보잘것없는 게이밍 PC 내부에서 시작되었다는 것입니다.

한때 부드러운 3D 비주얼을 렌더링하기 위해 제작된 동일한 그래픽 카드가 이제 챗봇, 이미지 생성기 및 자율 주행 시스템을 지원하고 있습니다. 픽셀에서 예측까지의 여정은 현대 컴퓨팅에서 가장 흥미로운 이야기 중 하나입니다.

CPU 시대와 그 한계

기계 학습 초기에 연구자들은 CPU에 의존하여 데이터를 처리했습니다.

픽셀에서 예측까지:GPU가 최신 AI를 지원하는 방법

CPU는 다재다능하고 광범위한 작업을 처리하는 데 적합했지만 한 가지 큰 한계가 있었습니다. 즉, 문제를 순차적으로 처리했습니다.

즉, 한 번에 몇 가지 작업만 처리할 수 있다는 의미입니다. 작은 모델의 경우에는 괜찮았습니다. 그러나 신경망이 복잡해지면서 CPU에서 신경망을 훈련시키는 속도가 엄청나게 느려졌습니다.

컴퓨터에게 이미지를 인식하도록 가르치려고 한다고 상상해 보십시오. 신경망에는 수백만 개의 매개변수가 있을 수 있으며 모든 매개변수는 훈련 중에 계속해서 조정되어야 합니다.

CPU에서는 며칠 또는 몇 주가 걸릴 수 있습니다. 연구원들은 AI가 발전하려면 완전히 다른 종류의 하드웨어가 필요하다는 사실을 빠르게 깨달았습니다.

GPU가 등장한 방식

그래픽 처리 장치(GPU)는 원래 비디오 게임에서 빠르게 움직이는 이미지를 렌더링하기 위해 제작되었습니다. 수천 개의 작은 계산을 동시에 수행하는 병렬 처리를 위해 설계되었습니다.

CPU에는 소수의 코어가 있을 수 있지만 GPU에는 수천 개가 있습니다. 이러한 아키텍처 덕분에 GPU는 동일한 작업을 엄청난 양의 데이터에 동시에 적용해야 하는 기계 학습에 사용되는 수학 유형에 이상적이었습니다.

어떤 면에서 GPU는 게임용으로 제작되었지만 AI용으로 만들어졌습니다. 조명 효과를 더 부드럽게 만들고 폭발을 더 현실적으로 보이게 만드는 칩으로 시작된 것이 곧 신경망을 구동하는 제2의 생명을 찾았습니다.

2010년대 초, 연구자들은 GPU에서 딥러닝 알고리즘을 실행하는 실험을 시작했고 그 결과는 놀라웠습니다. 훈련 시간이 몇 주에서 며칠로 단축되었고 정확도가 향상되었습니다.

이는 전 세계 연구실에서 일어나고 있는 조용한 혁명이었습니다.

초기 AI 연구에서 게이밍 PC의 역할

여기서 이야기가 더욱 흥미로워집니다. AI의 초기 혁신 중 다수는 대규모 데이터 센터나 값비싼 슈퍼컴퓨터에서 나온 것이 아닙니다. 소비자급 GPU를 사용하고 종종 일반 게임용 PC에 앉아 있는 연구원들로부터 나온 것입니다.

엔터테인먼트용으로 제작된 이 기계는 딥 러닝 실험에 충분히 강력한 것으로 나타났습니다.

NVIDIA의 CUDA 플랫폼은 개발자가 그래픽 이상의 작업을 위해 GPU를 프로그래밍할 수 있도록 함으로써 이를 가능하게 했습니다. 갑자기 게임용 GPU가 복잡한 과학적 계산을 처리할 수 있게 되었습니다.

연구자들은 음성, 이미지, 텍스트를 인식하는 신경망을 훈련하기 위해 자체 장비, 때로는 밤에 게임을 하는 동일한 컴퓨터를 사용했습니다. 게이밍 PC는 인공지능의 미래를 위한 테스트베드가 되었습니다.

전환점:AlexNet과 딥 러닝 붐

2012년에는 AlexNet이라는 신경망이 컴퓨터 비전의 주요 벤치마크인 ImageNet 대회에서 우승하여 전 세계를 놀라게 했습니다.

AlexNet을 특별하게 만든 것은 아키텍처뿐만 아니라 그 뒤에 있는 하드웨어였습니다. 이 제품은 저렴한 게이밍 PC용으로 구입할 수 있는 하드웨어인 NVIDIA GTX 580 GPU 2개에서 실행되었습니다. 그 승리가 전환점이 됐다. GPU는 그래픽 렌더링에만 사용되는 것이 아니라 AI 발전의 핵심이라는 것이 입증되었습니다.

이후 AI 세계는 빠르게 변화했다. 모든 주요 연구실과 기술 회사는 GPU 클러스터 구축을 시작했습니다. 기회를 감지한 NVIDIA는 AI 하드웨어 개발에 의지했습니다.

한때 주로 게이머에게 서비스를 제공했던 동일한 회사가 이제는 Google, OpenAI 및 Tesla를 지원하고 있습니다. 더 나은 시각적 자료를 위한 도구로 시작된 것이 기계 지능의 중추가 되었습니다.

GPU가 AI에 뛰어난 이유

GPU는 신경망이 의존하는 계산 종류인 행렬 수학에 탁월합니다.

픽셀에서 예측까지:GPU가 최신 AI를 지원하는 방법

모델을 훈련할 때 숫자 행렬을 지속적으로 곱하고 추가하게 됩니다. GPU는 수천 개의 작업을 병렬로 처리하기 때문에 이 작업을 더 빠르게 수행합니다. 또한 높은 메모리 대역폭으로 설계되어 대량의 데이터를 빠르게 안팎으로 이동할 수 있습니다.

이 아키텍처는 딥 러닝 워크로드에 완벽하게 적합합니다. 이미지 인식이든 언어 번역이든 GPU는 대량의 데이터를 한 번에 처리할 수 있습니다.

대조적으로 CPU는 순차 처리로 인해 병목 현상이 발생합니다. 성과의 차이는 집을 짓는 한 명의 장인과 동시에 일하는 수천 명의 팀을 비교하는 것과 같습니다.

AI 하드웨어 경쟁

AI가 등장하면서 GPU에 대한 수요가 폭발적으로 증가했습니다. 게임용 PC에서 시작된 것이 수천 개의 카드로 가득 찬 대규모 데이터 센터로 확장되었습니다.

NVIDIA와 같은 회사는 Tesla 및 A100 시리즈와 같이 AI를 위해 특별히 새로운 GPU 라인을 개발했습니다. ROCm 플랫폼을 갖춘 AMD, 맞춤형 TPU(Tensor Process Units)를 갖춘 Google 등 다른 업체들도 경쟁에 동참했습니다.

그러나 오늘날에도 게임과 AI 하드웨어 사이의 경계는 여전히 모호합니다. 게이머를 위해 설계된 동일한 RTX GPU는 여전히 많은 AI 연구자와 소규모 스타트업에서 사용되고 있습니다.

최신 GPU가 장착된 강력한 게이밍 PC는 로컬 AI 모델을 실행하고, 이미지를 생성하거나, 작은 언어 모델을 미세 조정할 수도 있습니다. 가상 세계를 생생하게 구현한 하드웨어가 이제 현실 세계에 지능을 더해줍니다.

GPU와 AI의 미래

AI 모델이 커지면서 새로운 과제가 등장하고 있습니다. GPU는 1000조 매개변수 모델을 처리하도록 진화하고 있지만 에너지 사용 및 효율성 측면에서도 더욱 스마트해지고 있습니다.

칩렛 설계, 광학 상호 연결 및 AI 전용 코어와 같은 기술은 비용을 낮추면서 성능을 더욱 향상시키고 있습니다.

그 사이 로컬 AI가 다시 부활하고 있다. GPU 효율성이 향상되면서 많은 사용자가 자신의 컴퓨터에서 모델을 실행하는 실험을 하고 있습니다.

이제 한때 클라우드 GPU 클러스터에 액세스해야 했던 작업을 잘 갖춰진 게이밍 PC로 수행할 수 있습니다. 이러한 변화는 AI 개발을 민주화하여 적절한 하드웨어를 갖춘 사람이라면 누구나 집에서 현장을 탐색할 수 있도록 할 수 있습니다.

결론

게임에서 AI로의 GPU의 여정은 기술 역사상 가장 예상치 못한 변화 중 하나입니다. 가상 풍경을 렌더링하는 칩으로 시작된 것이 인공지능의 핵심으로 진화했습니다. 게임용 PC에 대한 초기 실험부터 오늘날의 가장 큰 모델을 지원하는 데이터 센터에 이르기까지 GPU는 창의성, 계산 및 인지의 세계를 연결해 왔습니다.

미래를 내다보면, 한때 게임을 더욱 현실감 있게 만들었던 바로 그 기술이 이제는 기계를 더욱 지능적으로 만들고 있다는 것이 분명해졌습니다. GPU 이야기는 혁신이 예상치 못한 곳에서 오는 경우가 많으며 때로는 AI의 미래가 게임 화면의 빛에서 시작된다는 사실을 일깨워줍니다.

이 기사가 즐거웠기를 바랍니다. 나를 찾아보세요 링크드인 또는 내 웹사이트 방문 .

무료로 코딩을 배우세요. freeCodeCamp의 오픈 소스 커리큘럼은 40,000명 이상의 사람들이 개발자로 취업하는 데 도움을 주었습니다. 시작하세요