본문 바로가기

카테고리 없음

CPU, GPU, TPU란 무엇인가?

1-1. CPU

  CPU ‘Central Processing Unit’의 약자, 중앙처리장치

컴퓨터의 정중앙에서 모든 데이터를 처리하는 장치라는 뜻임. 컴퓨터의 두뇌에 해당하는 것으로서, 사용자로부터 입력 받은 명령어를 해석, 연산한 후 그 결과를 출력하는 역할을 함. 그리고 이렇게 하나의 부품에 연산 장치, 해독 장치, 제어 장치 등이 집적되어 있는 형태를 일컬어 마이크로프로세서라고 함.

  연산 및 논리 연산을 수행하는 ALU(산술 논리 단위)의 세 가지 일반적인 구성 요소임. 메모리에서 명령을 추출하고 디코딩하여 실행하여 필요한 경우 ALU를 호출하는 제어 장치(CU).

  또한, 대부분의 고급 마이크로프로세서에서 논리 주소를 실제 RAM 주소로 변환하는 데 사용할 수 있는 메모리 관리 장치임.

1-2. GPU

  그래픽 처리 장치는 CPU와 함께 2D 3D 그래픽을 렌더링하도록 설계된 특수 전자 회로임. GPU는 또한 감머의 문화에서 그래픽 카드로 알고있음.

  이제 GPU는 재무 모델링, 최첨단 과학 연구, 딥 러닝, 분석, 석유 및 가스 탐사 등과 같은 영역에서 컴퓨팅 워크로드를 가속화하기 위해 보다 광범위하게 활용되고 있음.

1-3. TPU

  텐서 프로세싱 유닛 약어 TPU는 기계 학습을 위해 특별히 개발되었으며 Google의 오픈 소스 머신 러닝 프레임워크인 TensorFlow에 맞게 제작된 맞춤형 집적 회로임.

  신경망 추론을 활용하는 프로덕션 AI 워크로드에서 TPU는 최신 GPU CPU보다 15~30배 빠름. 또한 TPU는 훨씬 더 에너지 효율이 높으며 테라 운영/와트 측정에서 30배에서 80배까지 개선됨.

  2016년 이세돌 9단과 붙었던 알파고 리와 후속작인 알파고 제로등에 모두 장착됨. 특히 알파고 리에는 TPU48개가 부착됐으나 알파고 제로에는 엔진 최적화를 통해 4개만 장착됨. 아울러 알파고에 장착된 TPU 칩은 바둑 수를 계산하거나 번역, 검색, 이미지 인식 등에 사용되었고, 인공지능 음성비서인 구글 어시스턴트와 구글 번역기, 구글 지도 등에도 활용됨.

  구글은 201651세대 TPU를 공개했으며, 2017년에는 더 업그레이드된 2세대 TPU를 개발함. 1세대 TPU가 추론하거나 사전에 학습된 머신러닝을 활용하는 데 유용했던 데 비해 2017년 출시된 2세대 TPU는 머신러닝 모델의 학습과 실행이 모두 가능한 것이 특징임.

 

2-1. CPU

  ALU가 한 개임. 이것만으로 모든 프로그램을 실행시킬 수 있음

 

2-2. GPU

  ALU가 약 2500개임.

일반적으로 병렬처리가 가능하지만, ALU간의 정보교환을 위해서는 추가 연산(메모리접근)이 필요함.

 

2-3. TPU

  ALU가 약 3만개임. 더해서 행렬연산을 쉽게 하기 위해 ALU 위치별 용도를 미리 설계해 놓음(딥러닝에 유리)

 

 

* ALU? 연산논리단위, 하나의 연산을 처리해주는 장치.

 

 

<참고문헌>

 

https://terms.naver.com/entry.nhn?docId=3570778&cid=59088&categoryId=59096

 

https://terms.naver.com/entry.nhn?docId=3572268&cid=59088&categoryId=59096

 

https://terms.naver.com/entry.nhn?docId=5138953&cid=43667&categoryId=43667

 

https://blog.naver.com/kyh941031/221350809594

 

https://blog.naver.com/medosam/221874417860