close
본문으로 이동

텐서 처리 장치

위키백과, 우리 모두의 백과사전.
Image 이 문서는 중앙 처리 장치에 관한 것입니다. 구글이 개발한 프로세서에 대해서는 구글 텐서 문서를 참고하십시오.
텐서 처리 장치
Tensor Processing Unit
Image
텐서 처리 장치 3.0
설계 기업 및 설계자구글
발표2015[1]
버전7
유형신경망
기계 학습

텐서 처리 장치(Tensor Processing Unit, TPU)는 구글신경망 기계 학습을 위해 개발한 신경망 처리 장치(NPU) ASIC이다.[2] 텐서플로, Jax, 파이토치는 TPU에 의해 지원되는 프레임워크이다.[3] 구글은 2015년에 내부적으로 TPU를 사용하기 시작했고, 2018년에는 클라우드 인프라의 일부로 서드파티 사용을 가능하게 했으며, 더 작은 버전의 칩을 판매하기도 했다.

CPU 및 GPU와의 비교

[편집]

그래픽 처리 장치와 비교할 때, TPU는 래스터화/텍스처 매핑을 위한 하드웨어 없이 높은 처리량의 낮은 정밀도 계산(예: 최소 8비트 정밀도)을 당 더 많은 입출력 작업으로 수행하도록 설계되었다.[4][5] 노먼 주피에 따르면, TPU ASIC는 데이터 센터 19인치 랙 내의 하드 드라이브 슬롯에 장착할 수 있는 방열판 어셈블리에 설치된다.[6]

다양한 유형의 프로세서는 다양한 유형의 기계 학습 모델에 적합하다. TPU는 CNN에 적합하지만, GPU는 일부 완전 연결 신경망에 이점이 있으며, CPU는 RNN에 이점이 있을 수 있다.[7]

역사

[편집]

원래 TPU 엔지니어 중 한 명이자 나중에 Groq의 창립자가 된 조나단 로스(Jonathan Ross)에 따르면,[1] 구글에는 세 개의 독립적인 그룹이 AI 가속기를 개발하고 있었으며, 시스템 온 칩인 TPU가 궁극적으로 선택된 디자인이었다.[8]

텐서 처리 장치는 2016년 5월 구글 I/O 콘퍼런스에서 발표되었는데, 당시 구글은 TPU가 자사 데이터 센터에서 1년 넘게 사용되었다고 밝혔다.[6][5] TPU 개발을 설명하는 구글의 2017년 논문은 1990년대에 비슷한 아키텍처로 구축된 이전의 시스템 온 칩 행렬 곱셈기를 인용한다.[9] 이 칩은 특히 신경망과 같은 기계 학습 애플리케이션에 사용되는 기호 수학 라이브러리인 구글의 텐서플로 프레임워크를 위해 설계되었다.[10] 그러나 2017년 현재 구글은 다른 유형의 기계 학습을 위해 여전히 CPUGPU를 사용했다.[6] 다른 AI 가속기 디자인들도 다른 공급업체에서 출시되고 있으며, 임베디드로봇공학 시장을 목표로 하고 있다.

구글의 TPU는 독점적이다. 일부 모델은 상업적으로 이용 가능하며, 2018년 2월 12일 뉴욕 타임스는 구글이 "다른 회사들이 자사의 클라우드 컴퓨팅 서비스를 통해 이 칩에 대한 접근 권한을 구매할 수 있도록 허용할 것"이라고 보도했다.[11] 구글은 TPU가 알파고 대 이세돌의 인간 대 기계 바둑 대국 시리즈와 체스, 쇼기, 바둑을 규칙만으로 학습하여 해당 게임의 선두 프로그램을 이긴 알파제로 시스템에 사용되었다고 밝혔다.[5][12] 구글은 또한 구글 스트리트 뷰 텍스트 처리를 위해 TPU를 사용하여 5일 이내에 스트리트 뷰 데이터베이스의 모든 텍스트를 찾을 수 있었다. 구글 포토에서는 개별 TPU가 하루에 1억 장 이상의 사진을 처리할 수 있다.[6] 구글이 검색 결과를 제공하는 데 사용하는 랭크브레인에도 사용된다.[13]

구글은 구글 클라우드 플랫폼의 일부인 클라우드 TPU 서비스를 통해 외부 개발자에게 TPU에 대한 접근을 제공하며,[14] 노트북 기반 서비스인 캐글구글 코랩을 통해서도 제공한다.[15][16]

브로드컴은 TPU의 공동 개발자로, 구글의 아키텍처와 사양을 제조 가능한 실리콘으로 전환한다. 브로드컴은 SerDes 고속 인터페이스와 같은 독점 기술을 제공하고, ASIC 설계를 감독하며, 대만 반도체 제조 회사(TSMC)와 같은 외부 파운드리를 통해 칩 제조 및 패키징을 관리하며, 프로그램 시작 이후 모든 세대를 담당해 왔다.[17][18][19]

2025년 9월, 구글은 Crusoe 및 CoreWeave를 포함한 여러 "네오클라우드"와 데이터센터에 TPU를 배포하는 것에 대해 논의 중이다.[20][21] 2025년 11월, 메타는 구글과 자사 데이터센터에 TPU를 배포하는 것에 대해 논의 중이다.

제품

[편집]
텐서 처리 장치(TPU) 세대[22][23][24]
v1v2v3v4[23][25][26]v5e[27]v5p[28][29]v6e (트릴륨)[30][31]v7 (아이언우드)[32]
출시일20152017201820212023202320242025
공정 노드28 nm16 nm16 nm7 nm미표기미표기미표기미표기
다이 크기 (mm2)331< 625< 700< 400300–350미표기미표기미표기
온칩 메모리 (MiB)283232 (VMEM) + 5 (spMEM)128 (CMEM) + 32 (VMEM) + 10 (spMEM)미표기미표기미표기미표기
클럭 속도 (MHz)7007009401050미표기1750미표기미표기
메모리8 GiB DDR3 SDRAM16 GiB HBM32 GiB HBM32 GiB HBM16 GB HBM95 GB HBM32 GB192 GB HBM
메모리 대역폭34 GB/s600 GB/s900 GB/s1200 GB/s819 GB/s2765 GB/s1640 GB/s7.37 TB/s
열 설계 전력 (W)75280220170미표기미표기미표기미표기
연산 성능 (초당 테라 연산)2345123275197 (bf16)

393 (int8)

459 (bf16)

918 (int8)

918 (bf16)

1836 (int8)

4614 (fp8)
에너지 효율 (teraOPS/W)0.310.160.561.62미표기미표기미표기4.7

1세대 TPU

[편집]

1세대 TPU는 PCIe 3.0 버스를 통해 호스트 프로세서에 의해 CISC 명령으로 구동되는 8비트 행렬 곱셈 엔진이다. 28 nm 공정으로 제조되며, 다이 크기는 331 mm2 이하다. 클럭 속도는 700 MHz이고 열 설계 전력은 28–40 W이다. 온칩 메모리는 28 MiB를 가지며, 256×256 시스템 온 칩 8비트 곱셈기 배열의 결과를 받는 4 MiB 32비트 누산기를 가진다.[9] TPU 패키지 내에는 34 GB/s의 대역폭을 제공하는 8 GiB듀얼 채널 2133 MHz DDR3 SDRAM이 있다.[24] 명령은 호스트에서 데이터를 전송하거나 호스트로 데이터를 전송하고, 행렬 곱셈 또는 합성곱을 수행하며, 활성화 함수를 적용한다.[9]

2세대 TPU

[편집]

2세대 TPU는 2017년 5월에 발표되었다.[33] 구글은 1세대 TPU 디자인이 메모리 대역폭에 의해 제한되었으며, 2세대 디자인에 16 GB고대역 메모리를 사용하여 대역폭을 600 GB/s로, 성능을 45 테라FLOPS로 향상시켰다고 밝혔다.[24] TPU는 4칩 모듈로 배열되어 180 테라FLOPS의 성능을 제공한다.[33] 이후 이 모듈 64개가 256칩 포드로 조립되어 11.5 페타FLOPS의 성능을 제공한다.[33] 특히, 1세대 TPU는 정수로 제한되었던 반면, 2세대 TPU는 부동소수점으로도 계산할 수 있으며, 구글 브레인이 발명한 bfloat16 형식을 도입했다. 이로 인해 2세대 TPU는 기계 학습 모델의 훈련과 추론 모두에 유용하다. 구글은 이 2세대 TPU가 구글 컴퓨트 엔진에서 텐서플로 애플리케이션에 사용될 수 있도록 제공될 것이라고 밝혔다.[34]

3세대 TPU

[편집]

3세대 TPU는 2018년 5월 8일에 발표되었다.[35] 구글은 프로세서 자체가 2세대 TPU보다 두 배 강력하며, 이전 세대보다 4배 많은 칩을 포함한 포드로 배포될 것이라고 발표했다.[36][37] 이로 인해 2세대 TPU 배포와 비교하여 포드당 성능이 8배 증가한다(포드당 최대 1,024개의 칩).

Image
TPU v4 패키지(중앙의 ASIC와 4개의 HBM 스택) 및 액체 냉각 패키지 4개가 있는 인쇄 회로 기판(PCB). 보드 전면 패널에는 4개의 상단 PCIe 커넥터가 있다(2023년).

4세대 TPU

[편집]

2021년 5월 18일, 구글 CEO 선다 피차이는 구글 I/O 가상 컨퍼런스 기조연설에서 TPU v4 텐서 처리 장치에 대해 언급했다. TPU v4는 TPU v3 칩보다 성능이 2배 이상 향상되었다. 피차이는 "단일 v4 포드에는 4,096개의 v4 칩이 포함되어 있으며, 각 포드는 다른 네트워킹 기술에 비해 칩당 10배의 상호 연결 대역폭을 갖추고 있다"고 말했다.[38] 2023년 4월 구글의 논문에서는 TPU v4가 기계 학습 벤치마크에서 엔비디아 A100보다 5–87% 더 빠르다고 주장한다.[39]

"추론" 버전인 v4i도 있으며,[40] 이는 액체 냉각을 필요로 하지 않는다.[41]

5세대 TPU

[편집]

2021년 구글은 심층 강화 학습의 새로운 응용을 통해 TPU v5의 물리적 레이아웃이 설계되고 있다고 밝혔다.[42] 구글은 TPU v5가 TPU v4보다 거의 두 배 빠르다고 주장하며,[43] 이를 바탕으로 TPU v4와 A100의 상대적 성능을 고려할 때, 일부 전문가들은 TPU v5가 H100만큼 빠르거나 더 빠를 것이라고 추측한다.[44]

v4i가 v4의 경량 버전인 것과 유사하게, 5세대에는 "비용 효율적인"[45] v5e 버전이 있다.[27] 2023년 12월, 구글은 엔비디아 H100과 경쟁할 것이라고 주장하는 TPU v5p를 발표했다.[46]

6세대 TPU

[편집]

2024년 5월, 구글 I/O 콘퍼런스에서 구글은 트릴륨(Trillium)을 발표했으며, 이는 2024년 10월에 미리 보기로 제공되었다.[47] 구글은 더 큰 행렬 곱셈 장치와 증가된 클럭 속도를 통해 TPU v5e에 비해 4.7배의 성능 향상을 주장했다.[48] 고대역 메모리(HBM) 용량과 대역폭도 두 배로 늘어났다. 한 포드에는 최대 256개의 트릴륨 장치가 포함될 수 있다.[49]

7세대 TPU

[편집]

2025년 4월 구글 클라우드 넥스트(Google Cloud Next) 컨퍼런스에서 구글은 TPU v7을 공개했다. 아이언우드(Ironwood)라는 이름의[50] 이 새로운 칩은 256칩 클러스터와 9,216칩 클러스터의 두 가지 구성으로 출시될 예정이다. 아이언우드는 4,614 TFLOP/s의 최대 계산 성능을 가질 것이다.[51]

Edge TPU

[편집]

2018년 7월, 구글은 Edge TPU를 발표했다. Edge TPU는 에지 컴퓨팅을 위한 기계 학습(ML) 모델을 실행하도록 설계된 구글의 전용 ASIC 칩으로, 구글 데이터센터에 호스팅된 TPU(클라우드 TPU라고도 함[52])에 비해 훨씬 작고 전력 소비가 훨씬 적다. 2019년 1월, 구글은 코랄 브랜드의 제품 라인을 통해 Edge TPU를 개발자들에게 제공했다. Edge TPU는 2W의 전력으로 초당 4조 회의 연산을 수행할 수 있다.[53]

제품 제공에는 단일 보드 컴퓨터(SBC), 시스템 온 모듈(SoM), USB 액세서리, 미니 PCI-e 카드 및 M.2 카드가 포함된다. SBC 코랄 데브 보드와 코랄 SoM은 모두 데비안 기반의 멘델 리눅스 OS를 실행한다.[54][55] USB, PCI-e 및 M.2 제품은 기존 컴퓨터 시스템의 추가 기능으로 작동하며, x86-64 및 ARM64 호스트(포함하여 라즈베리 파이)에서 데비안 기반 리눅스 시스템을 지원한다.

Edge TPU에서 모델을 실행하는 데 사용되는 기계 학습 런타임은 텐서플로 라이트를 기반으로 한다.[56] Edge TPU는 순방향 연산만 가속화할 수 있으므로 주로 추론을 수행하는 데 유용하다(Edge TPU에서 경량 전이 학습을 수행할 수 있지만[57]). Edge TPU는 8비트 수학만 지원하므로, 네트워크가 Edge TPU와 호환되려면 텐서플로 양자화 인식 학습 기술을 사용하여 학습시키거나, 2019년 말부터는 후처리 양자화를 사용할 수도 있다.

2019년 11월 12일, 에이수스는 Edge TPU를 탑재한 단일 보드 컴퓨터(SBC) 한 쌍을 발표했다. 아수스 팅커 엣지 T 및 팅커 엣지 R 보드IoT엣지 AI를 위해 설계되었다. 이 SBC들은 공식적으로 안드로이드데비안 운영체제를 지원한다.[58][59] ASUS는 또한 Edge TPU를 탑재한 아수스 PN60T라는 미니 PC를 시연했다.[60]

2020년 1월 2일, 구글은 같은 달 말 CES 2020에서 시연될 코랄 액셀러레이터 모듈과 코랄 데브 보드 미니를 발표했다. 코랄 액셀러레이터 모듈은 Edge TPU, PCIe 및 USB 인터페이스를 특징으로 하는 멀티칩 모듈로, 통합을 용이하게 한다. 코랄 데브 보드 미니는 코랄 액셀러레이터 모듈과 미디어텍 8167s SoC를 특징으로 하는 더 작은 단일 보드 컴퓨터(SBC)이다.[61][62]

픽셀 뉴럴 코어

[편집]

2019년 10월 15일, 구글은 Edge TPU의 일종인 픽셀 뉴럴 코어를 탑재한 픽셀 4 스마트폰을 발표했다. 구글은 이를 "픽셀 4의 주요 카메라 기능 요구 사항을 충족하도록 맞춤화되었다"고 설명했으며, 대기 시간과 전력 소비를 최소화하기 위해 정확도를 일부 희생하는 신경망 검색을 사용했다.[63]

구글 텐서

[편집]

구글은 픽셀 뉴럴 코어에 이어 Edge TPU를 맞춤형 시스템 온 칩구글 텐서에 통합하여 2021년 픽셀 6 스마트폰 라인과 함께 출시했다.[64] 구글 텐서 SoC는 기계 학습 중심 벤치마크에서 "경쟁사 대비 매우 큰 성능 우위"를 보였다. 순간 전력 소비량도 상대적으로 높았지만, 성능 향상으로 인해 최고 성능이 필요한 기간이 짧아져 에너지가 덜 소비되었다.[65]

소송

[편집]

2019년, MIT객원연구원 조셉 베이츠(Joseph Bates)가 2009년 설립한 Singular Computing은 TPU 칩의 특허 침해를 주장하며 구글을 상대로 소송을 제기했다.[66][67] 2020년까지 구글은 법원이 심리할 청구 건수를 두 가지로 줄이는 데 성공했다. 2012년에 출원된 US 8407273 의 청구항 53과 2013년에 출원된 US 9218156 의 청구항 7인데, 둘 다 부동소수점 숫자에 대해 10−6에서 106동적 범위를 주장한다. 이는 표준 float16으로는 불가능하다(비정규 수에 의존하지 않고서는) 왜냐하면 지수에 대해 5비트만 있기 때문이다. 2023년 법원 제출 서류에서 Singular Computing은 특히 구글의 bfloat16 사용을 지적했는데, 이는 float16의 동적 범위를 초과하기 때문이다.[68] Singular Computing은 비표준 부동소수점 형식이 2009년에는 자명하지 않았다고 주장하지만, 구글은 지수 비트 수를 구성할 수 있는 VFLOAT[69] 형식이 2002년에 선행 기술로 존재했다고 반박한다.[70] 2024년 1월까지 Singular Computing의 후속 소송으로 인해 소송 중인 특허 수가 8개로 늘어났다. 같은 달 말 재판이 끝날 무렵, 구글은 비공개 조건으로 합의에 동의했다.[71][72]

같이 보기

[편집]

각주

[편집]
  1. 1 2 Jouppi, Norman 외 (2017). In-Datacenter Performance Analysis of a Tensor Processing Unit. Proceedings of the 44th annual international symposium on computer architecture. ISCA. 토론토: ACM. 1–12쪽. arXiv:1704.04760. doi:10.1145/3079856.3080246.
  2. Cloud Tensor Processing Units (TPUs). Google Cloud. 2025년 12월 10일에 확인함.
  3. TPU software versions (영어). Google Cloud Documentation. 2025년 12월 10일에 확인함.
  4. Armasu, Lucian (2016년 5월 19일). Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated). Tom's Hardware. 2016년 6월 26일에 확인함.
  5. 1 2 3 Jouppi, Norm (2016년 5월 18일). Google supercharges machine learning tasks with TPU custom chip (미국 영어). Google Cloud Platform Blog. 2016년 5월 18일에 원본 문서에서 보존된 문서. 2017년 1월 22일에 확인함.
  6. 1 2 3 4 Google's Tensor Processing Unit explained: this is what the future of computing looks like (영어). 테크레이더. 2022년 2월 26일에 원본 문서에서 보존된 문서. 2017년 1월 19일에 확인함.
  7. Wang, Yu Emma; Wei, Gu-Yeon; Brooks, David (2019년 7월 1일). Benchmarking TPU, GPU, and CPU Platforms for Deep Learning. arXiv:1907.10701 [cs.LG].
  8. Ross, Jonathan. Jonathan Ross' Post. 링크드인.
  9. 1 2 3 Jouppi, Norman P.; Young, Cliff; Patil, Nishant; Patterson, David; Agrawal, Gaurav; Bajwa, Raminder; Bates, Sarah; Bhatia, Suresh; Boden, Nan; Borchers, Al; Boyle, Rick; Cantin, Pierre-luc; Chao, Clifford; Clark, Chris; Coriell, Jeremy; Daley, Mike; Dau, Matt; Dean, Jeffrey; Gelb, Ben; Ghaemmaghami, Tara Vazir; Gottipati, Rajendra; Gulland, William; Hagmann, Robert; Ho, C. Richard; Hogberg, Doug; Hu, John; Hundt, Robert; Hurt, Dan; Ibarz, Julian; Jaffey, Aaron; Jaworski, Alek; Kaplan, Alexander; Khaitan, Harshit; Koch, Andy; Kumar, Naveen; Lacy, Steve; Laudon, James; Law, James; Le, Diemthu; Leary, Chris; Liu, Zhuyuan; Lucke, Kyle; Lundin, Alan; MacKean, Gordon; Maggiore, Adriana; Mahony, Maire; Miller, Kieran; Nagarajan, Rahul; Narayanaswami, Ravi; Ni, Ray; Nix, Kathy; Norrie, Thomas; Omernick, Mark; Penukonda, Narayana; Phelps, Andy; Ross, Jonathan; Ross, Matt; Salek, Amir; Samadiani, Emad; Severn, Chris; Sizikov, Gregory; Snelham, Matthew; Souter, Jed; Steinberg, Dan; Swing, Andy; Tan, Mercedes; Thorson, Gregory; Tian, Bo; Toma, Horia; Tuttle, Erick; Vasudevan, Vijay; Walter, Richard; Wang, Walter; Wilcox, Eric; Yoon, Doe Hyun (2017년 6월 26일). In-Datacenter Performance Analysis of a Tensor Processing Unit™. Toronto, Canada. arXiv:1704.04760.
  10. "TensorFlow: Open source machine learning" 보관됨 2016-12-15 - 웨이백 머신 "It is machine learning software being used for various kinds of perceptual and language understanding tasks" — Jeffrey Dean, minute 0:47 / 2:17 from Youtube clip
  11. Metz, Cade (2018년 2월 12일). Google Makes Its Special A.I. Chips Available to Others (영어). The New York Times. 2022년 4월 8일에 원본 문서에서 보존된 문서. 2018년 2월 12일에 확인함.
  12. McGourty, Colin (2017년 12월 6일). DeepMind's AlphaZero crushes chess (영어). chess24.com. 2018년 12월 12일에 원본 문서에서 보존된 문서. 2017년 12월 12일에 확인함.
  13. Google's Tensor Processing Unit could advance Moore's Law 7 years into the future (영어). PCWorld. 2019년 2월 18일에 원본 문서에서 보존된 문서. 2017년 1월 19일에 확인함.
  14. Frequently Asked Questions | Cloud TPU (영어). Google Cloud. 2021년 1월 14일에 확인함.
  15. Google Colaboratory (영어). colab.research.google.com. 2021년 5월 15일에 확인함.
  16. Use TPUs | TensorFlow Core (영어). TensorFlow. 2021년 5월 15일에 확인함.
  17. Tarasov, Katie (2024년 8월 23일). How Google makes custom chips used to train Apple AI models and its own chatbot, Gemini (영어). CNBC. 2025년 9월 19일에 확인함.
  18. Gallagher, Dan (2023년 9월 25일). Broadcom's AI Business Won't Be Easy to Chip Away (미국 영어). The Wall Street Journal. 2025년 9월 19일에 확인함.
  19. Mann, Tobias (2023년 9월 23일). FYI: Those fancy 'Google-designed' TPU AI chips had an awful lot of Broadcom help. The Register.
  20. say, Georgia Butler Have your (2025년 9월 8일). Google offers its TPUs to AI cloud providers - report (영어). www.datacenterdynamics.com. 2025년 12월 10일에 확인함.
  21. Google Ramps Up AI Chip Competition with Nvidia (영어). The Information. 2025년 12월 10일에 확인함.
  22. Jouppi, Norman P.; Yoon, Doe Hyun; Ashcraft, Matthew; Gottscho, Mark (2021년 6월 14일). Ten lessons from three generations that shaped Google's TPUv4i (PDF). International Symposium on Computer Architecture. Valencia, Spain. doi:10.1109/ISCA52012.2021.00010. ISBN 978-1-4503-9086-6. 2021년 6월 9일에 원본 문서 (PDF)에서 보존된 문서. 2021년 6월 18일에 확인함.
  23. 1 2 System Architecture | Cloud TPU (영어). Google Cloud. 2022년 12월 11일에 원본 문서에서 보존된 문서. 2022년 12월 11일에 확인함.
  24. 1 2 3 Kennedy, Patrick (2017년 8월 22일). Case Study on the Google TPU and GDDR5 from Hot Chips 29. Serve The Home. 2021년 11월 23일에 원본 문서에서 보존된 문서. 2017년 8월 23일에 확인함.
  25. Stay tuned, more information on TPU v4 is coming soon 보관됨 2023-03-12 - 웨이백 머신, retrieved 2020-08-06.
  26. Jouppi, Norman P.; Kurian, George; Li, Sheng; Ma, Peter; Nagarajan, Rahul; Nai, Lifeng; Patil, Nishant; Subramanian, Suvinay; Swing, Andy; Towles, Brian; Young, Cliff; Zhou, Xiang; Zhou, Zongwei; Patterson, David (2023). TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings. arXiv:2304.01433 [cs.AR].
  27. 1 2 Cloud TPU v5e Inference Public Preview, retrieved 2023-11-06.
  28. Cloud TPU v5p 보관됨 2025-04-28 - 웨이백 머신 Google Cloud. retrieved 2024-04-09
  29. Cloud TPU v5p Training 보관됨 2025-02-11 - 웨이백 머신, retrieved 2024-04-09.
  30. Introducing Trillium, sixth-generation TPUs (미국 영어). Google Cloud Blog. 2024년 5월 29일에 확인함.
  31. TPU v6e (영어). Google Cloud. 2025년 5월 10일에 원본 문서에서 보존된 문서. 2024년 11월 10일에 확인함.
  32. Ironwood: The first Google TPU for the age of inference (영어). Google Blog. 2025년 4월 9일. 2025년 5월 3일에 원본 문서에서 보존된 문서. 2025년 4월 9일에 확인함.
  33. 1 2 3 Bright, Peter (2017년 5월 17일). Google brings 45 teraflops tensor flow processors to its compute cloud. Ars Technica. 2022년 3월 6일에 원본 문서에서 보존된 문서. 2017년 5월 30일에 확인함.
  34. Kennedy, Patrick (2017년 5월 17일). Google Cloud TPU Details Revealed. Serve The Home. 2022년 6월 12일에 원본 문서에서 보존된 문서. 2017년 5월 30일에 확인함.
  35. Frumusanu, Andre (2018년 5월 8일). Google I/O Opening Keynote Live-Blog. 2018년 5월 8일에 원본 문서에서 보존된 문서. 2018년 5월 9일에 확인함.
  36. Feldman, Michael (2018년 5월 11일). Google Offers Glimpse of Third-Generation TPU Processor. Top 500. 2021년 11월 18일에 원본 문서에서 보존된 문서. 2018년 5월 14일에 확인함.
  37. Teich, Paul (2018년 5월 10일). Tearing Apart Google's TPU 3.0 AI Coprocessor. The Next Platform. 2022년 5월 15일에 원본 문서에서 보존된 문서. 2018년 5월 14일에 확인함.
  38. Google Launches TPU v4 AI Chips. www.hpcwire.com. 2021년 5월 20일. 2021년 6월 7일에 원본 문서에서 보존된 문서. 2021년 6월 7일에 확인함.
  39. Jouppi, Norman (2023년 4월 20일). TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings. arXiv:2304.01433 [cs.AR].
  40. Kennedy, Patrick (2023년 8월 29일). Google Details TPUv4 and its Crazy Optically Reconfigurable AI Network. servethehome.com. 2023년 12월 16일에 확인함.
  41. Why did Google develop its own TPU chip? In-depth disclosure of team members. censtry.com. 2021년 10월 20일. 2023년 12월 16일에 확인함.
  42. Mirhoseini, Azalia; Goldie, Anna (2021년 6월 1일). A graph placement methodology for fast chip design (PDF). 네이처 594. 207–212쪽. doi:10.1038/s41586-022-04657-6. PMID 35361999. S2CID 247855593. 2024년 8월 6일에 원본 문서 (PDF)에서 보존된 문서. 2023년 6월 4일에 확인함.
  43. Vahdat, Amin (2023년 12월 6일). Enabling next-generation AI workloads: Announcing TPU v5p and AI Hypercomputer. 2024년 4월 7일에 원본 문서에서 보존된 문서. 2024년 4월 8일에 확인함.
  44. Afifi-Sabet, Keumars (2023년 12월 23일). Google is rapidly turning into a formidable opponent to BFF Nvidia — the TPU v5p AI chip powering its hypercomputer is faster and has more memory and bandwidth than ever before, beating even the mighty H100. 테크레이더. 2025년 2월 11일에 원본 문서에서 보존된 문서. 2024년 4월 8일에 확인함.
  45. Expanding our AI-optimized infrastructure portfolio: Introducing Cloud TPU v5e and announcing A3 GA. 2023년 8월 29일. 2023년 9월 20일에 원본 문서에서 보존된 문서. 2023년 12월 16일에 확인함.
  46. Enabling next-generation AI workloads: Announcing TPU v5p and AI Hypercomputer. 2023년 12월 6일. 2024년 4월 9일에 확인함.
  47. Lohmeyer, Mark (2024년 10월 30일). Powerful infrastructure innovations for your AI-first future.
  48. Velasco, Alan (2024년 5월 15일). Google Cloud Unveils Trillium, Its 6th-Gen TPU With A 4.7X AI Performance Leap. HotHardware. HotHardware. 2024년 5월 15일에 확인함.
  49. Introducing Trillium, sixth-generation TPUs (미국 영어). Google Cloud Blog. 2024년 5월 17일에 확인함.
  50. The Silicon Valley 'AI factory' at the heart of the tech race. www.bbc.com. 2025년 11월 19일.
  51. Wiggers, Kyle (2025년 4월 9일). Ironwood is Google's newest AI accelerator chip (미국 영어). TechCrunch. 2025년 4월 10일에 확인함.
  52. Cloud TPU (영어). Google Cloud. 2025년 5월 6일에 원본 문서에서 보존된 문서. 2021년 5월 21일에 확인함.
  53. Edge TPU performance benchmarks (미국 영어). Coral. 2020년 1월 4일에 확인함.
  54. Dev Board (미국 영어). Coral. 2021년 5월 21일에 확인함.
  55. System-on-Module (SoM) (미국 영어). Coral. 2021년 5월 21일에 확인함.
  56. Bringing intelligence to the edge with Cloud IoT (미국 영어). Google Blog. 2018년 7월 25일. 2018년 7월 25일에 확인함.
  57. Retrain an image classification model on-device. Coral. 2019년 5월 3일에 확인함.
  58. 組込み総合技術展&IoT総合技術展「ET & IoT Technology 2019」に出展することを発表 (일본어). Asus.com. 2019년 11월 13일에 확인함.
  59. Shilov, Anton. ASUS & Google Team Up for 'Tinker Board' AI-Focused Credit-Card Sized Computers. Anandtech.com. 2019년 11월 13일에 원본 문서에서 보존된 문서. 2019년 11월 13일에 확인함.
  60. Aufranc, Jean-Luc (2019년 5월 29일). ASUS Tinker Edge T & CR1S-CM-A SBC to Feature Google Coral Edge TPU & NXP i.MX 8M Processor (미국 영어). CNX Software – Embedded Systems News. 2019년 11월 14일에 확인함.
  61. New Coral products for 2020 (영어). Google Developers Blog. 2020년 1월 4일에 확인함.
  62. Accelerator Module (미국 영어). Coral. 2020년 1월 4일에 확인함.
  63. Introducing the Next Generation of On-Device Vision Models: MobileNetV3 and MobileNetEdgeTPU (영어). Google AI Blog. 2020년 4월 16일에 확인함.
  64. Gupta, Suyog; White, Marie (2021년 11월 8일). Improved On-Device ML on Pixel 6, with Neural Architecture Search. Google AI Blog. 2022년 12월 16일에 확인함.
  65. Frumusanu, Andrei (2021년 11월 2일). Google's Tensor inside of Pixel 6, Pixel 6 Pro: A Look into Performance & Efficiency | Google's IP: Tensor TPU/NPU. AnandTech. 2021년 11월 3일에 원본 문서에서 보존된 문서. 2022년 12월 16일에 확인함.
  66. Hardesty, Larry (2011년 1월 3일). The surprising usefulness of sloppy arithmetic. MIT. 2024년 1월 10일에 확인함.
  67. Bray, Hiawatha (2024년 1월 10일). Local inventor challenges Google in billion-dollar patent fight. 보스턴 글러브 (보스턴). 2024년 1월 10일에 원본 문서에서 보존된 문서. 2024년 1월 10일에 확인함.
  68. SINGULAR COMPUTING LLC, Plaintiff, v. GOOGLE LLC, Defendant: Amended Complaint for Patent Infringement (PDF). rpxcorp.com. RPX Corporation. 2020년 3월 20일. 2024년 1월 10일에 확인함.
  69. Wang, Xiaojun; Leeser, Miriam (2010년 9월 1일). VFloat: A Variable Precision Fixed- and Floating-Point Library for Reconfigurable Hardware. ACM Transactions on Reconfigurable Technology and Systems 3. 1–34쪽. doi:10.1145/1839480.1839486. 2024년 1월 10일에 확인함.
  70. Singular Computing LLC v. Google LLC. casetext.com. 2023년 4월 6일. 2023년 9월 26일에 원본 문서에서 보존된 문서. 2024년 1월 10일에 확인함.
  71. Calkins, Laurel Brubaker (2024년 1월 24일). Google Settles AI-Chip Suit That Had Sought Over $5 Billion. 블룸버그 법.
  72. Brittain, Blake; Raymond, Ray (2024년 1월 24일). Google settles AI-related chip patent lawsuit that sought $1.67 bln. 로이터.

외부 링크

[편집]