- 세상의 모든 계산기 자유(질문) 게시판 일반 ()
구글 Cloud TPU v3
1. TPU v3
3세대 프로세서(processor)는 2세대(v2)에 비해 2배 빨라짐.
pod 당 칩 개수는 4배 증가. pod 단위로 비교하면 8배(=2*4) 빨라짐.
https://en.wikipedia.org/wiki/Tensor_processing_unit


ㄴ 1년마다 버전 업?
2. Pod ? Board(X)

Board는 TPU 프로세서가 박힌 기판(1. 사진참고)
Shelf 는 사진상 하나의 층이라고 보면 될 듯
Rack 은 Shelves 의 묶음 (프레임, 전원, 쿨러 등 포함)

ㄴ V3(우)는 수냉식 채용(아래 저것은 물통인가? 펌프인가?)

Pod는 Rack 의 묶음

ㄴ 상단(v2 pod=4 Racks) 하단(Cloud TPUv3 pod=8 Racks)
이상 사진 출처 : https://www.nextplatform.com/2018/05/10/tearing-apart-googles-tpu-3-0-ai-coprocessor/
3. 가격은?
| 기본 | 선점형 | |
| 단일 TPU v2 | 4.5$/(1TPU*시간) | 1.35$/(1TPU*시간) |
| 단일 TPU v3(베타) | 8$/(1TPU*시간) | 2.4$/(1TPU*시간) |
| TPU v2*32 | 24$/(슬라이스*시간) | |
| TPU v2*512 | 384$/(슬라이스*시간) |
* 출처 : https://cloud.google.com/tpu/docs/pricing?hl=ko
* 선점형 : 문구는 더 강력할 것 같지만 반대인 건가? Cloud TPU가 다른 작업을 위해 리소스에 액세스할 경우 언제든지 종료(선점)할 수 있는 TPU. (할당량은 선점형이 더 많긴 한데...)
* VM instance 가격은 별도임.
* 1초 단위로 청구
댓글2
-
세상의모든계산기
Edge TPU
구글은 TPU 를 클라우드 뿐 아니라, 개별 단말에서도 사용할 수 있도록 유닛화하여 판매할 계획인 듯.
명칭은 엣지 TPU.
https://cloud.google.com/edge-tpu/
단말이라고 하지만 PC를 위한 것은 아닌 것 같고 IoT 기기를 위한 것으로 보임.
데이터 학습등은 cloud에서 하고, 실시간 적용은 말단에서?Edge(Devices/nodes, Gateways, Servers)Google Cloud Tasks ML inference ML training and inference Software, services Cloud IoT Edge, Linux OS Cloud ML Engine, Kubernetes Engine, Compute Engine, Cloud IoT CoreML frameworks TensorFlow Lite, NN API TensorFlow, scikit-learn,XGBoost, KerasHardware accelerators Edge TPU, GPU, CPU Cloud TPU, GPU, and CPU Edge TPU features
This ASIC is the first step in a roadmap that will leverage Google's AI expertise to follow and reflect in hardware the rapid evolution of AI.
Type Inference Accelerator Performance Example Edge TPU enables users to concurrently execute multiple state-of-the-art AI models per frame, on a high-resolution video, at 30 frames per second, in a power-efficient manner. Numerics Int8, Int16 IO Interface PCIe, USB

세상의모든계산기 님의 최근 댓글
HP-39gII 에 ExistOS 설치하기 https://allcalc.org/38526 2025 11.07 1. 왜 검은색이 아닌 다른 색으로 보일까? (제공된 LUT 필터) 제가 제공해 드린 magenta_lens.cube LUT 필터는 540~560nm(녹색-노란색) 파장대의 색상을 '완전히 제거(검은색으로 만듦)'하는 대신, '다른 색상으로 왜곡/변환'하도록 설계되었습니다. * 원리: LUT(Look-Up Table)는 특정 입력 색상(Input RGB)을 미리 정해진 다른 출력 색상(Output RGB)으로 매핑하는 테이블입니다. 이 LUT는 540~560nm에 해당하는 RGB 값들이 들어오면, 검은색(0, 0, 0)이 아닌, 매우 어둡거나 채도가 낮은 특정 색(예: 어두운 올리브색, 갈색 등)으로 변환하라고 지시합니다. * 의도: * 현실적인 물리 필터 시뮬레이션: 실제 고가의 색약 보정 안경도 특정 파장을 100% 완벽하게 차단하지는 못합니다. 빛의 일부를 흡수하고 일부는 통과시키거나 변환하는데, 이 LUT는 그러한 현실 세계의 필터 효과를 더 비슷하게 흉내 냈을 수 있습니다. * 시각적 정보 유지: 특정 색을 완전히 검게 만들면 그 부분의 형태나 질감 정보가 완전히 사라집니다. 하지만 다른 어두운 색으로 대체하면, 색상 정보는 왜곡되더라도 밝기나 형태 정보는 어느 정도 유지되어 전체적인 이미지가 덜 어색하게 보일 수 있습니다. 결론적으로, 스펙트럼 그림에서 해당 대역의 색이 갑자기 '다른 색으로 툭 바뀌는' 현상은, LUT 필터가 "이 파장대의 색은 앞으로 이 색으로 표시해!"라고 강제적으로 지시한 결과이며, 이것이 바로 이 필터가 작동하는 방식 그 자체입니다. 2. 왜 'Color Vision Helper' 앱은 검은색으로 보일까? 비교하신 'Color Vision Helper' 앱은 노치 필터의 원리를 더 이상적(Ideal)이고 교과서적으로 구현했을 가능성이 높습니다. * 원리: "L-콘과 M-콘의 신호가 겹치는 540~560nm 파장의 빛은 '완전히 차단'되어야 한다"는 개념에 매우 충실한 방식입니다. * 구현: 따라서 해당 파장에 해당하는 색상 정보가 들어오면, 어떠한 타협도 없이 그냥 '검은색(RGB 0, 0, 0)'으로 처리해 버립니다. 이는 "이 파장의 빛은 존재하지 않는 것으로 처리하겠다"는 가장 강력하고 직접적인 표현입니다. 2025 11.06 적용사례 4 - 파장 스펙트럼 https://news.samsungdisplay.com/26683 ㄴ (좌) 연속되는 그라데이션 ➡️ (우) 540 이하 | 구분되는 층(색) | 560 이상 - 겹치는 부분, 즉 540~560 nm 에서 색상이 차단? 변형? 된 것을 확인할 수 있음. 그럼 폰에서 Color Vision Helper 앱으로 보면? ㄴ 540~560 nm 대역이 검은 띠로 표시됨. 완전 차단됨을 의미 2025 11.05 빨간 셀로판지로도 이시하라 테스트 같은 숫자 구분에서는 유사한 효과를 낼 수 있다고 합니다. 색상이 다양하다면 빨강이나, 노랑, 주황 등도 테스트해보면 재밌겠네요. 2025 11.05 안드로이드 앱 - "Color Vision Helper" 다운받아 본문 내용을 카메라로 찍어 보니, 본문 프로그램에서는 애매하게 보이던 부분에서도 구분이 완전 확실하게 되네요. 숫자 구분 능력 & 편의성 면에서 압도적이라고 할 수 있겠습니다. 2025 11.05