CUDA コア の製品写真
© NVIDIA 出典:nvidia.com 著作権法 32 条に基づく引用
🟢 GPU 系

CUDA コア

NVIDIA GPU内の汎用並列演算ユニット。

別名・略称: CUDA Core クーダコア シェーダーコア(NVIDIA)

🧾 概要

NVIDIA GPU内の汎用並列演算ユニット。

何ができるか

  • 3Dグラフィックスのシェーダー処理を担う
  • 機械学習・科学計算を高速並列処理する
  • 物理シミュレーション・流体計算を行う
  • 動画編集のエフェクト処理を加速する

特徴

  • 数千個単位で搭載される(4060 Tiで約4,352基)
  • CUDA言語・cuDNN・PyTorchから直接利用可能
  • 1コアは単純な演算しかできないが大量並列で高性能
  • 世代ごとに1コアあたりの性能も向上

図解

[GPU チップ]
   ├─ SM (Streaming Multiprocessor) × 多数
   │   ├─ CUDA コア × 128
   │   ├─ Tensor コア × 4
   │   ├─ RT コア × 1
   │   └─ L1 キャッシュ
   └─ L2 キャッシュ ─ VRAM

仕組み

  • SIMT(Single Instruction Multiple Threads)方式で並列実行
  • 32スレッド単位(Warp)で同期動作
  • VRAMからデータを取得して演算結果を書き戻す
  • CPUと比較して数値演算スループットが圧倒的に高い

構成要素 / 種別

  • FP32 / FP16ユニット — 浮動小数点演算
  • INT32ユニット — 整数演算
  • Tensor コア — AI行列演算専用(CUDA コアとは別)
  • RT コア — レイトレーシング専用(CUDA コアとは別)

■ ユースケース

  • 実務:CUDA活用ソフト(PyTorch/TensorFlow/Blender等)で性能を発揮
  • 比較・選定GPU選定ガイド

■ 関連用語

  • GPU — CUDA コアを内包
  • GeForce — NVIDIAのGPUブランド
  • VRAM — CUDA コアが処理するデータの置き場
  • レイトレーシング — RT コアが担当(CUDA コアとは別)

■ 関連サイト・詳細な文書

関連用語

関連サイト・公式ソース