コンピュータを使って、設計や解析、シミュレーションなどを行う事全般をCAE(Computer-Aided Engineering)といいます。流体解析はCFD(Computational Fluid Dynamics)などといいます。
このCEAで構造解析する場合、有限要素法(FEM: Finite Element Method)、CFDでは有限体積法(FVM: Finite Volume Method)という計算手法を使います。
これらの計算では多くの計算を積み重ねるため、各計算での精度が重要です。64ビットの倍精度浮動小数点演算 FP64 を使って演算を行います。
パソコンでCAEができるようになるまで
このFP64の演算は、インテルで言えば8087のコプロセッサとして1980年頃からパソコンで使えていました。しかし、パソコンのメモリ、OSなどの問題で、CAEでパソコンなどが使えるようになるまで、ここから約20年かかります。
それまでのCAEは1985年頃まではスーパーコンピュータで行うような物でした。
1980年代後半にPTC社のPro/ENGINEER。1989年に登場したSun MicrosystemsのSun SPARCstation 1などが登場し、ワークステーションを使えば一般企業でもCAEが出来るようになっていきます。
実際にその動きが始まりだしたのが1990年前後です。ある程度予算を出せる一般企業が1台、数百万円や1,000万円程度だして、CAEが出来るワークステーションを購入し、自社のコンピュータ室などで、コンピュータシミュレーションが出来るようになっていきました。
1995年頃になると、1,000万円程度のSGI Indigo 2などが登場し、約0.3 GFLOPS程度の能力で演算出来るようになりました。
その後、2000年前後にパソコンのOS、メモリ、ソフトウェア環境がCAEに耐えるくらいになったことで、数百万から1000万円のワークステーションから、数十万円のパソコンへという動きが出てきました。
Windows 2000、Intel Pentium IIIや4、CAE関連ソフトではSolidWorksと、そのアドオン解析ソフトのCOSMOSWorksなどが登場。そしてNVIDIA Quadroもこの頃登場しています。
2005年頃には今までの高価なワークステーションに代わって、圧倒的に低コストのパソコンでCAEを行うようになっていきます。
CAEコンピュータの歴史
それぞれの年代のCAEに使っていたコンピュータの構成や性能はこのような感じになります。
1995年
CPU: MIPS R10000 (0.3 GFLOPS)
GPU: なし
Memory: 約0.8 GB/s / 256 MB
約1,000万円 (この時の性能を1とする)
2005年
CPU: Dual Xeon (12 GFLOPS)
GPU: なし
Memory: 約8.5 GB/s / 4 GB
約200万円 (性能1995年比 40倍)
2015年
CPU: Xeon E5-2690 v3 (1,900 GFLOPS)
GPU: Tesla K40
約350 GB/s / 32 GB+(VRAM 12GB)
約250万円 (性能1995年比 6,300倍)
2025年
CPU: Threadripper 7980X (10,000 GFLOPS)
GPU: RTX 6000 Ada級
約1,200 GB/s / 256 GB+(VRAM 48GB)
約200万円 (性能1995年比 33,000倍)
2025年の15万円の普通のノートパソコンと1995年の1000万円のワークステーション比較
例えばインテルのCore Ultra 7は何で比較するかによりますが、600 GFLOPS程度あります。30年前のワークステーションの2,000倍の性能です。
メモリ容量は128 MB〜256MBだったのが16 GB〜32GBで約125倍〜250倍
メモリ帯域幅は約0.8 GB/sだったのが約50〜100GB/sで約60倍 〜 120倍
つまり30年前と比べるととんでもない性能のコンピュータが、今目の前にあるような状態です。
それからも、CAE向けのコンピュータは高性能化が進んでいきます。
コンピュータの進化とCAE、そしてAIへ
CAE用にCPUが、CAD用にはグラフィックチップとしてNVIDIAなどのGPUが使われていました。
CPUもGPUも年々機能を強化していきました。しかしGPUでグラフィック処理に使うシェーダーコアをAI、CAEなどの様々な演算で活用出来ることがわかってくると、NVIDIAはGPGPU(General Purpose GPU)としてGPU機能、FP64機能も強化をしていきました。しかし、2014年のMaxwell世代からパソコン向けとサーバー向けでFP64の方針が変わっていきます。要するに、FP64を使いたいなら高価なサーバーを買ってほしいということです。
FP64の回路は大きいため、パソコン向けのGPUには、FP64を少なくし、その分AI向けの回路(Tensor Core)を載せていくようになっていきました。
これによって従来はGPUを使ってFP64を高速に処理出来ていたのが、出来なくなったわけではありませんが、高価なGPUでは満足した速度が出なくなりました。
NVIDIAとしては、FP64の演算を高速に行いたいならサーバーで、それ以外のシミュレーションはAIを活用すればいいというような方針になっていきました。これはNVIDIAだけでなくAMDのGPUも同様です。
そのため、2010年代後半から2020年代にパソコンやワークステーションでCAEを行うには、FP64の演算をCPUで行うのが一般的でした。2020年代になるとコア数を増やし、メモリ帯域も広いAMDのThreadripperを、CPUでの科学技術計算やCAE、CAD用のグラフィック用GPUとして、AMDやNVIDIAのGPUを使うというような組み合わせが増えていきます。
NVIDIAのGPUは信頼性の高いドライバを搭載した3Dグラフィック用、精度が必要ない生成AI用の用途で、パソコンやワークステーションのGPUとして使われています。
CAE関連の用途では、FP64演算性能が高くないのでNVIDIAのGPUの用途はあまりありませんが、用途が無くなったわけではありません。
サーバーでNVIDIAのGPUを使う場合、同じCUDAが使えるので、パソコンでアルゴリズムの検討などをした上で、サーバーで本格的な計算をするような事が出来ます。
このため、CAEなどの目的としてワークステーションでNVIDIAのGPUを使うことにはある程度の意味があります。
そして、NVIDIAのGPUを使う本命は、CAEなどのコンピュータシミュレーションをAIで行うという方法です。









