最後に、TensorFlow、PyTorch、Neural Designerを使用してベンチマークアプリケーションを実行します。そして、それらのプラットフォームが提供する能力結果を比較します。
以下の表は、それぞれのプラットフォームが異なるデータファイルを読み込むことができるかどうかを示しています。青いチェックはそのプラットフォームがロードできることを意味し、オレンジのクロスはできないことを意味します。
このように、TensorFlowとPyTorchの最大容量はともに5×10
9データで、Neural Designerの最大容量は9×10
9データであることがわかる。
これらの結果は、グラフ化することも可能です。
これらの結果から、Neural DesignerはTensorFlowやPyTorchよりも1.8倍大きなデータセットを読み込むことができると結論付けることができます。
以下の図は、16GB RAMのコンピュータで、Neural Designerが90億のデータポイントのニューラルネットワークを学習できることを示しています。
次の図は、60億件のデータを含むデータファイルを読み込もうとしたときに、TensorFlowがメモリ不足になる様子を示しています。
このように、TensorFlowの外部モジュールPython pandasが60億件のデータをロードしようとすると、RAM不足でプラットフォームがクラッシュしてしまいます。TensorFlowの最大容量は50億データです。
次の図は、PyTorchでも60億データを含むデータファイルを読み込むと、メモリ不足になる様子を示しています。
ここでも、PyTorchの外部モジュールPython pandasが60億件のデータを読み込もうとするとクラッシュしています。PyTorchの最大容量は50億データです。