2019年12月4日に発表されたInf1インスタンスの解説です。
Inf1インスタンスとは
AWS がカスタマイズした、高パフォーマンスの機械学習推奨チップ AWS Inferentia
を搭載したインスタンスです。
公式ブログによると…
G4インスタンスと比較した場合、Inf1インスタンスは推論スループットを最大3倍にし、推論あたりのコストを最大40%削減します。
サイズと仕様は次のとおりです。
インスタンス名 | インフェレンティアチップス | vCPU | RAM | EBS帯域幅 | ネットワーク帯域幅 |
---|---|---|---|---|---|
inf1.xlarge | 1 | 4 | 8 GiB | 最大3.5 Gbps | 最大25 Gbps |
inf1.2xlarge | 1 | 8 | 16 GiB | 最大3.5 Gbps | 最大25 Gbps |
inf1.6xlarge | 4 | 24 | 48 GiB | 3.5 Gbps | 25 Gbps |
inf1.24xlarge | 16 | 96 | 192 GiB | 14 Gbps | 100 Gbps |
現在は米国東部(バージニアN.)と米国西部(オレゴン)のEC2で使用できます。
今後、Amazon SageMakerとAmazon ECS、およびAmazon Elastic Kubernetes Serviceでも使えるようになるそうです。
また、Amazon Deep Learning AMIを使えば、Inferentiaチップを使用するためのツールであるAWS Neuron SDKやpythonなどの機械学習環境を揃える事もできるようです。