256基のGrace Hopper Superchipを巨大な1エクサフロップの144TB GPUとして接続した新しいクラスのAI スーパーコンピューターが、生成AI、レコメンダー システム、データ処理を強化する巨大モデルに対応
https://nvidianews.nvidia.com/news/nvidia-announces-dgx-gh200-ai-supercomputer
名無しの外国人1
nvidiaはchatGPTの100万倍の大きさのLLMを扱えるように準備中で、同時に人々はLLMを100万倍効率的にする方法を100万通り見つけているのだということをよく覚えておいてください。
名無しの外国人2
GPT4が2ヶ月半ほど前に開催されたばかりなのに、このサブが「最近ぱっとしない」というのは、正直、AIの進歩を物語っていますね。50年前に現在のAIを見せたら、何年も執拗に話題にされると思わなかった人はいないでしょう。今、先月のことは、あまりにも古いニュースで、注目されることすらないと考えられています。これがAGIに全く影響を与えないかどうかを考えるのは面白いことです。私たちはAGIを長い間待ち続け、ついに実現し、2ヶ月後には次のことに取り組んでいます。ASIはそのサイクルを断ち切ると思うのですが、どうでしょう。
Widget is loading comments...