ChatGPT クエリの処理には、Google 検索のほぼ 10 倍の電力が必要です。この成長にはコストが伴い、生成 AI アプリケーションを実行するために必要なプロセスは、以前のイノベーションよりもはるかに電力を消費します。同時に、継続的な開発には、より複雑なトレーニング モデルと拡大し続ける予算が必要です。その結果、AI が主流になるにつれて、データ センターの電力需要は 2030 年までに 160% 増加すると予測されています。
「最大の課題の 1 つはエネルギー消費です」と、MediaTek のクライアント コンピューティング担当副社長兼ゼネラル マネージャーである Adam King 氏は言います。「企業は新しい生成 AI モデルを構築していますが、そのトレーニングと実行には膨大な量のエネルギーが必要です。」
MediaTek のシニア リサーチ サイエンティストである Alexandru Cioba 氏は、開発者は電力とデータの消費に関してガラスの天井にぶつかっており、さらに深刻な障害が発生する可能性があると予測しています。「これらのトレーニング モデルが大きくなるほど、成功させるのにかかる時間と人手が増えます」と、同氏は言います。「専門家チームが勤務期間中にモデルを 5 ~ 10 回しか反復できないという状況に近づいています。そして、この間隔は今後さらに長くなるでしょう。」
これらの課題に対処するための 1 つのステップは、エッジ コンピューティングです。エッジ コンピューティングは、データ処理とストレージを可能な限りデバイス自体に近づけるモデルです。これにより、接続への依存度が減り、電力を節約できます。スマート カーがその例です。シートベルトの作動や自動緊急ブレーキ システムなどの重要なコンピューティングは、車内で実行できます。スマートな交通管理システムや衝突警告はEdgeで実行され、一般的な更新はCloudに残ります。