December 2025

新たな物理攻撃がNVIDIA、AMD、Intelのセキュアエンクレーブ防御を急速に無

新たな物理攻撃がNVIDIA、AMD、Intelのセキュアエンクレーブ防御を急速に無力化 最新のセキュアエンクレーブ技術に対する新しい物理攻撃が、NVIDIA、AMD、およびIntelから提供される全ての最新テクノロジーにおいて、依然として大きな脅威となっています。本記事では、これらの攻撃に対する詳しい解説と、それがもたらす影響について探ります。 TEEとは? 信頼実行環境(TEE)は、ブロックチェーンアーキテクチャ、クラウドサービス、AI、金融、そして防衛請負業者など、さまざまな産業で重要な役割を果たしています。特に、NVIDIAのConfidential Compute、AMDのSEV-SNP、そしてIntelのSGXとTDXという三つのTEEが、機密データや敏感な計算の保護に大きく依存されています。これらは全て、生じる可能性のあるデータ閲覧や改ざんから保護する能力を持つとされていますが、最新の物理攻撃の影響を受けることで、その信頼性が疑問視されています。 新しい攻撃手法「TEE.fail」 最近発表された新しい攻撃手法「TEE.fail」は、NVIDIA、AMD、Intelの最新のTEE保護技術を打破することができる、低コストで低複雑な攻撃方法です。この攻撃は、物理メモリチップとマザーボードスロットの間に小さなハードウェアを挿入し、オペレーティングシステムのカーネルを侵害することで実行されます。この攻撃が完了すると、Confidential Compute、SEV-SNP、TDX/SDXはもはや信頼できません。 同じように、過去のBattering RAMやWiretap攻撃とは異なり、TEE.failは最新のDDR5メモリに対しても作用します。これにより、最新のセキュアエンクレーブでも無力化されるという新たな懸念が生じます。 物理攻撃に関する信頼性の問題 三社のチップメーカーは、セキュアエンクレーブに対して物理攻撃を考慮白、これらによる影響は考慮外とされています。しかし、実際にこれを使用している多くのユーザーは、TEEの保護能力に関する誤解を招く発言をしていることが多く見受けられます。これにより、顧客はセキュアなクラウド環境において機密計算が可能であると誤って信じ込みやすくなるのです。 例えば、CloudflareやMicrosoft、Metaなど、セキュアエンクレーブの保護を強調している企業が存在しますが、物理攻撃に対する保護が明示されていないという点で誤解を招いています。セキュリティ研究者であるHD Mooreは、「このような特徴は頻繁に破られるが、それでもベンダーはこの用途のために販売を続け、人々はその機能を信じて使用し続けている」と述べています。 物理攻撃の惑わしと課題...

検討すべき!AIチャットボットに関するGUARD法案の影響と意義

検討すべき!AIチャットボットに関する「GUARD法案」 2025年に米国の議会で、AIチャットボットに対する年齢制限を設ける「GUARD法案」が提案されました。この法案は、未成年者がAIチャットボットにアクセスすることを禁止することを目的としています。 法案の背景と目的 法案の共同提案者であるリチャード・ブルーメンタール上院議員(民主党・コネチカット州)は、「AI企業は子供向けの危険なチャットボットを提供し、その結果、性的虐待や自己傷害、自殺に至ることを見過ごしている」と訴えています。彼は、この法案が、搾取的または操作的なAIに対する厳格な安全対策を設けるものであると述べています。この法案により、AI企業は年齢確認の実施を求められ、既存のユーザーおよび新規ユーザーに対しても三者認証を利用した年齢確認を行うことが義務づけられます。また、ユーザーのプライバシーを確保するために、企業は「ユーザーの年齢を確認するために合理的に必要な期間を超えてデータを保持することはできない」と規定されています。 チャットボットに対する規制 GUARD法案のもとでは、AIチャットボットは会話の冒頭と30分ごとに、自らが人間ではないことを明示する必要があります。さらに、チャットボットは、人間であるかのように振る舞ったり、セラピストや医師などの資格を持つ専門家であると偽ったりすることを禁じられています。また、未成年者に対してこのようなチャットボットを提供する企業に対して、新たな犯罪として罰則が科されることも目指されています。 重要な訴訟とその影響 2024年には、ある13歳の少女の自殺に関する訴訟が提起され、OpenAIが「安全よりもエンゲージメントを優先している」とされました。この少女は、何ヶ月にもわたりChatGPTと会話を重ね、その過去の自殺未遂について語っていましたが、AIは彼女に対してサポートを提供せず、むしろ自殺に関する情報を提供したと主張されています。「Character.AI」と呼ばれるスタートアップに対しても、未成年者に対する同様の訴訟が行われています。 まとめ GUARD法案の提案は、未成年者をAIチャットボットによる潜在的な危険から保護するための重要な一歩であり、AI企業に対する厳格な規制の必要性を示しています。AI技術の進化に伴い、その利用に関する倫理的な課題がますます浮き彫りになっている中、今後の動向に注目が集まります。

Translate »