G7 人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン (2025.06.12)
こんにちは、丸山満彦です。
ドイツBSIと、イタリアのACNが共同で起草し、G7のサイバーセキュリティ作業部会でまとめたもののようですね...
サイバーセキュリティに対するメリット、その特性、および最小要素の例に関する初期提案など、AI 向け SBOM の概念に関する共通のビジョンと、その概要を紹介している。
AI 向け SBOM は、サイバーセキュリティツールとして明示的に設計されたものではないが、適切なツール(脆弱性管理ソフトウェアなど)と組み合わせて正しく設計・使用すれば、サプライチェーンのセキュリティ確保に必要な透明性の高いインベントリ構築に貢献する可能性がある。
ということのようです...
● Bundesamt für Sicherheit in der Informationstechnik; BSI
・2025.06.12 A shared G7 Vision on Software Bill of Materials for Artificial Intelligence
| A shared G7 Vision on Software Bill of Materials for Artificial Intelligence |
人工知能のためのソフトウェア部品表に関する G7 の共通ビジョン |
| This paper has been written under the work stream “Smarter Together: Artificial Intelligence” of the G7 Cybersecurity Working Group. In collaboration/coordination with cybersecurity agencies and centers from the G7 partners this paper represents a concept for improving cybersecurity by transparency along the AI supply chain through an "SBOM for AI". Beyond the properties and minimum elements an "SBOM for AI" should contain, the challenges as well as the next steps within the G7 workstream towards a practical implementation are depicted. | この文書は、G7 サイバーセキュリティ作業部会の「よりスマートな連携:人工知能」作業部会において作成された。G7 パートナーのサイバーセキュリティ機関およびセンターとの協力・連携のもと、この文書は、「AI 用の SBOM」を通じて AI サプライチェーンの透明性を高めることにより、サイバーセキュリティを改善するための概念を提示している。「AI向けSBOM」が含むべき特性と最小要素を超えて、G7作業部会における実践的な実施に向けた課題および今後のステップが示されている。 |
・[PDF]
目次的...
| 1. Introduction | 1. 序論 |
| 2. Improving cybersecurity through transparency along the AI supply chain | 2. AI サプライチェーンの透明性によるサイバーセキュリティの改善 |
| 3. Software Bill of Materials for AI | 3. AI 向けソフトウェア部品表 |
| Properties | 特性 |
| Example minimum elements | 最低限必要な要素の例 |
| 4. The way forward | 4. 今後の取り組み |
| Challenges | 課題 |
| Future G7 work | G7 の今後の取り組み |
| References | 参考文献 |
本文...
| A shared G7 Vision on Software bill of materials for AI | AI ソフトウェア部品表に関する G7 共通ビジョン |
| Transparency and Cybersecurity along the AI Supply Chain | AI サプライチェーンにおける透明性とサイバーセキュリティ |
| This paper has been written under the work stream “Smarter Together: Artificial Intelligence” of the G7 Cybersecurity Working Group. It serves as food for thought and does not intend to contradict work conducted in existing G7 groups such as the Hiroshima AI Process. In some jurisdictions a number of elements of SBOMs for AI proposed in this paper may be expected to be covered, for example, through legal requirements and obligations or existing or forthcoming standards. Due to the ongoing evolution of legal and policy frameworks within the G7 members, this paper is open for further evolution. | 本文書は、G7 サイバーセキュリティ作業部会の「よりスマートに連携:人工知能」作業部会において作成された。本文書は、考えの糧となることを目的としており、広島 AI プロセスなど、既存の G7 グループにおける作業と矛盾する意図はない。一部の法域では、本文書で提案されている AI 向け SBOM の要素の一部が、法的要件や義務、あるいは既存または将来制定される標準によってカバーされることが予想される。G7 メンバー国内では、法的・政策的な枠組みが絶えず進化しているため、本文書は今後もさらに発展する可能性がある。 |
| 1. Introduction | 1. 序論 |
| Organizations, institutions and the general public all around the world are using AI systems for multiple purposes. Developing such systems is highly complex: it requires a vast amount of resources (e.g., energy, data), infrastructure (esp. GPUs), and human expertise. Many AI systems often rely on existing base models - either commercial or open source - and are adapted according to their application purpose. | 世界中の組織、機関、一般市民は、さまざまな目的で AI システムを利用している。このようなシステムの開発は、膨大なリソース(エネルギー、データなど)、インフラ(特に GPU)、および人間の専門知識を必要とする、非常に複雑な作業である。多くの AI システムは、商用またはオープンソースの既存のベースモデルに依存しており、その用途に応じて適応されている。 |
| Like most modern software systems, AI systems are complex. Complexity often leads to a lack of insights into how exactly an AI system works and which components and elements an AI system is based on. | 最近のほとんどのソフトウェアシステムと同様、AI システムも複雑である。複雑さのために、AI システムがどのように機能しているか、AI システムがどのようなコンポーネントや要素に基づいているのかについて、十分な理解が得られない場合が多い。 |
| As a result, key cybersecurity issues, such as potential weak points, vulnerabilities, manipulations or compromises, are difficult to detect. Indeed, aspects such as how an AI system has been trained, including the data used and the underlying base model, are key to ensure trustworthiness, security and safety of AI systems, whereas we note that safety and security of AI systems are related as described for example in G7 Leaders’ Statement on the Hiroshima AI Process. | その結果、潜在的な弱点、脆弱性、操作、侵害などの重要なサイバーセキュリティ上の問題の発見が困難になっている。実際、AI システムの信頼性、セキュリティ、安全性を確保するには、使用されたデータや基礎となるベースモデルなど、AI システムのトレーニング方法などの側面が鍵となる。一方、AI システムの安全性とセキュリティは、例えば G7 首脳による広島 AI プロセスに関する声明で述べられているように、相互に関連していることに留意する必要がある。 |
| The G7 Cybersecurity Working Group suggests introducing a common concept for Software Bill of Materials for AI (SBOM for AI).[1] An SBOM for AI consists of a structured record of details and supply chain relationships for the various components used in building an AI system. The goal of an SBOM for AI is to contribute to fostering security of AI systems through AI supply chain transparency and traceability of its components and dependencies. | G7 サイバーセキュリティ作業部会は、AI 用のソフトウェア部品表(SBOM for AI)の共通概念の導入を提案している[1]。SBOM for AI は、AI システムの構築に使用されるさまざまなコンポーネントの詳細およびサプライチェーンの関係を構造化した記録で構成される。SBOM for AI の目的は、AI サプライチェーンの透明性と、そのコンポーネントおよび依存関係のトレーサビリティを通じて、AI システムのセキュリティの向上に貢献することである。 |
| This paper presents a shared vision and a first high-level summary of the SBOM for AI concept, including its benefits for cybersecurity, its properties, and an initial proposal for its example minimum elements. While SBOMs for AI are not explicitly a cybersecurity tool, if designed and used correctly in conjunction with appropriate tools (e.g., vulnerability management software), they could foster the transparent inventory needed to help secure the supply chain. The paper concludes with an outlook on necessary next steps to further proceed with the technical implementation of an SBOM for AI framework. | 本文書では、サイバーセキュリティに対するメリット、その特性、および最小要素の例に関する初期提案など、AI 向け SBOM の概念に関する共通のビジョンと、その概要を初めて紹介している。AI 向け SBOM は、サイバーセキュリティツールとして明示的に設計されたものではないが、適切なツール(脆弱性管理ソフトウェアなど)と組み合わせて正しく設計・使用すれば、サプライチェーンのセキュリティ確保に必要な透明性の高いインベントリ構築に貢献する可能性がある。本文書は、AI フレームワークの SBOM の技術的実装をさらに進めるために必要な次のステップの見通しで締めくくられている。 |
| 2. Improving cybersecurity through transparency along the AI supply chain | 2. AI サプライチェーンの透明性によるサイバーセキュリティの向上 |
| One of the key challenges of securing an AI system is the vulnerability of its supply chain to both traditional and novel attack vectors. The depth and complexity of AI supply chains, coupled with the evolving and dynamic AI lifecycle, represents a considerable attack surface. Successful cyber attacks often aim at compromising a product before it reaches the consumer/end-user, including also AI components. The goal of so-called supply chain attacks is often to gather/steal sensitive information, pre-positioning and more generally to cause damage, either in the relationships between the stakeholders and/or financially, e.g., by tampering or poisoning data, causing unproductivity, misinformation or pursuing own interests. | AI システムのセキュリティ確保における重要な課題のひとつは、そのサプライチェーンが、従来の攻撃ベクトルと新しい攻撃ベクトルの両方に脆弱であることである。AI サプライチェーンの深さと複雑さは、進化し続けるダイナミックな AI ライフサイクルと相まって、かなりの攻撃対象領域となっている。サイバー攻撃が成功する多くの場合、その目的は、AI コンポーネントを含む製品が消費者/エンドユーザーに届く前に、その製品を侵害することである。いわゆるサプライチェーン攻撃の目的は、多くの場合、機密情報を収集/盗み出し、事前に準備を整え、より一般的には、データ改ざんやポイズニング、生産性の低下、誤情報の流布、自己の利益の追求など、ステークホルダー間の関係や財務面に損害を与えることである。 |
| Against this backdrop, improved cybersecurity along the AI supply chain can be achieved by increasing transparency, specifically with regard to accessing information on the creation process of the final AI system, as well as its individual components and dependencies. While for traditional software products the Software Bill of Materials (SBOM) concept may support mitigation to the above mentioned cybersecurity attacks, there is no internationally established and practically applicable common practice for systems using AI yet. In conjunction with other security tools, an SBOM for AI can increase transparency along the supply chain and thus contribute to cybersecurity. | このような状況において、AI サプライチェーン全体のサイバーセキュリティを向上するには、最終的な AI システム、およびその個々のコンポーネントや依存関係に関する情報の透明性を高めることが有効である。従来のソフトウェア製品では、ソフトウェア部品表(SBOM)の概念が、上記のサイバーセキュリティ攻撃の緩和に役立つ場合があるが、AI を使用するシステムについては、国際的に確立され、実用的な共通の実践例はまだない。他のセキュリティツールと組み合わせることで、AI 用の SBOM はサプライチェーン全体の透明性を高め、サイバーセキュリティの向上に貢献することができる。 |
| An SBOM for AI may bring transparency and knowledge about AI system composition. It fosters vulnerability management and patching by minimizing the response time required to check if known vulnerabilities are deployed within the AI system components, supporting risk management. | AI 用の SBOM は、AI システムの構成に関する透明性と知識をもたらす。AI システムコンポーネント内に既知の脆弱性が展開されているかどうかを検証するために必要な対応時間を最小限に抑えることで、脆弱性の管理とパッチの適用を促進し、リスクマネジメントをサポートする。 |
| Moreover, an SBOM for AI allows both AI model tracking, addressing issues related to performance while speeding up the entire security compliance verification process, simplifying auditing and keeping track of already existing compliance attestations. Furthermore, the usage of already proven components can reduce costs during the development phase of an AI system. As part of existing Secure by Design paradigms, a persistent use of an SBOM for AI can have positive effects on expensive and time consuming reworkings, such as model retraining, or damage repair. An SBOM for AI also facilitates license management. Most importantly, an SBOM for AI strengthens the autonomy and awareness of AI systems stakeholders by enabling them to make a carefully considered decision whether an AI system, an individual component or indeed a supplier is suitable for a particular purpose or not. | さらに、AI 用の SBOM を使用すると、AI モデルの追跡が可能になり、パフォーマンスに関連する問題に対処しながら、セキュリティコンプライアンスの検証プロセス全体を高速化し、監査を簡素化し、既存のコンプライアンス認証を追跡することができます。さらに、既に検証済みのコンポーネントの使用は、AIシステムの開発段階におけるコスト削減に役立ちます。Secure by Designパラダイムの一環として、AI用のSBOMの継続的な使用は、モデルの再トレーニングや損害修復などの高コストで時間のかかる再作業にポジティブな影響を与える可能性がある。AI用のSBOMはライセンス管理も容易にする。最も重要なことは、AI 用の SBOM により、AI システムのステークホルダーが、AI システム、個々のコンポーネント、あるいはサプライヤーが特定の目的に適しているかどうかを慎重に判断できるようになり、ステークホルダーの自律性と認識が強化されることである。 |
| 3. Software Bill of Materials for AI | 3. AI 向けソフトウェア部品表 |
| Properties | 特性 |
| To allow an SBOM for AI to be effective, it needs to ensure that the three following properties are satisfied: | AI 向け SBOM を効果的に活用するには、次の 3 つの特性を満たす必要がある。 |
| • being able to capture the static and dynamic aspects of AI systems (e.g., datasets used for training, testing and validation during the lifecycle of the system or learning outcomes) that distinguish them from traditional software systems; | • 従来のソフトウェアシステムとは区別される AI システムの静的および動的な側面(システムのライフサイクルにおけるトレーニング、テスト、妥当性確認に使用されるデータセットや学習成果など)を把握できる。 |
| • being able to be easily processed automatically and tool generated in a machine-readable format; | • 機械で読み取り可能な形式で、自動的に簡単に処理およびツール生成が可能であること。 |
| • being able to leverage structured data formats as much as possible, to ensure that the relevant information is available transparently upon demand to all the stakeholders. | • 構造化されたデータ形式を可能な限り活用し、関連情報がすべての利害関係者に要求に応じて透明性をもって提供されることを保証すること。 |
| Furthermore, it is equally important to clearly define the information set that an SBOM for AI should include, defined as its “minimum elements”. | さらに、AI の SBOM に含めるべき情報セットを「最小要素」として明確に定義することも同様に重要である。 |
| Example minimum elements | 最低限必要な要素の例 |
| An SBOM for AI should be composed of a set of minimum elements to capture the distinctive features of an AI system, ensuring compatibility and providing an adequate level of transparency for all the stakeholders. It should automatically build upon information captured by each of the AI components, providing an understanding of the flow between the AI elements of the system. While some transparency mechanisms exist, this effort aims to highlight a core set of data fields that are machine-generatable and machineprocessable. It is important to highlight that these minimum elements represent recommendations to a reasonable extent and should be decided accordingly to the specific context of use. Here below is an exemplary set of high-level minimum elements for a G7 SBOM for AI framework, which may extend the information used for traditional software bill of materials (e.g., supplier name, component version)[2], listed as clusters that can embed more detailed information on: | AI の SBOM は、AI システムの特徴を捉える一連の最小要素で構成され、互換性を確保し、すべての利害関係者に適切なレベルの透明性を提供する必要がある。AI の各コンポーネントによって取得された情報に基づいて自動的に構築され、システムの AI 要素間のフローを理解できるようにする必要がある。いくつかの透明性メカニズムは存在するが、この取り組みは、機械で生成および処理可能なデータフィールドのコアセットを強調することを目的としている。これらの最低限の要素は、合理的な範囲での推奨事項であり、具体的な使用状況に応じて決定すべきであることに留意することが重要である。以下は、G7 AI ソフトウェア部品表の枠組みのための、高レベルの最低限の要素の例である。これは、従来のソフトウェア部品表(サプライヤー名、コンポーネントのバージョンなど)で使用される情報を拡張したもので、より詳細な情報を組み込むことができるクラスターとして挙げられている。 |
| • Models used by the AI system, including basic information to identify the model, describe how the model was created, and spell out how the model is intended to be used. | • AI システムで使用されるモデル。モデルを識別するための基本情報、モデルの作成方法、およびモデルの使用目的を記載する。 |
| • Learning, including the description of the training techniques and pipelines and information about training datasets in, e.g., datasheets for datasets. | • 学習。トレーニング手法およびパイプラインの説明、およびデータセットのデータシートなど、トレーニングデータセットに関する情報。 |
| • Datasets used during the whole lifecycle of the model, including basic information that documents the identity, creation, use, and provenance of data. | • モデルのライフサイクル全体で使用されるデータセット。これには、データの識別、作成、使用、および出所に関する基本情報を含む。 |
| • Safety and security characteristics, such as a link or reference to the safeguards or guardrail implementations, safety alignment, compliance attestations and cybersecurity best practices adopted during the AI lifecycle. | • AI のライフサイクルにおいて採用されている、セーフガードやガードレールの実施、安全基準への適合、コンプライアンスの証明、サイバーセキュリティのベストプラクティスなどに関するリンクや参照など、安全性とセキュリティに関する特性。 |
| • System level characteristics, such as a link or reference to a description of the flow between the AI elements and how the model consumes input data. | • システムレベルの特徴、例えばAI要素間のフローの説明やモデルが入力データを消費する方法に関するリンクまたは参照。 |
| • Key Performance Indicators of an AI system, including model benchmark evaluation results. | • AIシステムの主要なパフォーマンス指標(KPI)、モデルベンチマーク評価結果を含む。 |
| • Licensing information about the components of an AI system. | • AIシステムのコンポーネントに関するライセンス情報。 |
| • Infrastructure used by the AI system, including the software components specifically required to deliver an AI system. | • AIシステムが使用するインフラストラクチャ、AIシステムを提供するために特に必要なソフトウェアコンポーネントを含む。 |
| The list is open for further expansion of the clusters in the future to keep pace with the rapid development of technology. | このリストは、技術の急速な発展に対応するため、将来的にクラスターの拡張が可能なオープンな形式である。 |
| To increase trustworthiness and to avoid giving a false sense of security, an SBOM for AI should be verifiable as a whole. This implies not only the verification of its individual components - e.g., via cryptographic hashes or digital signatures from the corresponding manufacturers - but also of the entire SBOM for AI. In order to achieve this goal, a viable SBOM for AI should at least be digitally signed by its manufacturer. While individual components are signed within the SBOM for AI, the signature of the entire SBOM for AI has to be verifiable from the outside. | 信頼性を高め、誤った安全性の認識を回避するため、AI用のSBOMは全体として検証可能である必要がある。これは、個々のコンポーネント(対応する製造事業者による暗号ハッシュやデジタル署名など)の検証だけでなく、AI 用 SBOM 全体の検証も意味する。この目標を達成するためには、実用的な AI 用 SBOM は、少なくとも製造事業者によってデジタル署名されている必要がある。個々のコンポーネントは AI 用 SBOM 内で署名されているが、AI 用 SBOM 全体の署名は外部から検証可能でなければなりません。 |
| 4. The way forward | 4. 今後の展望 |
| Challenges | 課題 |
| An SBOM for AI should include the unique features that distinguish an AI system, in addition to traditional software components. Before introducing an SBOM for AI, tools like system cards and model cards have been proposed both by private companies and by AI regulation as tools to offer increased transparency into AI models. Despite their effectiveness in some contexts, today these tools suffer from lack of harmonized and machine-readable formats, automation and interoperability with other tools. Data management is also an important consideration. SBOMs are not assumed to be publicly available today by regulation or market expectation, and intellectual property protection assumptions should hold for an SBOM for AI. Capturing the dynamic features of the AI model through adequate file formats and fields represents a challenge for building an SBOM for AI. At the same time, an SBOM for AI needs to be able to provide traceability of training pipelines and datasets, especially in the case of proprietary closed models, synthetic data and pre-training information, where a very large number of diverse data corpuses and sophisticated data processing pipelines are used for creating base models. Furthermore, it is critical to keep an SBOM for AI current with the speed at which AI technology develops, adding new information and relevant fields when needed, such as the case of model distillation, an emerging and meaningful technique that should be captured within an SBOM for AI. Indeed, this could easily lead to longer bills and redundant information, hence automation and harmonization of the format is essential for creating a meaningful and effective SBOM for AI. Moreover, it is essential to develop a framework to effectively track AI vulnerabilities and weaknesses, given the still largely experimental results in the field of AI model red teaming. | AI用のSBOMは、伝統的なソフトウェアコンポーネントに加え、AIシステムを特徴付ける独自の機能を含める必要がある。AI用のSBOMを導入する前に、システムカードやモデルカードなどのツールが、民間企業やAI規制によって、AIモデルの透明性を高めるツールとして提案されてきた。これらのツールは一部の文脈では有効であるが、現在、調和のとれた機械可読形式の欠如、自動化、他のツールとの相互運用性の課題を抱えている。データ管理も重要な考慮事項である。SBOM は、現在の規制や市場の期待では公開されることは想定されておらず、AI の SBOM についても知的財産保護の想定が維持されるべきである。適切なファイル形式とフィールドを用いて AI モデルの動的な特徴を捉えることは、AI の SBOM を構築する上で課題となっている。同時に、AI 用の SBOM は、トレーニングパイプラインおよびデータセットのトレーサビリティを提供できる必要がある。特に、ベースモデルの作成に非常に多くの多様なデータコーパスと高度なデータ処理パイプラインが使用される、独自のクローズドモデル、合成データ、事前学習情報の場合は、その必要性がより高まります。さらに、AI技術の発展速度に合わせてSBOMを最新に保つことは不可欠である。必要に応じて新しい情報や関連するフィールドを追加する必要がある。例えば、AIモデルディスティレーションのような新興で重要な技術は、AI用のSBOMに捕捉されるべきである。実際、これらは容易に長い文書や冗長な情報につながるため、意味のある効果的なAI用SBOMを作成するためには、フォーマットの自動化と調和が不可欠である。さらに、AI モデルのレッドチーム分野ではまだ実験的な結果が大半を占めていることを考えると、AI の脆弱性や弱点を効果的に追跡するための枠組みを構築することが不可欠である。 |
| Future G7 work | 今後の G7 の取り組み |
| This paper presented a shared G7 vision on SBOM for AI to increase transparency and cybersecurity along the full supply chain of AI systems and models. A trustworthy SBOM for AI: | 本報告書では、AI システムおよびモデルのサプライチェーン全体の透明性とサイバーセキュリティを強化するための、AI 向け SBOM に関する G7 の共通ビジョンを紹介しました。信頼性の高い AI 向け SBOM は、以下の特徴を備えている。 |
| • allows all the stakeholders involved in the AI supply chain to benefit from the improved transparency and knowledge of the system components; | • AIサプライチェーンに関わるすべての利害関係者が、システムコンポーネントの透明性と知識の向上から恩恵を受けることができる。 |
| • reduces risks, improves insight and traceability of the core components of an AI system, including security guardrails, vulnerability management and compliance attestations; | • セキュリティガードレール、脆弱性管理、コンプライアンス認証など、AIシステムのコアコンポーネントのリスクを軽減し、洞察力とトレーサビリティを向上させる。 |
| • can foster interoperability with or be integrated in already established safety, transparency and cybersecurity frameworks for traditional software, such as SBOM or security advisories and bulletins. | • SBOMやセキュリティアドバイザリ、セキュリティ速報など、従来のソフトウェア向けにすでに確立されている安全性、透明性、サイバーセキュリティの枠組みとの相互運用性を促進したり、それらに統合したりすることができる。 |
| To fully harness the benefits and address the challenges of SBOM for AI, the next steps for the G7 Cybersecurity Working Group – Smarter Together: Artificial Intelligence will be to focus on providing a shared technical vision tackling these challenges, starting with a status quo analysis of existing frameworks to be carried out in the second half of 2025. This will be followed by further work on technical recommendations and guidelines, paving the way for the definition of a common G7 framework fostering adoption of SBOM for AI by public and private sector operators. | AI における SBOM のメリットを最大限に活用し、課題に対処するため、G7 サイバーセキュリティ作業部会「Smarter Together: Artificial Intelligence」は、2025 年後半に実施される既存の枠組みの現状分析から始め、これらの課題に取り組む共通の技術的ビジョンを提供することに重点を置いて、次のステップに進みます。その後、技術的な提言やガイドラインに関するさらなる作業を行い、公共部門および民間部門の事業者が AI 向けの SBOM の採用を促進する共通の G7 枠組みの定義に向けた道筋を整備する。 |
| References | 参考文献 |
| Allen D. Householder, Vijay S. Sarvepalli, Jeff Havrilla, Matt Churilla, Lena Pons, Shing-hon Lau, Nathan M. VanHoudnos, Andrew Kompanek, and Lauren McIlvenny: Lessons Learned in Coordinated Disclosure for Artificial Intelligence and Machine Learning Systems. 2024. | Allen D. Householder、Vijay S. Sarvepalli、Jeff Havrilla、Matt Churilla、Lena Pons、Shing-hon Lau、Nathan M. VanHoudnos、Andrew Kompanek、Lauren McIlvenny:人工知能および機械学習システムに関する協調的開示から得た教訓。2024 年。 |
| Federal Office for Information Security (BSI): Transparency of AI Systems, White Paper. 2024. | 連邦情報セキュリティ局(BSI):AI システムの透明性、ホワイトペーパー。2024年。 |
| Federal Office for Information Security (BSI): Technical Guideline TR-03183: Cyber Resilience Requirements for Manufacturers and Products - Part 2: Software Bill of Materials (SBOM). 2024. | 連邦情報セキュリティ局(BSI):技術ガイドライン TR-03183:製造事業者および製品に対するサイバーレジリエンス要件 - 第 2 部:ソフトウェア部品表(SBOM)。2024年。 |
| French National Cybersecurity Authority (ANSSI): Building trust in AI through a cyber risk-based approach. Joint high-level risk analysis on AI. Version 1.0, 2025. | フランス国家サイバーセキュリティ機関(ANSSI):サイバーリスクに基づくアプローチによる AI に対する信頼の構築。AI に関する共同ハイレベルリスク分析。バージョン 1.0、2025 年。 |
| Ministry of Economy, Trade and Industries (METI) of Japan: Revised Guide Formulated on Specific Methods for Managing Software Vulnerability Utilizing “Software Bill of Materials (SBOM),” a List of Software Components, as a Preparatory Guide for Cyberattacks. | 経済産業省:サイバー攻撃対策準備ガイドとして、ソフトウェアの脆弱性管理に関する具体的な方法に関する改訂ガイドを策定。 |
| National Cyber Security Center (NCSC): Guidelines for secure AI system development. 2023. | 国家サイバーセキュリティセンター(NCSC):安全な AI システム開発のためのガイドライン。2023年。 |
| The United States Department of Commerce: The Minimum Elements For a Software Bill of Materials (SBOM), 2021. | 米国商務省:ソフトウェア部品表(SBOM)の最低要件、2021年。 |
| [1] The term SBOM for AI follows the already established concept of Software Bill of Material (SBOM) in the field of traditional software management. | [1] AI の SBOM という用語は、従来のソフトウェア管理分野であるでに確立されているソフトウェア部品表(SBOM)の概念に従っている。 |
| [2] As an example we can consider the information included in the US Department of Commerce NTIA document found in reference. | [2] 例としては、参考文献にある米国商務省 NTIA の文書に記載されている情報がある。 |
« 中国 国家情報化発展報告 (2024年) (2025.07.30) | Main | IPA 応用情報技術者試験、高度試験及び情報処理安全確保支援士試験がCBT方式での実施に移行予定 (2025.08.12) »

Comments