AI/Deep Learning

2023.03.20

英国 イノベーションを促進する技術規制の見直し:デジタルテクノロジー

こんにちは、丸山満彦です。

英国は、規制を作成する前にその経済効果を確認したり、Value For Moneyの監査がNAO(英国会計検査院)で昔から行われていたり、規制を経済的な視点から見るということが当たり前になっているのだろうと思います。

規制は不完全市場における外部効果を緩和するための重要な手段となりえるが、一方、環境変化に追従しなければいつしか既得権益の温床となってしまうということもありえるでしょうね。。。

ということで、英国の次の報告書は参考になると思います。。。

日本の規制の掛け方についての方針を明確にし、国民のコンセンサスを得、その方針に従って規制の策定や見直しをしていけばよいのに、、、と思ったりはします。。。民度の問題なのかもしれません。。。

 

U.K. Government

Policy paper: Pro-innovation Regulation of Technologies Review: Digital Technologies

・[PDF] Pro-innovation Regulation of Technologies Review: Digital Technologies report

20230320-63440

Pro-innovation Regulation of Technologies Review Digital Technologies  イノベーションを促進する技術規制の見直し:デジタルテクノロジー 
This report was presented by Sir Patrick Vallance, the Government Chief Scientific Adviser, to the Chancellor of the Exchequer and to HM Government, as part of the Pro-innovation Regulation of Technologies Review.  本報告書は、イノベーションを促進する技術規制の見直しの一環として、政府最高科学顧問であるパトリック・バランス卿が、大蔵大臣およびHM政府に提出したものである。
Mar-23 2023.03
Contents  目次 
Context コンテクスト
Scope of the review レビューの対象範囲
Key challenges 主な課題
Headline recommendations 主な提言
Sandboxing サンドボックス
Generative AI 生成AI
Data データ
Transport 輸送
Further recommendations さらなる提言
Drones ドローン
Data データ
Space and satellite technologies 宇宙・衛星技術
Cyber security サイバーセキュリティ
Looking ahead to newly emerging technologies 新たな技術に期待する
Context  コンテクスト 
Digital technologies are the engine driving the UK’s economic growth. The UK digital sector contributed 7.4% of UK total GVA in 2022, growing three times faster than the rest of the economy. We are home to over 85,000 tech startups and scale ups providing over 3 million jobs and a strong innovation ecosystem.[1]   デジタル技術は、英国の経済成長を牽引するエンジンである。英国のデジタル部門は、2022年に英国の総GVAの7.4%に貢献し、他の経済部門よりも3倍速く成長している。また、85,000社以上のスタートアップ企業やスケールアップ企業が存在し、300万人以上の雇用と強力なイノベーション・エコシステムを提供している[1]。 
Advances in digital technologies, such as artificial intelligence (AI), are and will continue to be a significant contributor to the UK’s future competitiveness, productivity, and sustainable growth. With our strong research base, we are in a favourable position to capture the economic prize presented by emerging digital technologies. However, the challenge for government is to keep pace with the speed of technological change: unlocking the enormous benefits of digital technologies, while minimising the risks they present both now and in the future.  人工知能(AI)などのデジタル技術の進歩は、英国の将来の競争力、生産性、持続可能な成長に大きく寄与するものであり、今後もそうであり続けるだろう。強力な研究基盤を持つ私たちは、新たなデジタル技術がもたらす経済的な賞を獲得する上で有利な立場にある。しかし、政府の課題は、技術革新のスピードに追いつくことであり、デジタル技術がもたらす膨大な利益を引き出すと同時に、現在および将来においてデジタル技術がもたらすリスクを最小化することである。
Digital technologies are challenging existing regulatory structures, and governments around the world are taking steps to respond. Well-designed regulation and standards can have a powerful effect on driving growth and shaping a thriving digital economy. Ensuring a proportionate and agile regulatory approach can offer clarity and confidence to investors, businesses and the public.   デジタル技術は、既存の規制構造に挑戦しており、世界中の政府が対応策を講じている。うまく設計された規制や基準は、成長を促進し、繁栄するデジタル経済を形成する上で強力な効果を発揮することができる。比例的で機敏な規制アプローチを確保することで、投資家、企業、一般市民に対して明確さと信頼を提供することができる。 
The UK should seize this opportunity to champion a pro-innovation approach that facilitates widespread commercial S&T applications. We should be bold, taking a three-stage approach to the regulation of emerging technologies by allowing:   英国はこの機会を捉えて、S&T の商業的応用を広く促進するイノベーション促進アプローチを支持すべきである。私たちは大胆に、新興技術の規制に対して、次のような3段階のアプローチを取るべきである。 
•       regulatory flexibility and divergence at an early stage for emerging technologies, thereby defining regulations and standards in the global markets we want to lead;   ・ 新興技術の初期段階における規制の柔軟性と発散により、我々がリードしたい世界市場の規制と標準を定義する。
•       promoting and learning from experimentation to support the scaling of key technologies e.g.、 through regulatory sandboxes and testbeds; and   ・ 規制上のサンドボックスやテストベッドなどを通じて,主要技術の拡張を支援するための実験を促進し、そこから学ぶ。
•       seeking international regulatory harmonisation once technologies are becoming established, ensuring market access for our most innovative companies.   ・ 技術が確立された段階で、国際的な規制の調和を図り、最も革新的な企業の市場参入を確保する。
This three-stage approach should underpin our regulatory approach for innovation.  この3段階のアプローチは、イノベーションのための規制アプローチを支えるものである。
Scope of the review  レビューの範囲 
We have engaged extensively across government, with regulators, industry and academic experts and have identified digital technologies and applications which require a distinct regulatory approach. Our advice focuses on specific challenges for artificial intelligence and data, as well as short-term actions to address regulatory barriers for autonomous vehicles, drones, cyber security, and space and satellite technologies. A number of these proposals may require legislation to achieve. Given the cross-cutting nature of digital technologies, recommendations on regulatory changes in green industries and the life sciences will be addressed in subsequent reports.  私たちは、政府全体、規制当局、産業界、学識経験者と幅広く関わり、独自の規制アプローチを必要とするデジタル技術やアプリケーションを特定した。私たちのアドバイスは、人工知能とデータに関する具体的な課題に加え、自律走行車、ドローン、サイバーセキュリティ、宇宙・衛星技術に関する規制上の障壁に対処するための短期的なアクションに焦点を当てている。これらの提案の多くは、実現するために法律を必要とする可能性がある。デジタル技術の横断的な性質を考慮し、グリーン産業とライフサイエンスにおける規制改革に関する提言は、その後の報告書で取り上げる予定である。
In this review we offer recommendations in three broad areas:  このレビューでは、以下の3つの分野で提言を行う。
a)    supporting a step-change in the UK’s regulatory approach to AI;  a) AIに対する英国の規制アプローチのステップアップの支援。
b)    facilitating greater industry access to public data to help deliver the government’s public services transformation programme and address pressing societal challenges; and  b) 政府の公共サービス変革プログラムを実現し、差し迫った社会的課題に対処するための、公共データへの産業界のアクセスを促進。
c)    government signalling and leadership to focus regulator efforts on innovation in autonomous vehicles, drones, cyber security, and space and satellite technologies.  c) 自律走行車、ドローン、サイバーセキュリティ、宇宙・衛星技術におけるイノベーションに規制当局の努力を集中させるための政府の意思表示とリーダーシップ。
This advice complements recent reviews including the government’s Plan for Digital Regulation, Digital Strategy and the report of the independent Taskforce on Innovation, Growth and Regulatory Reform. Recommendations will support forthcoming policy including through the AI White Paper and the Emerging Technologies Regulation Review.  この助言は、政府のデジタル規制のための計画、デジタル戦略、イノベーション、成長、規制改革に関する独立タスクフォースの報告書を含む最近のレビューを補完するものである。提言は、AI白書や新興技術規制の見直しなど、今後の政策を支援するものである。
Key challenges  主要課題 
Existing regulatory rules and norms which have guided business activity were in many cases not designed for emerging digital technologies and business models. Many digital technologies require a different approach because they combine distinct features - such as powerful data processing capabilities, the use of advanced data analytics and algorithms, speed of innovation and growth, and horizontal integration.[2]  企業活動を導いてきた既存の規制ルールや規範は、多くの場合、新たなデジタル技術やビジネスモデルに対応したものではありませんでした。多くのデジタル技術は、強力なデータ処理能力、高度なデータ解析とアルゴリズムの使用、革新と成長のスピード、水平統合など、異なる特徴を兼ね備えているため、異なるアプローチを必要とする[2]。
Regulation of the digital sector is changing, with new legislation being considered across online safety, data protection, financial services, cyber security, and competition in digital markets, among others. Navigating these different regulatory remits – and keeping track of evolving changes – can be challenging for businesses trying to introduce new products and processes. Regulator behaviour and culture is a major determinant of whether innovators can effectively navigate adapting regulatory frameworks. In this review we have identified regulatory challenges which significantly impact the digital sector:  デジタル分野の規制は変化しており、オンライン安全、データ保護、金融サービス、サイバーセキュリティ、デジタル市場における競争など、さまざまな分野で新しい法律が検討されている。このような異なる規制の範囲をナビゲートし、進化する変化を把握することは、新しい製品やプロセスを導入しようとする企業にとって困難なことである。規制当局の行動や文化は、イノベーターが適応する規制の枠組みを効果的にナビゲートできるかどうかの大きな決定要因である。このレビューでは、デジタル部門に大きな影響を与える規制上の課題を特定した。
1.    Fragmentation: There are over 10 different regulators with digital technologies within their direct remit, whose mandates often overlap and can be contradictory. This can create a significant burden when companies, particularly SMEs, need to engage with multiple regulators or are unclear on which regulator(s) to approach (case study A). Initiatives on cross-regulator cooperation such as the Digital Regulation Co-operation Forum seek to create a more coherent regulatory landscape (case study B).  1. 断片化:デジタル技術を直接の管轄とする規制当局が10以上存在し、その任務はしばしば重複し、矛盾することもある。このため、企業(特に中小企業)が複数の規制当局と関わる必要がある場合や、どの規制当局にアプローチすればよいのかが不明確な場合には、大きな負担となる(ケーススタディA)。デジタル規制協力フォーラムのような規制当局間の協力に関するイニシアチブは、より首尾一貫した規制の状況を作り出そうとしている(ケーススタディB)。
2.    Pacing: Often technological developments outpace the speed at which established regulatory systems can respond to its applications. However, for emerging digital technologies, the industry view is clear: there is a greater risk from regulating too early. It will be important that the regulatory system strikes the right balance between providing clarity and building public trust, while also enabling development, experimentation, and deployment.   2. ペース配分:多くの場合、技術開発は、既存の規制システムがその応用に対応できるスピードより遅れている。しかし、新興のデジタル技術については、業界の見解が明確であり、規制が早すぎることによるリスクが大きい。規制システムは、開発、実験、展開を可能にすると同時に、明確性を提供し、社会的信頼を築くという適切なバランスを取ることが重要である。 
3.    Skills: Many regulators, including the CAA and ICO, report challenges in attracting and retaining individuals with relevant skills and talent in a competitive environment with the private sector, especially those with expertise in AI, data analytics, and responsible data governance.  3. スキル:CAAやICOを含む多くの規制当局が、民間企業との競争環境の中で、関連するスキルや才能を持つ個人、特にAI、データ分析、責任あるデータガバナンスの専門知識を持つ人材を引き付け、維持することに課題があると報告している。
4.    Incentives: The rewards for regulators to take risks and authorise new and innovative products and applications are not clear-cut, and regulators report that they can struggle to trade off the different objectives covered by their mandates. This can include delivery against safety, competition objectives, or consumer and environmental protection, and can lead to regulator behaviour and decisions that prioritise further minimising risk over supporting innovation and investment. There needs to be an appropriate balance between the assessment of risk and benefit.  4. 動機付け:規制当局がリスクを取り、新しく革新的な製品やアプリケーションを認可するための報酬は明確ではなく、規制当局は、その権限でカバーされるさまざまな目的をトレードオフするのに苦労することがあると報告している。これには、安全性、競争目標、消費者や環境の保護に対する実現が含まれ、イノベーションと投資の支援よりもリスクの最小化を優先する規制当局の行動や意思決定につながる可能性がある。リスクと利益の評価には、適切なバランスが必要である。
Case Study A: Satellite launches: a complex regulatory pathway ケーススタディA:人工衛星打ち上げ:複雑な規制の道筋
The launch of space missions in the UK is an example of where regulatory fragmentation is impacting the development of a high-growth potential sector. Space missions require an Orbital Operators Licence from the Civil Aviation Authority (CAA) under the Space Industry Act 2018, a Permanent Earth Station (PES) licence from Ofcom (and the International Telecommunication Union (ITU)) and possibly an export licence depending on where they are launching from.   英国における宇宙ミッションの立ち上げは、規制の分断が高成長の可能性を秘めたセクターの発展に影響を与えている一例である。宇宙ミッションには、宇宙産業法2018に基づく民間航空局(CAA)の軌道運用者ライセンス、Ofcom(および国際電気通信連合(ITU))の恒久地球局(PES)ライセンス、そして打ち上げ先によっては輸出ライセンスが必要である。 
This fragmentation can be a substantial burden on time and resources, first requiring identification of the right regulators, and then separate application processes for each. In some instances, this has resulted in delays to launches and the allocation of resources and labour away from the development of the technology.  このように細分化されると、まず適切な規制当局を特定し、さらにそれぞれに対して別々の申請手続きを行う必要があり、時間やリソースに大きな負担がかかる可能性がある。このため、発売が遅れたり、技術開発から資源や労働力を割かれたりするケースもある。
Headline recommendations  主な提言 
Artificial intelligence  人工知能 
In the National AI Strategy, the government set out an ambitious ten-year plan for the UK to remain a global AI superpower and encourage AI companies to start and grow in the UK. We note from our engagement with industry that there is a 12-to-24-month window to make the UK one of the top places in the world to build foundational AI companies, with other countries moving faster to provide clarity and a friendly regulatory environment for innovators in this space. Our regulatory approach will be critical in reaching this ambition and action needs to be taken urgently.   政府は国家AI戦略において、英国が世界のAI大国であり続けるための野心的な10年計画を定め、AI企業が英国で起業し成長することを奨励した。私たちは、産業界との関わりから、英国をAI企業の基礎を築く世界有数の場所にするためには、12ヶ月から24ヶ月の猶予があることに注目している。他の国は、この分野のイノベーターに明確さとフレンドリーな規制環境を提供するために早く動いている。この野望を達成するためには、私たちの規制アプローチが重要であり、緊急に行動を起こす必要がある。 
AI technology covers a broad spectrum of technologies, tools and applications, with transformative implications across a number of sectors. There are currently differences between the powers of regulators to address the use of AI within their remit as well as the extent to which they have started to do so. The levels of acceptable risk in innovation in AI are sector and context dependent. AI technologies used in different sectors are therefore subject to different controls. While in some instances there will be a clear rationale for this, it can further compound an overall lack of regulatory clarity.   AI技術は、技術、ツール、アプリケーションの広い範囲をカバーし、多くの分野で変革的な意味を持つ。現在、規制当局がその権限の範囲内でAIの利用に対処する権限と、それを開始した程度には差がある。AIのイノベーションにおいて許容されるリスクのレベルは、分野や状況に依存する。したがって、異なるセクターで使用されるAIテクノロジーは、異なる規制の対象となる。これには明確な根拠がある場合もあるが、全体的な規制の明確性の欠如をさらに深刻化させる可能性がある。 
The extremely fast pace of development of AI technology also creates difficulties for regulators in keeping up with the emerging applications of AI and the need for continuous refinement of their regulatory approach. More needs to be done to improve business confidence, boost public trust, and ensure the public benefit from safe innovation, particularly where public services are concerned. Regulators should ensure that while they rightly safeguard against the risks of AI, they balance the opportunity cost of a lack of innovation, and the social benefits its deployment might bring.  また、AI技術の開発ペースが非常に速いため、規制当局がAIの新たな応用に対応することが難しく、規制アプローチを継続的に洗練させる必要がある。特に公共サービスが関係する場合、ビジネスの信頼性を向上させ、社会的信用を高め、安全なイノベーションから国民が利益を得られるようにするためには、さらに多くのことを行う必要がある。規制当局は、AIのリスクに対して正しく保護する一方で、イノベーションの欠如による機会費用と、その展開がもたらすかもしれない社会的便益のバランスを取ることを確実にする必要がある。
Sandboxing  サンドボックス 
Recommendation 1: Government should work with regulators to develop a multiregulator sandbox for AI to be in operation within the next six months  提言1:政府は規制当局と協力して、今後6ヶ月以内に運用を開始するAIのマルチレギュレータ・サンドボックスを開発すべきである。
A regulatory sandbox is a live testing environment, with a well-defined relaxation of rules, to allow innovators and entrepreneurs to experiment with new products or services under enhanced regulatory supervision without the risk of fines or liability. They are typically operated by a regulator for a limited time period and seek to inform rule making.  規制のサンドボックスとは、イノベーターや起業家が罰金や責任のリスクを負うことなく、強化された規制の監視下で新しい製品やサービスの実験を行うための、明確なルール緩和を伴うライブテスト環境である。通常、規制当局によって期間限定で運営され、ルール作りの参考とすることを目的としている。
Effective and proportionate regulation of AI requires a new approach from government and regulators: one which is agile, expert led, and able to give clear and quick guidance to industry. From our engagement with industry there is clear appetite for the UK to rapidly launch an AI sandbox to enable experimentation and encourage greater co-operation between regulators. An approvals process that brings together multiple regulators would reduce inconsistencies in regulatory responses and provide a more coherent approach.   AIを効果的かつ適切に規制するためには、政府や規制当局が新しいアプローチをとる必要がある。産業界との関わりから、英国がAIサンドボックスを迅速に立ち上げ、実験を可能にし、規制当局間の協力体制を強化することに明確な意欲を示している。複数の規制当局が一堂に会する承認プロセスは、規制当局の対応における矛盾を減らし、より首尾一貫したアプローチを提供することになるだろう。 
The Digital Regulatory Cooperation Forum, which brings together four key regulators (Ofcom, ICO, CMA, and FCA) would be well placed to support the sandbox with its convening role, bringing in other relevant regulators to encourage join up.  4つの主要な規制当局(Ofcom、ICO、CMA、FCA)が集まるデジタル規制協力フォーラムは、他の関連規制当局を招集して連携を促すという招集の役割を担い、サンドボックスを支援するのに適していると思われる。
The following principles should guide the development of the AI sandbox:  AIサンドボックスの開発には、次のような原則が必要である。
•       Time-bound: Provide a time-limited opportunity for firms to test innovative propositions in the market with real consumers.  ・ 時間的制約:企業が実際の消費者を相手に革新的な提案を市場でテストするための時間的制約のある機会を提供する。
•       Technology stage: Focus on areas where the underpinning science or technology is at a stage to make a major breakthrough feasible.  ・ 技術段階:基礎となる科学技術が、大きなブレークスルーを実現可能な段階にある分野に焦点を当てる。
•       Societal challenges: Set out bold, ambitious ways to help solve a societal challenge and/or take advantage of areas where the UK is poised to be a world leader.  ・ 社会的課題:社会的課題の解決に貢献する大胆で野心的な方法,および/または英国が世界のリーダーになる準備が整っている分野を活用する方法を提示する。
The following features should be considered in the design of the AI sandbox:  AIサンドボックスの設計では、以下のような特徴を考慮する必要がある。
•       Targeted signposting: Nationally and internationally to encourage uptake from companies with clear eligibility criteria.  ・ ターゲットを絞った情報提供:明確な資格基準を持つ企業からの取り込みを促進するため、国内および国際的に案内する。
•       Timelines: Clear application deadlines, and a consistent feedback loop throughout for successful and unsuccessful companies. Timelines for outcomes should be clear and ambitious.  ・ タイムライン:明確な申請期限を設け、成功した企業も失敗した企業も一貫したフィードバックループを設ける。成果のタイムラインは明確かつ野心的であるべきである。
•       Accountability and transparency: Consideration of ethics, privacy and protections of consumers, involving respected advisors and bodies early, and iterative engagement with companies.   ・ 説明責任と透明性:倫理、プライバシー、消費者保護への配慮、信頼できるアドバイザーや団体の早期関与,企業との反復的な関わり。
•       Impact: Defined clearly and early to inform the selection of businesses and stakeholders to work with and to minimise risks in the delivery phase. Pro-innovation objectives and outcomes should be monitored regularly. Ministers should consider how to agree targets for innovation and monitor progress.  ・ 影響力:明確かつ早期に定義することで、協力する企業やステークホルダーを選択し、提供段階でのリスクを最小化する。プロイノベーションの目的と成果は,定期的にモニタリングされるべきである。閣僚は、イノベーションの目標に合意し、進捗を監視する方法を検討すべきである。
•       Guaranteed output: A commitment from the participant regulators to make joined-up decisions on regulations or licences at the end of each sandbox process and a clear feedback loop to inform the design or reform of regulatory frameworks based on the insights gathered. Regulators should also collaborate with standards bodies to consider where standards could act as an alternative or underpin outcome-focused regulation.  ・ アウトプットの保証:参加規制当局が、サンドボックスの各プロセスの終了時に、規制やライセンスについて統合的な決定を行うことを約束し、収集した洞察に基づいて規制枠組みの設計や改革を知らせるための明確なフィードバックループを構築する。また、規制当局は、標準化団体と協力し、標準が成果重視の規制の代替または下支えとして機能する可能性がある場合について検討する必要がある。
•       Synergy: Consideration of other approaches that can complement the sandbox, including dedicated advice services for innovators (‘innovation hubs’), setting regulatory challenges to incentivise innovation, ‘scaleboxes’, and cross-regulator onestop-shops.  ・ 相乗効果:サンドボックスを補完する他のアプローチとして,イノベーター向けの専用アドバイスサービス(「イノベーションハブ」),イノベーションにインセンティブを与える規制上の課題設定,「スケールボックス」、規制当局を超えたオンストップショップなどを考慮する。
•       Lessons learnt: Ensure the advice and lessons learnt from regulatory experimentation are shared with the wider market to benefit the industry as a whole and mainstream innovation. This could also inform the expansion of this capability to cover multiple industry sectors over time for example, quantum and semiconductors.  ・ 教訓を得る:規制の実験から得られたアドバイスや教訓が、より広い市場で共有されるようにし、業界全体の利益とイノベーションの主流となるようにする。このことは,例えば、量子や半導体など、複数の産業分野をカバーするために、この機能を拡大することにもつながるだろう。
A sandbox could initially focus on areas where regulatory uncertainty exists, such as generative AI, medical devices based on AI, and could link closely with the ICO sandbox on personal data applications.   サンドボックスは、当初は、生成AIやAIを利用した医療機器など、規制の不確実性が存在する分野に焦点を当て、個人データアプリケーションに関するICOサンドボックスと密接に連携させることができるだろう。 
Funding should be provided to support the creation of the sandbox and facilitate the rapid recruitment of specialist talent and skills. Forthcoming cross-cutting recommendations to future-proof our regulatory system will explore challenges around funding, capacity and skills in greater detail. Establishing a high profile, multi-regulator sandbox for AI staffed with content experts would support the scale-up of companies; increase investment opportunities; provide new products and services for consumers; and increased regulatory compliance by design.  サンドボックスの設立を支援し、専門的な人材やスキルの迅速な採用を促進するための資金を提供する必要がある。今後発表される、規制システムの将来性を高めるための横断的な提言では、資金、能力、スキルに関する課題をより詳細に検討する。コンテンツの専門家を配置した、注目度の高い、複数の規制当局によるAIのサンドボックスを設立することで、企業のスケールアップを支援し、投資機会を増やし、消費者に新しい製品やサービスを提供し、デザインによる規制遵守を強化することができる。
Case Study B: Digital Regulation Cooperation Forum   ケーススタディB: デジタル・レギュレーション・コーディネーション・フォーラム 
The Information Commissioner’s Office (ICO), Office of Communications (Ofcom), the Competition and Markets Authority (CMA) and the Financial Conduct Authority (FCA) have together formed the Digital Regulation Cooperation Forum (DRCF), which seeks to deliver greater co-operation and a coherent approach to regulation between the four regulators of the digital sector, which contributed nearly £151bn to the economy in 2019, with 1.7 million filled jobs in the sector in 2020.   情報コミッショナー事務所(ICO)、通信局(Ofcom)、競争市場局(CMA)、金融行動監視機構(FCA)は共同でデジタル規制協力フォーラム(DRCF)を設立し、2019年に約1510億ポンドの経済貢献を果たし、2020年には同分野で170万人の雇用が埋まるデジタル分野の4つの規制当局間でより大きな協力と規制への首尾良いアプローチの実現を目指している。 
The DRCF is helping to create a more supportive environment for innovation in the UK by making it easier for firms that operate across digital regulatory boundaries to do business.  DRCFは、デジタル規制の境界を越えて活動する企業がビジネスを行いやすくすることで、英国におけるイノベーションをより支援する環境作りを支援している。
The DRCF is undertaking exploratory research and piloting a multi-agency advice service for digital innovators who require joined up advice from multiple regulators. The service is being designed around the views, needs and working practices of innovators across the digital economy. Success will be measured by the accessibility of the pilot service and the impact of the advice on the businesses who use it.  DRCFは、複数の規制当局から統合されたアドバイスを必要とするデジタル・イノベーターのために、探索的な調査と複数機関によるアドバイス・サービスの試験運用を行っている。このサービスは、デジタルエコノミーに関わるイノベーターの意見、ニーズ、仕事のやり方を中心に設計されている。サービスの成功は、パイロットサービスの利用しやすさと、アドバイスを利用する企業への影響によって評価されるだろう。
Generative AI  生成AI 
Generative AI creates text, images, music, speech, code or video based on learning from existing available content. In light of rapid technological advancements in this space, generative AI is of growing interest to technologists, investors, policymakers, and society at large.  生成AIは、既存の利用可能なコンテンツからの学習に基づいて、テキスト、画像、音楽、音声、コードまたはビデオを作成する。この分野における急速な技術進歩に鑑み、生成AIは、技術者、投資家、政策立案者、そして社会全体にとって関心が高まっている。
Recommendation 2: Government should announce a clear policy position on the relationship between intellectual property law and generative AI to provide confidence to innovators and investors.  提言2:政府は、知的財産法と生成AIの関係について明確な政策見解を発表し、イノベーターや投資家に信頼を提供すべきである。
We note from our stakeholder engagement that the relationship between intellectual property law and generative AI is unclear. The Intellectual Property Office (IPO) has consulted on changes to Text and Data Mining (TDM) rules in the UK but there remains a lack of regulatory clarity as to the direction of those reforms, particularly for AI firms deploying TDM techniques to generate new content. Creating an environment in which TDM is enabled in the UK would attract investment, support company formation and growth, and show international leadership. If the government’s aim is to promote an innovative AI industry in the UK, it should enable mining of available data, text, and images (the input) and utilise existing protections of copyright and IP law on the output of AI.  There is an urgent need to prioritise practical solutions to the barriers faced by AI firms in accessing copyright and database materials. The government should work with the AI and creative industries to develop ways to enable TDM for any purpose, and to include the use of publicly available content including that covered by intellectual property as an input to TDM (including databases). The opportunity here is to focus on clarifying a simple process concerning the input to AI models; IP rights and their enforcement would apply to the output of any product. We also recommend a code of practice and a requirement for altered images to be labelled as generated or assisted by AI.  我々は、ステークホルダーのエンゲージメントから、知的財産法と生成AIの関係が不明確であることを指摘する。知的財産庁(IPO)は、英国におけるテキスト・データマイニング(TDM)規則の変更について協議しているが、特に新しいコンテンツを生成するためにTDM技術を展開するAI企業にとって、これらの改革の方向性については、規制上の明確さがないままである。英国でTDMが可能になる環境を作ることは、投資を呼び込み、企業の設立や成長を支援し、国際的なリーダーシップを示すことになる。政府の目的が英国における革新的なAI産業の促進であるならば、利用可能なデータ、テキスト、画像(入力)のマイニングを可能にし、AIの出力について著作権とIP法の既存の保護を活用すべきである。 AI企業が著作権やデータベース資料へのアクセスで直面する障壁に対する実用的な解決策を優先することが急務である。政府はAIやクリエイティブ産業と協力して、あらゆる目的のTDMを可能にする方法を開発し、知的財産でカバーされるものを含む一般に利用可能なコンテンツの利用をTDM(データベースを含む)への入力として含めるべきである。ここでのチャンスは、AIモデルへの入力に関するシンプルなプロセスを明確にすることに焦点を当てることである。知的財産権とその行使は、あらゆる製品に適用される。また、実践規範と、改変された画像にAIによって生成または支援されたことを示すラベルを付けることを要求することを提案する。
In parallel, technological solutions for ensuring attribution and recognition, such as watermarking, should be encouraged, and could be linked to the development of new international standards in due course. The government should prioritise reaching a policy position rapidly, building on the external engagement conducted over the last 12 months. The government should recognise that the advent of generative AI globally represents both an opportunity and a challenge to the creative industries and education sectors but that the restriction of data access for training sets would be likely to put the UK at a disadvantage and impede domestic development of the technology.  並行して、電子透かしのような帰属と認識を保証するための技術的解決策を奨励すべきであり、いずれ新しい国際標準の開発につなげることができるだろう。政府は、過去12ヶ月間に実施された外部エンゲージメントを基に、迅速に政策的な立場を確立することを優先すべきである。政府は、生成AIの世界的な出現が、クリエイティブ産業や教育部門にとって機会と課題の両方を意味することを認識すべきであるが、トレーニングセットのデータアクセスを制限することは、英国を不利な立場に追い込み、この技術の国内開発を阻害する可能性があることを認識すべきである。
The content produced by the UK's world-leading creative industries, including for generative AI, is fundamental to the success of the tech sector. These sectors are the UK's strengths and their success is central to realising our growth ambitions and they should continue to grow in partnership.  生成AI向けを含め、英国の世界をリードするクリエイティブ産業が生み出すコンテンツは、テック分野の成功の基礎となるものである。これらの分野は英国の強みであり、その成功は成長野心を実現するための中心であり、今後もパートナーシップを保ちながら成長すべきである。
To increase confidence and accessibility of protection to copyright holders of their content as permitted by law, we recommend that the government requires the IPO to provide clearer guidance to AI firms as to their legal responsibilities, to coordinate intelligence on systematic copyright infringement by AI, and to encourage development of AI tools to help enforce IP rights.    法律で認められたコンテンツの著作権者の保護に対する信頼とアクセシビリティを高めるため、政府はIPOに対し、AI企業に対して法的責任に関する明確なガイダンスを提供し、AIによる体系的な著作権侵害に関するインテリジェンスを調整し、IP権の行使に役立つAIツールの開発を奨励するよう求めることを提言する。 
Data  データ 
Both the development of new technology and service improvement relies heavily on access to good data. The government and broader public sector bodies hold significant data, which if made available to industry in a consistent way, could facilitate research and innovation and improve public services. However, the ability of the private sector to access public data is inconsistent and fragmented. Concerns over privacy, perceptions of a restrictive regulatory regime, and a lack of investment in skills and the time needed to make public data available, are significant constraints.    新技術の開発やサービスの向上は、優れたデータへのアクセスに大きく依存している。政府や公共部門は重要なデータを保有しており、これを一貫した方法で産業界に提供すれば、研究やイノベーションを促進し、公共サービスを向上させることができる。しかし、民間企業が公共データにアクセスする能力は一貫性がなく、断片的である。プライバシーに対する懸念、規制が厳しいという認識、公共データを利用可能にするために必要なスキルや時間への投資不足は、大きな制約となっている。 
Data sharing and linkage across the public sector is also limited, which hinders the ability of government to develop innovative methods to improve public services. Improved integration of government datasets not only has the potential to improve policy making, but also could make it easier for private sector firms to access this information safely, including by ensuring consistency across data and privacy standards.  While the government has set out a number of recommendations to address this, including the ‘2020 National Data Strategy’ and the ‘2022 to 2025 Roadmap for Digital and Data’, feedback from stakeholders suggests that many practical barriers to implementation remain.  また、公共部門間でのデータの共有や連携も限られており、公共サービスを向上させるための革新的な方法を開発する政府の能力を妨げている。政府のデータセットの統合を改善することは、政策立案を改善する可能性があるだけでなく、データ基準やプライバシー基準の一貫性を確保するなど、民間企業がこれらの情報に安全にアクセスすることを容易にする可能性がある。 政府は、「2020年国家データ戦略」や「2022年から2025年までのデジタルとデータのためのロードマップ」など、この問題に取り組むための多くの提言を打ち出しているが、関係者からのフィードバックによると、実施には多くの現実的な障壁が残っているようである。
Recommendation 3: Facilitate greater industry access to public data, and prioritise wider data sharing and linkage across the public sector, to help deliver the government’s public services transformation programme.  提言3:政府の公共サービス変革プログラムの実現を支援するため、公共データへの産業界のアクセスを促進し、公共部門全体でより幅広いデータの共有と連携を優先させる。
The AI industry can play a key part in helping to deliver the transformations to the top 75 public services as set out in the 2022-25 Roadmap – and access to the necessary data will be an essential part of that process. The government should identify the most pressing of these challenges and run a competitive process to seek innovative, data driven ideas from industry to deliver the Roadmap.  As part of this competition, the government should establish a process to allow the rapid provision of data in selected areas, in the form of reusable verifiable credentials and ensure appropriate access to data sets that can realise commercial value opportunities. Ongoing public engagement and involvement on the use of data will be key.   AI産業は、2022-25年ロードマップに示された上位75の公共サービスに対する変革の実現を支援する上で重要な役割を果たすことができ、必要なデータへのアクセスはそのプロセスにおいて不可欠な部分となる。政府は、これらの課題のうち最も差し迫ったものを特定し、ロードマップを実現するための革新的でデータ駆動型のアイデアを産業界から求める競争プロセスを実施する必要がある。 この競争の一環として、政府は、特定分野のデータを再利用可能な検証可能な証明書の形で迅速に提供できるプロセスを確立し、商業的価値の機会を実現できるデータセットへの適切なアクセスを確保する必要がある。データの使用に関する継続的な国民の関与と参加が鍵となる。 
The Government should also consider the potential use of other privacy enhancing technologies or data intermediaries to provide efficient, lower risk options for data exchange. The lessons learnt from this process around the type and detail of public data that industry finds most valuable should inform further work on the government’s open data strategy. In parallel, government departments should prioritise further data sharing and linkage across departmental boundaries to support policy development and public services transformation, using platforms such as the ONS’ Integrated Data Service to make data available to a wider number of analysts and researchers on a consistent and repeatable basis.  政府は、データ交換のための効率的でリスクの低い選択肢を提供するために、他のプライバ シー向上技術やデータ仲介者を利用する可能性も検討すべきである。産業界が最も価値を見出す公共データの種類と詳細について、このプロセスから学んだ教訓は、政府のオープンデータ戦略に関するさらなる作業に反映されるべきである。これと並行して、政府部門は、政策立案や公共サービスの変革を支援するために、部門間の垣根を越えたデータ共有や連携を進めることを優先すべきであり、ONSの統合データサービスなどのプラットフォームを利用して、より多くの分析者や研究者が一貫して繰り返し利用できるデータを提供する。
Transport  輸送 
The transport sector globally is undergoing substantial technological transformation. UK regulatory frameworks must keep pace to enable real world testing and deployment of various automated transport applications - including self-driving cars, autonomous shipping, and drones. The Department for Transport’s proposed package of reforms to address some of this, developed through extensive consultation with industry, is set out in the Future of Transport Bill.  輸送部門は、世界的に大幅な技術的変革が進んでいる。英国の規制枠組みは、自動運転車、自律型船舶、ドローンなど、さまざまな自動化輸送アプリケーションの実世界でのテストと展開を可能にするため、歩調を合わせる必要がある。運輸省は、産業界との広範な協議を通じて開発した、この一部に対処するための改革パッケージを提案し、「運輸の未来法案」で定めている。
Recommendation 4: The government should bring forward the Future of Transport Bill to unlock innovation across automated transport applications.  提言4:政府は、自動輸送アプリケーション全体のイノベーションを解放するために、交通機関の未来法案を提出すべきである。
We recommend allocating Parliamentary time for the passage of the Future of Transport Bill in the Fourth Session, starting in the Autumn, which would send a strong signal of intent and pave the way for regulatory clarity.  我々は、秋に始まる第4会期において、交通未来法案の可決のために国会時間を割り当てることを推奨する。これは、強い意思表示を行い、規制の明確化への道を開くことになる。
The government should continue to prioritise efforts to deliver effective regulation for commercialisation and scale-up. A good example of the progress the government has made in this area includes the new Future Mobility testbed project in the West Midlands, which will provide over 180 miles of roads, the largest area in the UK, for developing the next generation of connected autonomous road vehicles. By deploying concepts in a living environment, and using advanced facilities and services, organisations can understand how their technology is perceived and how it tackles real world challenges, speeding up research and development processes and demonstrating commercial viability.  政府は、商業化とスケールアップのための効果的な規制を実現するための努力を引き続き優先すべきである。この分野での政府の進捗状況を示す好例として、ウェスト・ミッドランズで新たに実施される輸送の未来テストベッドプロジェクトがある。このプロジェクトでは、次世代の接続型自律走行車の開発に、英国最大の面積である180マイル以上の道路が提供される予定だ。生活環境の中でコンセプトを展開し、先進的な施設やサービスを利用することで、企業は自社の技術がどのように受け止められ、現実世界の課題にどのように取り組んでいるかを理解し、研究開発プロセスのスピードアップと商業的実現可能性を実証することができる。
Further recommendations  さらなる提言
In addition to the above headline recommendations, the review has identified a series of specific, short-term actions the government can take to improve the regulatory landscape across a range of emerging technologies that can deliver significant economic growth, including drones, cyber security, and space and satellite technologies.  上記の主要な提言に加え、レビューでは、ドローン、サイバーセキュリティ、宇宙・衛星技術など、大きな経済成長をもたらすことができるさまざまな新興技術について、規制の状況を改善するために政府が取ることができる一連の具体的かつ短期的な行動を特定した。
Drones  ドローン 
The drone sector alone is predicted to save UK businesses an estimated £22bn a year by 2030, and contribute £45bn to the UK economy (1.6% of projected GDP). Regulatory risk aversion constrains the use of drones, despite their potential to reduce costs, deliver new services and reduce risk to human life. Further recommendations to unlock the innovation potential of the drone sector include:  ドローン分野だけで、2030年までに英国企業は年間220億ポンドを節約し、英国経済に450億ポンド(予測GDPの1.6%)貢献すると予測されている。ドローンは、コスト削減、新サービスの提供、人命へのリスク低減の可能性があるにもかかわらず、規制によるリスク回避がドローンの利用を制約している。ドローン分野のイノベーションの可能性を引き出すためのさらなる提言は以下の通り。
•       The government should work with the CAA to establish an operating standard for drones, moving away from relying on operators to prove they are safe.   ・ 政府は、CAAと協力してドローンの運用基準を確立し、安全性の証明をオペレーターに依存することから脱却する必要がある。
•       The government should empower the CAA to better regulate the use of remotely piloted air systems (including drones and unmanned aerial vehicles) beyond visual line of sight. This should include the establishment of publicly owned test sites, developed in partnership with industry and other bodies to meet specific industry needs.   ・政府は、CAAに権限を与えて、目視外での遠隔操縦航空システム(ドローンや無人航空機を含む)の利用をより適切に規制する必要がある。これには、特定の業界のニーズを満たすために、業界やその他の団体と協力して開発された公有地の試験場の設立を含めるべきである。 
•       Ofcom/CAA regulation on radio communications should be amended to allow the use of UAVs/Drones/High-altitude platform station (HAPS) systems to act as radio repeaters. This would allow novel applications to provide temporary or permanent radio coverage and ubiquity of service in rural locations, and would benefit consumers in terms of access to high-speed broadband by communication service providers (CSPs).  ・無線通信に関するOfcom/CAA規制を改正し、UAV/ドローン/高高度プラットフォーム局(HAPS)システムを無線中継器として使用できるようにすべきである。これにより、地方における一時的または恒久的な無線カバレージとユビキタスサービスを提供する斬新なアプリケーションが可能になり、通信サービスプロバイダー(CSP)による高速ブロードバンドへのアクセスという点でも消費者に利益をもたらすだろう。
Case Study C: Managing Risk with Drones – the Swiss Model  ケーススタディC:ドローンでリスクマネジメント-スイスモデル 
In the UK, the Civil Aviation Authority (CAA)’s overriding objective is aviation safety, which is built around certified aircraft and human contact with pilots. There is currently underdeveloped drone operating standards in the UK, despite their potential to reduce costs and deliver new services.  英国では、民間航空局(CAA)の最優先目的は航空安全であり、認証された航空機とパイロットの人的接触によって成り立っている。ドローンはコスト削減や新しいサービスを提供する可能性があるにもかかわらず、英国では現在、ドローンの運用基準が未整備である。
Switzerland has been a world leader in shaping regulatory frameworks for drones authorisations. Through the Joint Authorities for Rulemaking on Unmanned Systems (JARUS) Working Group on Safety and Risk Management, the Swiss Federal Office of Civil Aviation (FOCA) has been leading the development of the Specific Operations Risk Assessment (SORA). SORA is a 10-step methodology to identify the risk of drone operations which require a permit, classifying the risk posed by a drone flight in the specific category of operations and for the identification of mitigations and safety objectives. This approval method for drone operations is allowing repeatable and scalable drone technology deployments globally and has allowed many startups to enter the market at low cost while meeting high safety standards[3].  スイスは、ドローンの認可に関する規制の枠組みを形成する上で、世界のリーダー的存在となっている。スイス連邦航空局(FOCA)は、無人システムに関する規則制定共同機関(JARUS)の安全およびリスクマネジメントに関するワーキンググループを通じて、特定運用リスク評価(SORA)の開発を主導してきました。SORAは、許可を必要とするドローン運航のリスクを特定するための10ステップの手法で、ドローン飛行がもたらすリスクを特定の運航カテゴリーに分類し、緩和策や安全目標を特定するためのものである。このドローン運航の承認方法は、世界的に再現性と拡張性のあるドローン技術の展開を可能にし、多くのスタートアップ企業が高い安全基準を満たしつつ、低コストで市場に参入することを可能にしている[3]。
In December 2022, the CAA announced its intention to adopt an amended version of the SORA as the mechanism for assessing risk when authorising more complex unmanned aircraft systems at scale. [4]  2022年12月、CAAは、より複雑な無人航空機システムを大規模に認可する際のリスク評価の仕組みとして、SORAの修正版を採用する意向を発表した。[4] 
Data  データ 
In addition to our headline recommendation on public sector data access, the ICO should update its guidance to clarify when an organisation is a controller, joint controller or processor for processing activities relating to AI as a service (AIaaS). This should include guidance on when providers can reuse personal information for improving their models. The current regime is burdensome for consumers and creates disincentives to providing data.  公共部門のデータアクセスに関する我々の主要な提言に加えて、ICOは、組織がAI as a Service(AIaaS)に関連する処理活動の管理者、共同管理者、または処理者になる場合を明確にするためにガイダンスを更新するべきである。これには、プロバイダーがそのモデルを改善するために個人情報を再利用できる場合についてのガイダンスも含まれるはずである。現在の制度は、消費者にとって負担が大きく、データ提供の阻害要因となっている。
Space and satellite technologies  宇宙・衛星技術 
The global space market is expected to more than double in size over the next 10 years, with an estimated value of £490 billion by 2030[5]. A 2022 study found that the UK space industry contributed £6.9 billion of direct gross value added (GVA) - equivalent to 0.31% of UK GDP – and £15.8 billion total GVA across the supply chain[6]. The UK is well positioned globally in the small satellite market, with the government’s ambition for the UK to become the leading provider of commercial small satellite launches in Europe by 2030[7] 世界の宇宙市場は今後10年間で2倍以上に拡大し、2030年には4,900億ポンドになると予想されている[5]。2022年の調査では、英国の宇宙産業は、英国GDPの0.31%に相当する69億ポンドの直接付加価値(GVA)、およびサプライチェーン全体で158億ポンドの総GVAに貢献していることが判明した[6]。英国は小型衛星市場において世界的に有利な立場にあり、政府は2030年までに英国が欧州における商業小型衛星打ち上げの主要プロバイダーになるという野望を抱いている[7]。
However, industry reports that specific regulatory constraints – in particular the Space Act 2018’s liability and indemnity requirements around the granting of licences to launch  satellites commercially in the UK – are viewed as disincentivising investment, with the potential to make the UK uncompetitive[8].  しかし、業界での報告によると、特定の規制上の制約、特に宇宙法2018の、英国で商業的に衛星を打ち上げるライセンスの付与に関する責任と補償の要件は、英国を競争力のない国にする可能性があり、投資を阻害するものとみなされていると報告している[8]。
In line with the Commons Science and Technology Select Committee’s recommendation in their report on the UK space strategy and UK satellite infrastructure[9], government should implement a variable liability approach to granting licences by June 2023. This would reduce cost and time delays for companies seeking launch licences for small spacecraft in particular, making the UK space sector a more attractive location for investment.  コモンズ科学技術特別委員会の英国宇宙戦略および英国衛星インフラに関する報告書[9]の提言に沿って、政府は2023年6月までにライセンス付与に可変責任方式を導入すべきである。これにより、特に小型宇宙船の打ち上げライセンスを求める企業のコストと時間の遅れが軽減され、英国の宇宙部門がより魅力的な投資先となるであろう。
Cyber security  サイバーセキュリティ 
We recommend amending the Computer Misuse Act 1990 to include a statutory public interest defence that would provide stronger legal protections for cyber security researchers and professionals, and would have a catalytic effect on innovation in a sector with considerable growth potential. The Home Office is launching a consultation on how to deliver this change. A July 2022 DCMS data breaches survey found that in the preceding year, 39% of businesses reported a cybersecurity breach or attack[10]. This figure illustrates the gravity of the threat such attacks pose to our economic and national security. However, under the Act, professionals conducting legitimate cybersecurity research in the public interest currently face the risk of prosecution if they attempt to access a computer or computer material without obtaining the necessary authorisation. Countries such as France, Israel, and the United States have already updated their regulations to provide this defence. For the UK’s cyber industry to compete on a level playing field, the UK government should do the same.  これは、サイバーセキュリティの研究者や専門家により強力な法的保護を提供し、大きな成長の可能性を持つこの分野のイノベーションに触媒的効果をもたらすだろう。内務省は、この変更を実現する方法についてコンサルテーションを開始する。2022年7月のDCMSのデータ侵害調査によると、前年には39%の企業がサイバーセキュリティの侵害や攻撃を報告していた[10]。この数字は、このような攻撃が経済および国家安全保障にもたらす脅威の重大さを示している。しかし、この法律では、公益のために合法的なサイバーセキュリティ研究を行う専門家が、必要な権限を得ずにコンピュータやコンピュータ資料にアクセスしようとした場合、訴追のリスクに直面するのが現状である。フランス、イスラエル、米国などの国々は、すでにこの防衛策を提供するために規制を更新している。英国のサイバー産業が同じ土俵で競争するためには、英国政府も同じことをすべきである。
Looking ahead to newly emerging technologies  新たに登場する技術に期待する 
In compiling this report we have engaged extensively across the digital economy.  One message that comes across clearly from industry is that the government should avoid regulating emerging digital technologies too early, to avoid the risk of stifling innovation. We therefore recommend that the government and regulators should continue to engage with industry on issues around safety, risk and benefits of innovation, and that the government and regulators should rapidly build capability and know-how to enable them to positively shape regulatory frameworks at the right time. Upcoming government strategies, including the Quantum Strategy, Semiconductor Strategy, and the Emerging Technologies Review provide an opportunity for the government to signal its commitment to a strategic, long-term vision to support emerging digital technologies.  この報告書をまとめるにあたり、私たちはデジタル経済全体に広く関与してきた。 産業界から明確に伝わってくるメッセージは、イノベーションを阻害するリスクを回避するために、政府は新興のデジタル技術を早期に規制することを避けるべきだというものである。したがって、政府および規制当局は、安全性、リスク、イノベーションのメリットに関する問題について産業界との対話を続けるべきであり、政府および規制当局は、適切な時期に規制の枠組みを積極的に形成できるように、能力とノウハウを迅速に構築すべきであると提言する。量子戦略、半導体戦略、新興技術レビューなど、今後予定されている政府戦略は、新興デジタル技術を支援するための戦略的かつ長期的なビジョンに対する政府のコミットメントを表明する機会を提供する。

 

[1] Department for Digital, Culture, Media and Sport (DCMS) (2022) UK tech sector retains #1 spot in Europe and #3 in world as sector resilience brings continued growth:  [1] デジタル・文化・メディア・スポーツ省(DCMS)(2022年)英国のハイテク部門が欧州1位、世界3位を維持、部門のレジリエンスが継続的成長をもたらす: 
https://www.gov.uk/government/news/uk-tech-sector-retains-1-spot-in-europe-and-3-in-world-assector-resilience-brings-continued-growth 
[2] DCMS (2021) Digital Regulation: Driving growth and unlocking innovation:  [2] DCMS (2021) Digital Regulation: 成長を促進し、イノベーションを解き放つ:
https://www.gov.uk/government/publications/digital-regulationdriving-growth-and-unlocking-innovation 
[3] Switzerland Global Enterprise (2022) Switzerland – at the forefront of drone technology:  [3] スイス グローバルエンタープライズ(2022年) スイス - ドローン技術の最前線 
https://www.sge.com/sites/default/files/publication/free/factsheet-drones-switzerland-s-ge-en-2022.pdf 
[4] Civil Aviation Authority (2022) Scalable beyond visual line of sight operations: Our plan to enable scalable beyond visual line of sight operations:  [4] 民間航空局(2022年)スケーラブルな目視外運用を可能にする。スケーラブルな目視外運用を可能にするための我々の計画 
https://www.caa.co.uk/drones/rules-and-categories-of-drone-flying/scalable-beyond-visual-line-of-sight-operations/ 
[5] Department for Business, Energy & Industrial Strategy (BEIS), Ministry of Defence (MoD), UK Space Agency (2022) National space strategy:  [5] ビジネス・エネルギー・産業戦略省(BEIS)、国防省(MoD)、英国宇宙庁(2022) 国家宇宙戦略: 
https://www.gov.uk/government/publications/national-space-strategy/national-space-strategy 
[6] UK Space Agency (2022) Size and Health of the UK Space Industry 2021:   [6] 英国宇宙庁(2022年) 英国宇宙産業の規模と健全性 2021年:
https://www.gov.uk/government/publications/the-size-andhealth-of-the-uk-space-industry-2021/size-and-health-of-the-uk-space-industry-2021
[7] BEIS, MoD, UK Space Agency (2022) National Space Strategy:  [7] BEIS, MoD, UK Space Agency (2022) National Space Strategy: 
https://www.gov.uk/government/publications/national-space-strategy
[8] Taskforce on Innovation, Growth and Regulatory Reform (2021) Report:  [8] イノベーション、成長、規制改革に関するタスクフォース(2021年)報告書: 
https://www.gov.uk/government/publications/taskforce-oninnovation-growth-and-regulatory-reform-independent-report 
[9] Science and Technology Select Committee, UK space strategy and UK satellite infrastructure (HC 2022-23 100) paras 76-78:   [9] 科学技術特別委員会、英国宇宙戦略および英国衛星インフラ(HC 2022-23 100)パラ 76-78: 
https://publications.parliament.uk/pa/cm5803/cmselect/cmsctech/100/summary.html
[10] DCMS (2022) Cyber security breaches survey 2022:  [10] DCMS (2022) サイバーセキュリティ侵害調査2022: 
https://www.gov.uk/government/statistics/cyber-security-breaches-survey-2022

 

 

・[PDF] HM Government Response to Sir Patrick Vallance’s Pro-Innovation Regulation of Technologies Review

20230320-63415

 

HM Government Response to Sir Patrick Vallance’s Pro-Innovation Regulation of Technologies Review Digital Technologies  サー・パトリック・バランスの「Pro-Innovation Regulation of Technologies Review デジタル技術」に対するHM政府の回答 
Mar-23 2023.03
Contents  目次 
Introduction 序文
Response to recommendations 提言への対応
Recommendation 1 – multi-regulator AI sandbox 提言1-マルチレギュレーターAIサンドボックス
Recommendation 2 – generative AI 提言2~生成型AI
Recommendation 3 – public data 提言3「公開データ
Recommendation 4 – Future of Transport Bill 提言4「交通法案の行方
Recommendation 5 – drones 提言5「ドローン
Recommendation 6 – AI as a service 提言6「サービスとしてのAI
Recommendation 7 – space liability 提言7「スペース・ライアビリティ
Recommendation 8 – cyber security 提言8「サイバーセキュリティ
Recommendation 9 – broad approach 提言9-幅広いアプローチ
Introduction  序文 
At Autumn Statement 2022, the Chancellor announced a programme of work to advise how the UK can better regulate emerging technologies, enabling their rapid and safe introduction.  2022年秋の首相声明で、首相は、英国が新興技術をよりよく規制し、迅速かつ安全に導入できるようにする方法を助言する作業プログラムを発表した。
The aim of this review is to establish the UK as the best regulated economy in the world in key growth sectors ensuring that industry and investors have the certainty then need to drive innovation, investment and growth through anticipating new developments in emerging technologies.  この見直しの目的は、主要な成長分野において、英国が世界で最も優れた規制を受ける経済国になることであり、産業界と投資家が、新興技術の新たな発展を予測し、イノベーション、投資、成長を促進するために必要な確実性を確保することである。
This work has been led by Sir Patrick Vallance, the Government Chief Scientific Adviser and National Technology Adviser.   この作業は、政府の最高科学顧問兼国家技術顧問であるパトリック・バランス卿が主導している。 
This report, covering Digital Technologies, is the first report to be published from this work programme.   デジタル技術を取り上げた本報告書は、この作業プログラムから発表される最初の報告書である。 
Two leading experts – Priya Lakhani and Matt Clifford – supported Sir Patrick Vallance for this Digital Technologies report, working hand-in-hand with industry to identify any barriers to innovation and getting emerging technologies to market. The government is grateful to them for their comprehensive work to inform this report.  このデジタル技術に関する報告書では、Priya LakhaniとMatt Cliffordの2人の専門家が、パトリック・バランス卿を支援し、産業界と協力しながら、イノベーションと新興技術の市場投入を阻む障壁を特定した。政府は、この報告書に情報を提供するための包括的な作業を行った彼らに感謝している。
Response to recommendations  提言への対応 
1. The government is grateful to Sir Patrick for this report into the regulation of emerging digital technologies. The UK has long been a leading location for digital and tech companies to innovate and do business. However, this report highlights that there are areas where we can further ensure that the UK’s regulatory environment enables innovation and a thriving digital economy. From better regulating the applications of AI, to promoting openness of public data and accelerating legislation to bring forward the future of transport, Sir Patrick’s report presents ambitious ideas to unlock progress. The government accepts all of the report’s recommendations and sets out how we propose to implement them in practice as detailed below.  1. 政府は、パトリック卿が新興デジタル技術の規制について本報告書を作成してくれたことに感謝する。英国は、長年にわたり、デジタル・テクノロジー企業がイノベーションを起こし、ビジネスを展開するための主要な場所となっている。しかし、この報告書は、英国の規制環境がイノベーションとデジタル経済の繁栄を可能にすることを、さらに確実にできる分野があることを強調している。AIの応用をより良く規制することから、公共データのオープン化を促進し、交通の未来を前進させるための法整備を加速させることまで、パトリック卿の報告書は、進歩を解き放つための意欲的なアイデアを提示している。政府は、報告書のすべての提言を受け入れ、以下に詳述するように、それらを実際にどのように実施することを提案するかを示している。
Recommendation 1 – multi-regulator AI sandbox  提言1 - 複数の規制当局によるAIサンドボックス 
Government should work with regulators to develop a multi-regulator sandbox for AI to be in operation within the next six months.  政府は規制当局と協力し、今後6ヶ月以内に運用を開始するAIの複数規制当局によるサンドボックスを開発すべきである。
Response  回答 
2.  Innovators can often face regulatory challenges in getting new, cutting-edge products to market. This is particularly true when a technology’s path to market requires interaction with multiple regulators, or when regulatory guidance is emergent. Regulatory sandboxes provide a space for innovators to test their new ideas and work with regulators on the application of regulatory frameworks.   2. イノベーターは、最先端の新製品を市場に投入する際に、しばしば規制上の問題に直面することがある。特に、ある技術が市場に出るまでに複数の規制当局とのやり取りが必要な場合や、規制の指針が未確立の場合は、その傾向が顕著である。レギュラトリーサンドボックスは、イノベーターが新しいアイデアを試し、規制当局と協力して規制の枠組みの適用に取り組むためのスペースを提供する。 
3.  The government will engage regulators, including the Digital Regulation Cooperation Forum, immediately, to prepare for the launch of a new sandbox based on the features and principles set out in the Vallance Review. More detail will be provided alongside the launch of the AI White Paper in the coming weeks.  3. 政府は、デジタル規制協力フォーラムを含む規制当局を直ちに関与させ、Vallance Reviewで示された特徴や原則に基づく新しいサンドボックスの立ち上げに備えることになる。より詳細な内容は、今後数週間のAI白書の発表と並行して提供される予定である。
Recommendation 2 – generative AI  提言2-生成AI 
Government should announce a clear policy position on the relationship between intellectual property law and generative AI to provide confidence to innovators and investors.  政府は、イノベーターや投資家に信頼を与えるため、知的財産法と生成AIの関係について明確な政策的立場を発表すべきである。
Response  回答 
4.  Sir Patrick rightly highlights the need for regulatory certainty to unlock the huge potential of AI. The government will act at pace to provide clarity in relation to the application of intellectual property law to the AI sector.   4. パトリック卿は、AIの巨大な可能性を引き出すために、規制の確実性が必要であることを正しく強調している。政府は、AI分野への知的財産法の適用に関する明確性を提供するために、ペースを上げて行動していく。 
5.  To support this, the Intellectual Property Office (IPO) will produce a code of practice by the summer which will provide guidance to support AI firms to access copyrighted work as an input to their models, whilst ensuring there are protections (e.g. labelling) on generated output to support right holders of copyrighted work. To inform the code of practice, the IPO will convene a group of AI firms and rights holders to identify barriers faced by users of data mining techniques when accessing copyright materials. An AI firm which commits to the code of practice can expect to be able to have a reasonable licence offered by a rights holder in return.  5. これを支援するため、知的財産庁(IPO)は夏までに実践規範を作成し、AI企業がモデルへの入力として著作物にアクセスすることを支援する一方、著作物の権利者を支援するために生成された出力に保護(ラベル付けなど)があることを保証するための指針を示す予定である。実践規範に情報を提供するため、IPOはAI企業と権利者のグループを招集し、データマイニング技術の利用者が著作物にアクセスする際に直面する障壁を特定する予定である。実践規範にコミットするAI企業は、その見返りとして、権利者から合理的なライセンスを提供されることを期待できる。
6.  The government believes that the involvement of both the AI and creative sectors will ensure the creation of a balanced and pragmatic code of practice that will enable both sectors to grow in partnership. However, this may be followed up with legislation, if the code of practice is not adopted or agreement is not reached.  6. 政府は、AIとクリエイティブの両セクターが関与することで、両セクターが連携して成長できるような、バランスの取れた実用的な実践規範を作成することができると考えている。ただし、実践規範が採用されなかったり、合意に至らなかったりした場合には、これに続いて法整備を行う可能性がある。
7.  The Intellectual Property Office will also take forward the recommendations in relation to enforcement: providing guidance to AI firms (by the summer); coordinating intelligence on any systematic copyright infringement; and encouraging the development of AI tools which assist with enforcement.  7. 知的財産局は、エンフォースメントに関連する提言も実施する。AI企業へのガイダンスの提供(夏まで)、組織的な著作権侵害に関する情報の調整、エンフォースメントを支援するAIツールの開発の奨励。
Recommendation 3 – public data  提言3 - 公共データ 
Government should facilitate greater industry access to public data, and prioritise wider data sharing and linkage across the public sector, to help deliver the government’s public services transformation programme.  政府は、政府の公共サービス変革プログラムの実現を支援するために、公共データへの産業界のアクセスを促進し、公共部門全体でより広範なデータ共有と連携を優先させるべきである。
Response  回答 
8.  The government is committed to playing its part to unleash the power of data for innovation across the UK, supporting stronger growth, better jobs and bold discoveries. As part of this commitment, government will work at pace to transform 50 of the top 75 public services by 2025, working with innovators from industry.   8. 政府は、英国全体のイノベーションのためにデータの力を解き放ち、より強い成長、より良い仕事、大胆な発見を支援するために、その役割を果たすことを約束する。このコミットメントの一環として、政府は、産業界のイノベーターと協力しながら、2025年までに上位75の公共サービスのうち50を変革するためにペースを上げて取り組んでいく。 
9.  Furthermore, recognising that one of the challenges is knowing what data is held where, government has already committed to delivering a Data Marketplace by 2025, to provide a single front door for government users to discover public sector data. Going further, and recognising the potential value of the Marketplace beyond government, we will explore how this could be expanded over the next 12 months to make public sector data accessible to industry and other external groups, including the legislative arrangements relating to open public data and aspects such as licensingtype agreements, so as to maximise public and economic value.   9. さらに、政府は、どのようなデータがどこに保管されているかを知ることが課題の一つであることを認識し、2025年までにデータマーケットプレイスを提供し、政府ユーザーが公共部門のデータを発見するための単一のフロントドアを提供することを既に約束している。さらに、政府を超えたマーケットプレイスの潜在的な価値を認識し、公共的・経済的価値を最大化するために、オープンな公共データに関する法整備やライセンス型契約などの側面を含め、公共部門のデータを産業やその他の外部グループがアクセスできるように、今後12ヶ月間でこれを拡大できる方法を探る。 
10.                    In parallel, the government will continue to support the delivery of the Office for National Statistics' (ONS) Integrated Data Service as the single data analysis and dissemination platform in Government, with the Full Public Beta version due by 31 March 2023. Departments will engage with the ONS to agree data sharing arrangements with the Integrated Data Service to make public sector data available to analysts across government.    10. これと並行して、政府は、政府における単一のデータ分析・普及プラットフォームとして、国家統計局(ONS)の統合データサービスの提供を引き続き支援し、2023年3月31日までに完全公開ベータ版を提供する予定である。各省庁は、公共部門のデータを政府全体のアナリストが利用できるようにするため、統合データサービスとのデータ共有の取り決めに合意するために、ONSと協力する。 
Recommendation 4 – Future of Transport Bill  提言4-交通法案の将来 
The government should bring forward the Future of Transport Bill to unlock innovation across automated transport applications.  政府は、自動化された輸送アプリケーション全体のイノベーションを解き放つために、輸送の未来法案を前倒しで提出すべきである。
Response  回答 
11. The Review shows how AI and data underpin important technologies such as self-driving vehicles. The government is committed to bringing forward this legislation when parliamentary time allows. The legislation will enable innovation in transport that benefits transport users and drives growth, investment and jobs across the UK. In the coming weeks we are publishing our government response to the Future of Transport Regulatory Review consultation which sets out our next steps to remove barriers to innovation in transport technologies. In August 2022 we published the Connected & Automated Mobility 2025 paper, setting out a vision and proposals for realising the societal and commercial benefits of self-driving vehicles.  11. 本レビューは、AIとデータが自動運転車などの重要な技術をいかに支えているかを示している。政府は、議会の時間が許す限り、この法案を提出することを約束する。本法案は、交通利用者に利益をもたらし、英国全体の成長、投資、雇用を促進する交通のイノベーションを可能にするものである。今後数週間のうちに、交通技術の革新に対する障壁を取り除くための次のステップを示す「Future of Transport Regulatory Review」コンサルテーションに対する政府回答を発表する。2022年8月には、自動運転車の社会的・商業的利益を実現するためのビジョンと提案を示した「Connected & Automated Mobility 2025」ペーパーを発表した。
Recommendation 5 – drones  提言5 - ドローン 
The government should work with the Civil Aviation Authority (CAA) to establish an operating standard for drones, moving away from relying on operators to prove they are safe.  政府は、民間航空局(CAA)と協力して、ドローンの運用基準を確立し、安全性を証明することをオペレーターに頼ることから脱却すべきである。
The government should empower the CAA to better regulate the use of remotely piloted air systems (including drones and unmanned aerial vehicles) beyond visual line of sight. This should include the establishment of publicly owned test sites, developed in partnership with industry and other bodies to meet specific industry needs.  政府は、CAAに権限を与えて、目視外での遠隔操縦航空システム(ドローンや無人航空機を含む)の使用をより適切に規制すべきである。これには、特定の業界のニーズを満たすために、業界や他の団体と協力して開発された公有地の試験場の設立を含めるべきである。
Ofcom/CAA regulation on radio communications should be amended to allow the use of UAVs/Drones/High-altitude platform station (HAPS) systems to act as radio repeaters. This would allow novel applications to provide temporary or permanent radio coverage and ubiquity of service in rural locations, and would benefit consumers in terms of access to high-speed broadband by communication service providers (CSPs).  無線通信に関するOfcom/CAA規制を改正し、UAV/ドローン/高高度プラットフォーム局(HAPS)システムを無線中継器として使用できるようにすべきである。これにより、地方における一時的または恒久的な無線カバレージとユビキタスサービスを提供する新しいアプリケーションが可能になり、通信サービスプロバイダー(CSP)による高速ブロードバンドへのアクセスという点で、消費者に利益をもたらすであろう。
Response  回答 
12.                    Government believes that drones can provide significant benefits to the UK, and we agree with the recommendations of the report.  Through our Department for Transport led Future of Flight programme, we are currently taking forward these recommendations, including through:   12. 政府は、ドローンが英国に大きな利益をもたらすことができると考えており、報告書の提言に同意している。 運輸省主導のFuture of Flightプログラムを通じて、現在、以下を含むこれらの提言を進めている。 
12.1                Establishing a Future of Flight Industry Group (FFIG) to ensure Government and industry are working in partnership to unlock the potential on drones. The FFIG will meet for the first time in March and will be co-chaired by the Aviation Minister. The FFIG includes key UK Future of Flight companies including drone operators and will co-create a Future of Flight Plan for publication by the end of the year.   12.1 政府と産業界がドローンの可能性を引き出すために連携していることを確認するため、Future of Flight Industry Group(FFIG)を設立する。FFIGは3月に初会合を開き、航空大臣が共同議長を務める予定である。FFIGには、ドローン事業者を含む英国のFuture of Flightの主要企業が参加しており、年末までにFuture of Flight Planを共同作成し、公表する予定である。 
12.2                Working with the CAA to help it focus on developing regulation at pace for new forms of aviation technologies including drones. The report recommends that the CAA establish an operating standard for drones: Whilst safety of drone operations remains paramount, we will encourage the CAA to implement the Specific Operations Risk Assessment (SORA) in the next financial year, a standardised and risk-based approach for classifying specific category drone operations.  12.2 CAAがドローンを含む新しい形態の航空技術に対するペースに合わせた規制の整備に注力できるよう、CAAと協力する。報告書は、CAAがドローンの運用基準を確立することを提言している。ドローン運航の安全性が最も重要であることに変わりはないが、我々はCAAに対し、特定のカテゴリーのドローン運航を分類するための標準化されたリスクベースのアプローチである特定運航リスク評価(SORA)を次会計年度に実施するよう働きかける予定である。
12.3                Funding and supporting the Future Flight Challenge which is accelerating the progress of new aviation technologies through funding 17 innovative projects that bring together diverse stakeholders around public good use cases, as well as developing the Future of Flight ecosystem. Example projects include:    12.3 Future Flight Challengeへの資金提供および支援:Future Flight Challengeは、Future of Flightエコシステムの開発だけでなく、公共性の高いユースケースを中心に多様なステークホルダーを結集する17の革新的プロジェクトへの資金提供を通じて、新しい航空技術の進歩を加速させる。プロジェクトの例は以下の通りである。 
12.3.1           CAELUS 2 which aims to showcase the operation of a network of multiple electric drones for the distribution of medical products and medicines across Scotland.   12.3.1 CAELUS 2:スコットランド全域で医療品や医薬品を配布するための複数の電動ドローンのネットワークの運用を紹介することを目的としています。 
12.3.2           InDePTH which will use drones to regularly survey wide infrastructure estates including ports and highways.  12.3.2 InDePTH:港湾や高速道路を含む広範なインフラを定期的に調査するために、ドローンを使用する予定。
12.4                Government will also work with Ofcom and the CAA, the independent regulators, on considerations for the potential use of UAVs/Drones/HAPs as radio repeaters.  12.4 政府は、UAV/ドローン/HAPを無線中継器として利用する可能性についての検討についても、独立規制当局であるOfcomおよびCAAと連携する。
Recommendation 6 – AI as a service  提言6 - サービスとしてのAI 
The Information Commissioner’s Office (ICO) should update its guidance to clarify when an organisation is a controller, joint controller or processor for processing activities relating to AI as a service (AIaaS). This should include guidance on when providers can reuse personal information for improving their models.  情報コミッショナー事務所(ICO)は、AI as a Service(AIaaS)に関連する処理活動において、組織がコントローラー、共同コントローラー、プロセッサーとなる時期を明確にするためにガイダンスを更新する必要があります。これには、プロバイダーがそのモデルを改善するために個人情報を再利用できる場合についてのガイダンスも含まれるべきである。
Response  回答 
13. Government agrees with this recommendation in principle, whilst recognising that the ICO - an independent regulator with responsibility for this area - is best placed to determine how this recommendation should be taken forwards.  13. 政府は、この勧告に原則的に同意するが、この分野に責任を持つ独立した規制当局であるICOが、この勧告をどのように進めるべきかを決定するのに最も適した立場にあることを認識する。
Recommendation 7 – space liability  勧告 7 - 宇宙の責任 
In line with the Commons Science and Technology Select Committee’s recommendation in their report on the UK space strategy and UK satellite infrastructure, government should implement a variable liability approach to granting licences by June 2023.  コモンズ科学技術特別委員会の英国宇宙戦略および英国衛星インフラに関する報告書での提言に沿って、政府は2023年6月までにライセンス付与に可変責任アプローチを導入すべきである。
Response  回答 
14.                    The government recognises the potential in the global space market and value of the Commons Science and Technology Select Committee’s work. The government confirms that this recommendation will be considered as a part of a consultation to be led by the Department for Science, Innovation and Technology.   14. 政府は、世界の宇宙市場における可能性と、コモンズ科学技術特別委員会の活動の価値を認識する。政府は、この勧告が科学技術革新省が主導する協議の一部として検討されることを確認する。 
15.                    In June 2022, the government published the response to a call for evidence on liability limits and insurance requirements for satellite operations and proposed developing a new approach to setting liability limits for satellite operators. The review recommendation was to move to a variable liability limit approach which will reflect an orbital sustainability focus.   15. 2022年6月、政府は衛星運用の責任限度額と保険要件に関する証拠募集の回答を公表し、衛星運用者の責任限度額を設定する新しいアプローチの開発を提案した。レビューの勧告は、軌道の持続可能性に重点を置くことを反映する可変責任限度額アプローチに移行することであった。 
16.                    The government is finalising its proposal on the variable limit approach, having held a number of meetings with the government/industry working group established to develop the approach. This working group consists of representation from satellite operators, insurers, academics and other space sector specialists, as well as the UK government and the Civil Aviation Authority.   16. 政府は、このアプローチを開発するために設立された政府・産業界のワーキンググループと数回の会合を開き、可変限度額アプローチに関する提案を最終的に決定している。このワーキンググループは、衛星事業者、保険会社、学者、その他の宇宙分野の専門家、英国政府、民間航空局の代表で構成されています。 
17.                    The government intends to hold a plenary session with the sector to outline the proposal on the variable limit approach at the end of March, ahead of a formal consultation on this and other liability and insurance matters in June. The intended implementation timeline for the variable limit approach is early 2024, subject to updating the approach based on feedback received through the consultation.  17. 政府は、6月にこの件とその他の賠償責任および保険に関する正式なコンサルテーションを行う前に、3月末に可変限度方式に関する提案の概要を説明するために、宇宙部門と全体会議を開催する予定である。協議を通じて得られたフィードバックに基づいてアプローチを更新することを条件として、可変限度額アプローチの意図する実施スケジュールは2024年初頭である。
18.                    The consultation will also include seeking views on viable alternatives to the current approach of operators each taking out their own individual third-party liability insurance policy.   18. また、協議には、事業者がそれぞれ個別に第三者賠償責任保険に加入するという現行の手法に代わる実行可能な選択肢についての意見も求める予定である。 
19.                    These world-first proposals will also be considered alongside the industry-led Space Sustainability mark which is currently being developed. The consultation will seek views on the benefits on insurance premiums of implementing these three ambitious proposals.   19. これらの世界初の提案は、現在策定中の業界主導の「Space Sustainability mark」とともに検討される予定である。このコンサルテーションでは、これら3つの野心的な提案を実施することによる保険料への影響について意見を求める予定である。 
20.                    The consultation will also cover updates on policy developments on a range of issues which influence the variable limit approach and wider orbital sustainability issues.   20. 協議では、可変限度額方式やより広範な軌道の持続可能性の問題に影響を与える様々な問題についての政策展開の最新情報も提供される予定である。 
Recommendation 8 – cyber security  提言8 - サイバーセキュリティ 
We recommend amending the Computer Misuse Act 1990 to include a statutory public interest defence that would provide stronger legal protections for cyber security researchers and professionals, and would have a catalytic effect on innovation in a sector with considerable growth potential.   この法律は、サイバーセキュリティの研究者や専門家に対してより強力な法的保護を提供し、大きな成長の可能性を持つこの分野のイノベーションに触媒的効果をもたらすだろう。 
Response  回答 
21. The government is committed to ensuring that we have the right legislative framework, powers and law enforcement capability to promote a secure and resilient economy and tackle the threat from cyber crime. The Home Office have a consultation live and a programme of work in the pipeline that will enable us to move forwards in considering the merits and potential risks to reform.  21. 政府は、安全でレジリエンスの高い経済を促進し、サイバー犯罪の脅威に対処するために、適切な法的枠組み、権限、法執行能力を確保することを約束します。内務省では、改革のメリットと潜在的なリスクの検討を進めることができるよう、コンサルテーションを開始し、作業プログラムを準備中である。
Recommendation 9 – broad approach  提言9 - 広範なアプローチ 
Government should avoid regulating emerging digital technologies too early, to avoid the risk of stifling innovation. We therefore recommend that the government and regulators should continue to engage with industry on issues around safety, risk and benefits of innovation, and that the government and regulators should rapidly build capability and know-how to enable them to positively shape regulatory frameworks at the right time. Upcoming government strategies, including the Quantum Strategy, Semiconductor Strategy, and the Emerging Technologies Review provide an opportunity for the government to signal its commitment to a strategic, long-term vision to support emerging digital technologies.  政府は、イノベーションを阻害するリスクを回避するため、新興のデジタル技術を早期に規制することは避けるべきである。したがって、我々は、政府および規制当局が、安全性、リスク、イノベーションの利点に関する問題について産業界と継続的に関わりを持つべきであり、政府および規制当局が適切な時期に規制の枠組みを積極的に形成できるように、能力とノウハウを迅速に構築することを提言する。量子戦略、半導体戦略、新興技術レビューなど、今後予定されている政府戦略は、新興デジタル技術を支援するための戦略的かつ長期的なビジョンに対する政府のコミットメントを表明する機会を提供する。
Response  回答 
22. Government recognises the importance of regulating at the appropriate stage in a technology’s life-cycle and, more broadly, the need to set out a long-term strategic vision to support the promotion of emerging technologies, in line with the Government’s Plan for Digital Regulation and Digital Strategy. This approach is reflected in our quantum strategy, also published today.   22. 政府は、技術のライフサイクルの適切な段階で規制を行うことの重要性を認識しており、より広くは、政府のデジタル規制計画およびデジタル戦略に沿って、新興技術の推進を支援するための長期的な戦略ビジョンを設定する必要性を認識しています。このアプローチは、同じく本日発表された当社の量子戦略にも反映されている。 

 

● ICO

・2023.03.15 ICO statement on Government response to Sir Patrick Vallance’s Pro-Innovation Regulation of Technologies Review

 

 

| | Comments (0)

2023.03.16

⽇欧産業協⼒センター 欧州デジタル政策 (Vol.4-5)

こんにちは、丸山満彦です。

一般社団法人⽇欧産業協⼒センターが、5月から2ヶ月に一度、「欧州デジタル政策」という簡単なレポートを公表しています。。。今、EUでは、デジタル市場法 (DMA) 、デジタルサービス法 (DSA) 、データ法、データガバナンス法、AI法と次々と法案が議論され、成立(デジタル市場法とデジタルサービス法は2022.07.05にEU議会で承認されています)はじめていますね。。。

このような法案が出てきている背景や、法案の概要等を簡潔にまとめていてわかりやすいです。。。

⽇欧産業協⼒センター

欧州デジタル政策

 

Vol.5 2023/01 Gaia-X, Catena-X の動向と⽇本への⽰唆
20230315-235230
Vol.4 2022/12 EU AI関連政策の動向
20230315-235111
Vol.3 2022/09 EUのデータ政策 20220923-14707
Vol.2 2022/07 EUにおけるオンライン・プラットフォーム規制(デジタル・マーケット法・デジタル・サービス法) 20220923-14646
Vol.1 2022/05 EUのデジタル政策の⽅向性 20220923-14617

法文案等へのリンクはこちら。。。

    Wiki EUR-Lex   Document
Data Act データ法 2022.02.23 COM(2022)68 final 52022PC0068
Data Governance Act データガバナンス法 2020.11.25 COM(2022)767final 52020PC0767
      2022.06.03   32022R0868
Artificial Intelligence Act AI法 2021.04.21 COM(2021) 206 final 52021PC0206
Digital Services Act デジタルサービス法 2020.12.15 COM/2020/825 final 52020PC0825
Digital Markets Act デジタル市場法 2020.12.15 COM/2020/842 final 52020PC0842

 


まるちゃんの情報セキュリティ気まぐれ日記

 

2022.09.23 ⽇欧産業協⼒センター 欧州デジタル政策 (Vol.1-3)

 

データ法

・2022.03.01 欧州委員会 データ法の提案

データガバナンス法

・2021.12.05 欧州 欧州議会とEU加盟国間でデータガバナンス法について政治的合意 (欧州データガバナンス法成立が近づきましたね。。。)

・2021.03.14 欧州データ保護委員会 (EDPB)・欧州データ保護監督官 (EDPS) データガバナンス法に関する共同意見を採択

・2020.11.29 EU データガバナンス法案

AI法

・2022.09.30 欧州委員会 AI責任指令案

・2022.09.25 英国 Ada Lovelace 協会 欧州におけるAI責任:EUのAI責任指令の先取り

・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.08.08 EU議会 BRIEFING 人工知能法 at 2021.07.26

・2021.04.24 欧州委員会がAIへの規制を提案 → 欧州データ保護官は歓迎するけど、公共空間での遠隔生体認証についての規制も入れてね

デジタルサービス法、デジタル市場法

・2022.07.20 欧州理事会 欧州連合理事会 デジタル市場法 (DMA) 案を採択

・2022.07.11 欧州議会 デジタルサービス法 (DSA) デジタル市場法 (DMA) が可決 (2022.07.05)

・2022.03.26 欧州理事会 欧州連合理事会 デジタル市場法(DMA)が理事会・欧州議会で合意されたようですね。。。

・2020.12.16 欧州委員会 デジタルプラットフォーマを規制するためのデジタルサービス法とデジタル市場法の最終提案を公表

 

 

| | Comments (0)

2023.03.14

米国商工会議所 人工知能報告書

こんにちは、丸山満彦です。

米国商工会議所が人工知能報告書を公表していますね。。。政府も民間も知見と実行力があるね。。。米国は。。。

6つの主要な要点

  1. AIの開発とAIを使ったシステムの導入は、指数関数的に伸びている。今後10年から20年の間に、事実上すべての企業や政府機関がAIを利用することになる。これは、社会、経済、そして国家安全保障に大きな影響を与えるだろう。

  2. 政策指導者は、責任あるAIの開発とその倫理的な展開のために、思慮深い法律やルールを開発するイニシアティブを取らなければならない。

  3. AIを規制することに失敗すれば、経済に悪影響を与え、個人の権利を低下させる可能性があり、有益な技術の開発と序文が制限されることになる。

  4. 米国は、その技術的優位性、発達した個人の権利制度、先進的な法制度、民主主義国との連動性を通して、この取り組みをリードするユニークな立場にある。

  5. 米国は、将来の経済成長、競争力のある労働力の提供、グローバル経済における競争力の維持、将来の国家安全保障の必要性を確保するために行動する必要がある。

  6. 責任あるAIを推進する政策は、現在および将来の政権と議会にとって最優先事項でなければならない。

5つの規制の柱

1 Efficiency 効率性
2 Collegiality 合議制
3 Neutrality 中立性
4 Flexibility 柔軟性
5 Proportionality 比例性

 

 規制については次のことが求められるとしていますね。。。

  • 既存法の利用、既存規制のギャップを埋める
  • 技術中立な法律
  • 政府の協力
  • 民間セクターの解決策
  • 労働力 AI の訓練と開発
  • グローバルな競争力と同盟国との協働:
  • AIを活用した国家安全保障システム

 

 

U.S. Chamber of Commerce

・2023.03.09 Artificial Intelligence Commission Report

Artificial Intelligence Commission Report 人工知能委員会報告書
The U.S. Chamber’s AI Commission report highlights the promise of Artificial Intelligence (AI) while calling for a risk-based, regulatory framework. 米国商工会議所のAI委員会報告書は、人工知能(AI)の将来性を強調する一方で、リスクに基づく規制の枠組みを求める。
The use of artificial intelligence (AI) is expanding rapidly. These technological breakthroughs present both opportunity and potential peril. AI technology offers great hope for increasing economic opportunity, boosting incomes, speeding life science research at reduced costs, and simplifying the lives of consumers. With so much potential for innovation, organizations investing in AI-oriented practices are already ramping up initiatives that boost productivity to remain competitive. 人工知能(AI)の利用は急速に拡大している。こうした技術的なブレークスルーは、チャンスと潜在的な危険の両方をもたらす。AI技術は、経済機会の増大、所得の向上、コスト削減によるライフサイエンス研究の迅速化、消費者の生活の簡素化など、大きな希望をもたらしている。イノベーションの可能性を秘めたAIに投資する企業は、競争力を維持するために生産性を向上させる取り組みをすでに強化している。
Like most disruptive technologies, these investments can both create and displace jobs. If appropriate and reasonable protections are not put in place, AI could adversely affect privacy and personal liberties or promote bias. Policymakers must debate and resolve the questions emanating from these opportunities and concerns to ensure that AI is used responsibly and ethically. 多くの破壊的技術と同様に、これらの投資は雇用を創出することもあれば、置き換えることもある。適切かつ合理的な保護が行われない場合、AIはプライバシーや個人の自由に悪影響を与えたり、バイアスを助長したりする可能性がある。政策立案者は、AIが責任を持って倫理的に使用されることを保証するために、これらの機会と懸念から生じる疑問について議論し、解決しなければならない。
This debate must answer several core questions: What is the government’s role in promoting the kinds of innovation that allow for learning and adaptation while leveraging core strengths of the American economy in innovation and product development? How might policymakers balance competing interests associated with AI—those of economic, societal, and quality-of-life improvements—against privacy concerns, workforce disruption, and built-in-biases associated with algorithmic decision-making? And how can Washington establish a policy and regulatory environment that will help ensure continued U.S. global AI leadership while navigating its own course between increasing regulations from Europe and competition from China’s broad-based adoption of AI? この議論は、いくつかの核心的な問いに答えなければならない。イノベーションと製品開発というアメリカ経済の中核的な強みを活かしつつ、学習と適応を可能にするようなイノベーションを促進する上で、政府の役割は何か?政策立案者は、AIに関連する経済的、社会的、生活の質の向上という競合する利益と、プライバシーの懸念、労働力の混乱、アルゴリズムによる意思決定に関連するビルトインバイアスとのバランスをどのようにとることができるか?また、ワシントンは、欧州の規制強化や中国の広範なAI導入による競争との間で独自の道を歩みながら、米国のAIにおける世界的なリーダーシップを継続的に確保するための政策・規制環境をどのように構築できるだろうか。
The United States faces stiff competition from China in AI development. This competition is so fierce that it is unclear which nation will emerge as the global leader, raising significant security concerns for the United States and its allies. Another critical factor that will affect the path forward in the development of AI policy making is how nations historically consider important values, such as personal liberty, free speech, and privacy. 米国は、AI開発において中国との厳しい競争に直面している。この競争は非常に激しく、どの国が世界のリーダーになるかは不透明であり、米国とその同盟国にとって重大な安全保障上の懸念がある。また、個人の自由、言論の自由、プライバシーといった重要な価値観を歴史的にどのように考えてきたかも、AI政策立案の道筋に影響を与える重要な要素である。
To maintain its competitive advantage, the United States, and like-minded jurisdictions, such as the European Union, need to reach agreement to resolve key legal challenges that currently impede industry growth. At this time, it is unclear if these important allies will collaborate on establishing a common set of rules to address these legal issues or if a more competitive—and potentially damaging—legal environment will emerge internationally. 競争優位性を維持するためには、米国や欧州連合(EU)など志を同じくする国々が、現在産業の成長を妨げている重要な法的課題の解決に合意する必要がある。現時点では、これらの重要な同盟国がこれらの法的問題に対処するための共通のルールを確立するために協力するか、あるいは、より競争力のある、潜在的に損害を与える法的環境が国際的に出現するかは不明である。
AI has the capacity to transform our economy, how individuals live and work, and how nations interact with each other. Managing the potential negative impacts of this transition should be at the center of public policy. There is a growing sense that we have a short window of opportunity to address key risks while maximizing the enormous potential benefits of AI. AIは、私たちの経済、個人の生活や働き方、そして国家間の相互作用を変革する能力を備えている。この移行がもたらす潜在的な悪影響を管理することは、公共政策の中心であるべきである。AIがもたらす莫大な潜在的利益を最大化する一方で、主要なリスクに対処する機会は短いという認識が広がっている。
The time to address these issues is now. これらの問題に取り組むべき時は、今である。
In 2022, the U.S. Chamber of Commerce formed the Commission on AI Competitiveness, Inclusion, and Innovation (“Commission”) to answer the questions central to this debate. The Commission, cochaired by former representatives John Delaney (D-MD) and Mike Ferguson (R-NJ), was tasked with the mission to provide independent, bipartisan recommendations to aid policymakers. Commissioners met over the course of a year with over 87 expert witnesses during five separate field hearings across the country and overseas, while also receiving written feedback from stakeholders answering three separate requests for information posed by the Commission. 2022年、米国商工会議所は、この議論の中心となる問いに答えるため、「AIの競争力、インクルージョン、イノベーションに関する委員会」(以下、「委員会」)を設立した。委員会は、ジョン・デラニー元代表(民主党)とマイク・ファーガソン元代表(ニュージャージー州)が共同議長を務め、政策立案者を支援するための独立した超党派の提言を行うことを使命とした。委員会は、1年以上かけて、87人以上の専門家による国内外での5回にわたる公聴会を開催し、また、委員会が出した3回の情報提供要請に対して、関係者から書面によるフィードバックを受けた。
The Commission observed six major themes from its fact finding: 委員会は、そのファクトファインディングから6つの主要なテーマを観察した。
Key takeaways 主要な要点
・The development of AI and the introduction of AI-based systems are growing exponentially. Over the next 10 to 20 years, virtually every business and government agency will use AI. This will have a profound impact on society, the economy, and national security. ・AIの開発とAIを使ったシステムの導入は、指数関数的に伸びている。今後10年から20年の間に、事実上すべての企業や政府機関がAIを利用することになる。これは、社会、経済、そして国家安全保障に大きな影響を与えるだろう。
・Policy leaders must undertake initiatives to develop thoughtful laws and rules for the development of responsible AI and its ethical deployment. ・政策指導者は、責任あるAIの開発とその倫理的な展開のために、思慮深い法律やルールを開発するイニシアティブを取らなければならない。
・A failure to regulate AI will harm the economy, potentially diminish individual rights, and constrain the development and introduction of beneficial technologies. ・AIを規制することに失敗すれば、経済に悪影響を与え、個人の権利を低下させる可能性があり、有益な技術の開発と序文が制限されることになる。
・The United States, through its technological advantages, well-developed system of individual rights, advanced legal system, and interlocking alliances with democracies, is uniquely situated to lead this effort. ・米国は、その技術的優位性、発達した個人の権利制度、先進的な法制度、民主主義国との連動性を通して、この取り組みをリードするユニークな立場にある。
・The United States needs to act to ensure future economic growth, provide for a competitive workforce, maintain a competitive position in a global economy, and provide for our future national security needs. ・米国は、将来の経済成長、競争力のある労働力の提供、グローバル経済における競争力の維持、将来の国家安全保障の必要性を確保するために行動する必要がある。
・Policies to promote responsible AI must be a top priority for this and future administrations and Congresses. ・責任あるAIを推進する政策は、現在および将来の政権と議会にとって最優先事項でなければならない。
Understanding the importance of these findings, the Commission also determined that the following five pillars should be at the core of AI regulatory policy making: また、これらの知見の重要性を理解した上で、委員会は、以下の5つの柱をAI規制の政策立案の中核とすべきであると判断した。
Five pillars of AI regulation AI規制の5つの柱
Efficiency 効率性
Policymakers must evaluate the applicability of existing laws and regulations. Appropriate enforcement of existing laws and regulations provides regulatory certainty and guidance to stakeholders and would help inform policymakers in developing future laws and regulations. Moreover, lawmakers should focus on filling gaps in existing regulations to accommodate new challenges created by AI usage. 政策立案者は、既存の法律や規制の適用法を評価しなければならない。既存の法律や規制の適切な施行は、利害関係者に規制の確実性と指針を提供し、政策立案者が将来の法律や規制を策定する際の参考となるはずである。さらに、法律家は、AIの利用によって生じる新たな課題に対応するため、既存の規制の隙間を埋めることに焦点を当てるべきである。
Collegiality 合議制
Federal interagency collaboration is vital to developing cohesive regulation of AI across the government. AI use is cross-cutting, complex, and rapidly changing and will require a strategic and coordinated approach among agencies. Therefore, the government will need to draw on expertise from the different agencies, thus allowing sector and agency experts the ability to narrow in on the most important emerging issues in their respective areas. 政府全体でAIのまとまった規制を整備するためには、連邦省庁間の協力が不可欠である。AIの利用は横断的で複雑、かつ急速に変化するため、省庁間の戦略的かつ協調的なアプローチが必要となる。したがって、政府は異なる省庁の専門知識を活用する必要があり、その結果、分野や省庁の専門家がそれぞれの分野で最も重要な新たな問題に絞り込むことができるようになる。
Neutrality 中立性
Laws should be technology neutral and focus on applications and outcomes of AI, not the technologies themselves. Laws regarding AI should be created only as necessary to fill gaps in existing law, protect citizens’ rights, and foster public trust. Rather than trying to develop a onesize-fits-all regulatory framework, this approach to AI regulation allows for the development of flexible, industry-specific guidance and best practices. 法律は技術的に中立であるべきであり、技術そのものではなく、AIの適用と結果に焦点を当てるべきである。AIに関する法律は、既存の法律の隙間を埋め、市民の権利を保護し、社会的信頼を醸成するために必要な場合にのみ作られるべきである。このようなAI規制のアプローチは、画一的な規制の枠組みを構築しようとするのではなく、柔軟で業界固有のガイダンスやベストプラクティスを開発することを可能にする。
Flexibility 柔軟性
Laws and regulations should encourage private sector approaches to risk assessment and innovation. Policymakers should encourage soft law and best practice approaches developed collaboratively by the private sector, technical experts, civil society, and the government. Such non-binding, self-regulatory approaches provide the flexibility of keeping up with rapidly changing technology as opposed to laws that risk becoming outdated quickly. 法律や規制は、リスク評価やイノベーションに対する民間セクターのアプローチを奨励すべきである。政策立案者は、民間セクター、技術専門家、市民社会、政府によって共同開発されたソフトローやベストプラクティス・アプローチを奨励するべきである。このような拘束力のない自主規制的なアプローチは、すぐに時代遅れになる危険性のある法律とは対照的に、急速に変化する技術に対応する柔軟性を提供する。
Proportionality 比例性
When policymakers determine that existing laws have gaps, they should attempt to adopt a risk-based approach to AI regulation. This model ensures a balanced and proportionate approach to creating an overall regulatory framework for AI. 政策立案者は、既存の法律にギャップがあると判断した場合、AI規制に対してリスクベースのアプローチを採用することを試みるべきである。このモデルにより、AIに関する全体的な規制の枠組みを構築するためのバランスの取れた比例したアプローチが保証される。
Recommendations 推奨事項
Having understood the urgency to develop policies to promote responsible AI and to ensure economic and workforce growth, the Commission used these pillars to develop policy recommendations to put these priorities into action. The Commission recommends areas that policymakers must address, including preparing the workforce through education, bolstering global competitiveness in the areas of intellectual property while shoring up partnerships, and protecting national security. 委員会は、責任あるAIを推進し、経済と労働力の成長を確保するための政策を策定する緊急性を理解した上で、これらの優先事項を実行に移すための政策提言を策定するために、これらの柱を使用した。委員会は、政策立案者が取り組むべき分野として、教育による労働力の準備、パートナーシップを強化しながら知的財産の分野で国際競争力を強化すること、そして国家安全保障を守ることを提言している。
Preparing the Workforce 労働力の準備
・Use an Evidence-Based Approach. Policymakers must take action to understand the potential impact of AI on the American workforce by leveraging new data sources and advanced analytics to understand the evolving impact of AI and machine learning on the American public. ・エビデンスに基づくアプローチを使用する。: 政策立案者は、新しいデータソースと高度な分析を活用し、AIと機械学習がアメリカの労働力に与える潜在的な影響を理解するために行動を起こさなければならない。
・Educate the Future Workforce. The United States must increase education around AI in both the K-12 and higher education systems by encouraging policymakers to reform the standard curriculum to better prepare students for developing AI and machine learning systems. ・将来の労働力を教育する。: 米国は、AIと機械学習システムの開発に向けた学生の準備をより良くするために標準カリキュラムを改革するよう政策立案者に促すことによって、幼稚園から高校までの教育システムの両方においてAIに関する教育を強化する必要がある。
・Train and Reskill. The public and private sectors must invest in training and reskilling the future workforce. These investments should be targeted toward programs that help ease worker transitions and improve incentives for businesses to invest in retraining. Policymakers should also leverage community colleges and vocational schools to train workers to perform jobs alongside AI-enabled systems. ・訓練と再技能化。: 官民は、将来の労働力の訓練と再教育に投資する必要がある。これらの投資は、労働者の移行を容易にし、企業が再教育に投資するインセンティブを向上させるプログラムに的を絞る必要がある。また、政策立案者は、コミュニティ・カレッジや職業訓練校を活用して、AI対応システムとともに仕事をこなせる労働者を育成する必要がある。
・Attract High-Skilled Talent. In areas where a worker shortage cannot be addressed through education, training, and reskilling, Congress must act to increase the AI talent pool through targeted refinements to the H-1B visa process to encourage highskilled immigration to the United States. ・高スキル人材の確保。: 労働者不足が教育、訓練、再教育で対処できない分野では、米国議会は、H-1Bビザプロセスに的を絞って改良を加え、米国への高技能者移民を奨励することで、AI人材プールを増やすよう行動しなければならない。
Bolstering global competitiveness グローバルな競争力の強化
・Shore Up Global Partnerships. U.S. officials must collaborate with key partners and allies to develop more sensible global governance frameworks that advance our common democratic goals and values. ・グローバル・パートナーシップを強化する。 :米国当局は、主要なパートナーおよび同盟国と協力し、共通の民主的目標と価値を促進する、より賢明なグローバル・ガバナンスの枠組みを開発する必要がある。
・Advance Intellectual Property Protections. Building on the foundation of the current system, policymakers must clarify intellectual property law requirements to ensure adequate protection of AI-enabled intellectual property. Before any change, policymakers must involve relevant stakeholders to consider potential unintended effects. ・知的財産の保護を促進する。:現行制度の基礎の上に立って、政策立案者は、AI対応の知的財産の適切な保護を確保するために、知的財産法の要件を明確にしなければならない。いかなる変更も、政策立案者は、潜在的な意図しない影響を考慮するために、関連する利害関係者を巻き込む必要がある。
・Provide Necessary Resources. Policymakers should provide additional resources to the U.S. Patent and Trademark Office to support the acquisition of technical expertise, training, and other resources to speed the review of AI- and machine learning– related public patent applications. ・必要なリソースを提供する。:政策立案者は、米国特許商標庁に追加リソースを提供し、AIや機械学習に関連する公開特許出願の審査を迅速に行うための技術的専門知識、トレーニング、その他のリソースの取得を支援する必要がある。
・Protect Ingenuity. Policymakers should also explore opportunities to grant provisional approvals for submissions under review where appropriate to mitigate the effects of lengthy delays. ・創意工夫を保護する。:政策立案者は、長期の遅延の影響を緩和するために、適切な場合には審査中の提出物に仮承認を与える機会も模索すべきである。
Protecting national security 国家安全保障の保護
・Human Rights. The United States must drive the development and implementation of laws and codes of conduct focused on promoting human rights and innovation. ・人権を守る。 :米国は、人権とイノベーションの推進に焦点を当てた法律と行動規範の開発と実施を推進しなければならない。
・Establish International Rules of Conduct. As the United States leads in the development of AI-enabled weapons, it should follow and encourage other countries to align with existing international norms and laws. ・国際的な行動規範を確立する。 :米国がAI対応兵器の開発を主導する際には、既存の国際規範や法律に沿うよう、他国をフォローし、奨励する必要がある。
・Systems Validation. The U.S. should invest heavily in new ways of testing, evaluating, verifying, and validating (“TEVV”) military AI and machine learning systems to ensure that they are used safely. ・システムの検証。 :米国は、軍用AIおよび機械学習システムを安全に使用するために、テスト、評価、検証、妥当性確認(「TEVV」)の新しい方法に多額の投資を行うべきである。
・Streamline Procurement. To capitalize on American ingenuity, Congress and the Pentagon must look at streamlining acquisition processes and finding new ways of incorporating industry expertise and experience within the military enterprise. ・調達を合理化する。 :米国の創意工夫を生かすために、議会と国防総省は、調達プロセスの合理化を検討し、軍事エンタープライズ内に産業の専門知識と経験を取り入れる新しい方法を見つけなければならない。
・Work with Allies. The United States should look to open investment opportunities for AI-enabled systems to like-minded countries and allies and vice versa. ・同盟国との協力。: 米国は、AI対応システムへの投資機会を、志を同じくする国や同盟国に開放すること、またその逆も検討する必要がある。
・These findings and recommendations are not exhaustive, and we welcome the insights of others who may contribute to the AI policy debate. The Commission and individual Commissioners stand ready to collaborate with policymakers to address these issues that are of utmost importance to the United States and the economic wellbeing and safety of the global community. ・これらの調査結果や提言はすべてを網羅しているわけではないので、AI政策の議論に貢献する可能性のある他の方々の見識を歓迎する。当委員会と各委員は、米国と国際社会の経済的繁栄と安全にとって最も重要なこれらの問題に取り組むため、政策立案者と協力する用意がある。

 

全文

・[PDF] CTEC AI Commission 2023 - Full Report

20230314-93247

 

エグゼクティブサマリー

・[PDF] CTEC AI Commission 2023 - Executive Summary

20230314-93318

 

 

プレス...

・2023.03.09 U.S. Chamber’s AI Commission Report Highlights the Promise of AI While Calling for a Risk-Based, Regulatory Framework

 

U.S. Chamber’s AI Commission Report Highlights the Promise of AI While Calling for a Risk-Based, Regulatory Framework 米国商工会議所のAI委員会報告書は、AIの有望性を強調する一方で、リスクに応じた規制の枠組みを要求している
Report Finds Policymakers Must Enforce Existing Laws and Develop Policies to Steer the Growth of Responsible, Ethical AI 報告書は、政策立案者が責任ある倫理的なAIの成長を促すために、既存の法律を施行し、政策を策定する必要があることを明らかにしている。
The U.S. Chamber of Commerce’s Artificial Intelligence Commission on Competitiveness, Inclusion, and Innovation today released a comprehensive report on the promise of Artificial Intelligence, while calling for a risk-based regulatory framework that will allow for its responsible and ethical deployment. 米国商工会議所の競争力・包摂力・イノベーションに関する人工知能委員会は、本日、人工知能の将来性について包括的な報告書を発表し、同時に、責任と倫理に基づいた展開を可能にするリスクベースの規制枠組みを求めた。
“AI is a transformational technology that we are just starting to realize its potential. While there are some risks that need to be managed, AI promises to boost economic opportunity and incomes, accelerate advancement in health outcomes and quality of life, and usher in yet another era of technology innovation that will spawn companies, industries, and jobs not yet imagined,” said Chamber President and CEO Suzanne P. Clark. “For over a year, the Chamber’s Commission has been working on developing policy recommendations and industry best practices that provide policymakers and business leaders a roadmap to optimize its many benefits and protect against harms.” 商工会議所のスザンヌ P. クラーク会長兼CEOは次のようにかたっている。「AIは変革的な技術であり、私たちはその可能性を実現し始めたばかりである。リスクマネジメントが必要であるが、AIは経済機会と所得を高め、健康成果と生活の質の向上を加速させ、まだ想像もつかない企業、産業、雇用を生み出す技術革新の時代を切り開くことを約束する。商工会議所の委員会は、1年以上にわたって、政策立案者やビジネスリーダーに、その多くの利点を最適化し、害から守るためのロードマップを提供する政策提言と業界のベストプラクティスの開発に取り組んできた。」
The report, which is being unveiled an event hosted at the U.S. Chamber of Commerce headquarters today, March 9th at 9:30AM, comes at a time when AI is projected to increase global economic growth by $13 trillion by the end of the decade. AI is helping address nursing shortages in hospitals through patient monitoring, mapping wildfire paths to speed response times for emergency management officials, and broadening inclusion of financial institutions through the expansion of job applicant pools and new avenues of credit. In addition to its many uses now and into the future, policymakers need to be informed about the possible negative applications of AI.  本日3月9日午前9時30分から米国商工会議所本部で開催されるイベントで発表されるこの報告書は、AIが10年後までに世界の経済成長を13兆ドル増加させると予測されている時期に発表された。AIは、患者のモニタリングを通じて病院の看護師不足に対処し、山火事の経路をマッピングして緊急管理当局の対応時間を短縮し、求職者プールの拡大や新しい信用手段の拡大を通じて金融機関の包容力を高めている。現在および将来にわたる多くの用途に加え、政策立案者は、AIが起こりうるネガティブな用途についても知っておく必要がある。 
"AI presents unique challenges from national security implications to privacy concerns to ensuring that harmful biases are not hardwired into the next generation of technological systems to potential large scale job disruptions," said co-chairman of the AI Commission and former U.S. Representative John Delaney (D-MD). "We must address these issues in a clear-eyed fashion, harness the enormous economic and quality of life potential that can flow from AI innovation and protect the rights of all Americans. This will require close coordination and collaboration between government and industry."  AI委員会の共同議長であり、元米国下院議員のジョン・デラニー(民主党)は、次のように述べた。「AIは、国家安全保障への影響からプライバシーへの懸念、有害なバイアスが次世代技術システムに組み込まれないようにすること、大規模な雇用破壊の可能性まで、独自の課題を抱えている」。 AI委員会の共同議長であり、元米国下院議員であるジョン・デラニー(民主党)は、次のように述べた。「我々は、これらの問題に明確な視点で取り組み、AIイノベーションによってもたらされる経済と生活の質の膨大な可能性を活用し、すべてのアメリカ人の権利を保護しなければならない。そのためには、政府と産業界の緊密な連携と協力が必要である。」
Given the important role the business community will play in the deployment and management of AI, the Chamber launched the Commission last year, co-chaired by former Congressman Delaney and Mike Ferguson (R-NJ). Commissioners met over the course of a year with more than 87 expert witnesses during five separate field hearings across the U.S. and in London. AIの展開と管理において経済界が果たす重要な役割を考慮し、商工会議所は昨年、デラニー元議員とマイク・ファーガソン(ニュージャージー州選出)を共同委員長とする委員会を立ち上げた。委員たちは、全米とロンドンでの5回にわたる現地公聴会で、87人以上の専門家証人と1年かけて会談した。
By contrast, last fall the White House Office of Science and Technology Policy released a Blueprint on Artificial Intelligence, which included recommendations that would hamper America’s ability to compete globally and included overly broad technical definitions that would subject basic computing systems to oversight and regulations, the U.S. Chamber said at the time. これに対し、昨年秋にホワイトハウスの科学技術政策室が発表した「人工知能に関する青写真」には、米国の国際競争力を阻害するような提言や、基本的な計算機システムを監視・規制の対象とするような過度に広範な技術的定義が含まれていたと、米国商工会議所は当時述べている。 
“The Commission’s work considered many different viewpoints and perspectives to strike the correct balance and provide the best recommendations on AI,” said Ferguson. “This report, and specifically our recommendations, will provide government officials, private industry, and advocacy groups with a set of key principles to adhere to in building a regulatory framework and industry best practices.”    「委員会の作業は、正しいバランスを取り、AIに関する最良の勧告を提供するために、多くの異なる視点と観点を考慮した。とファーガソンは述べている。"この報告書、特に我々の提言は、政府関係者、民間企業、支援団体に、規制の枠組みや業界のベストプラクティスを構築する際に遵守すべき一連の重要な原則を提供するものである。」
Findings  調査結果 
In the report, the Commission outlined several major findings from its year-long deep dive on AI:  報告書の中で、委員会は、1年にわたるAIに関する深堀りから得られたいくつかの主要な知見を概説した。 
 ・The development of AI and introduction of AI-based systems are growing exponentially. Over the next 10-20 years, virtually every business and government agency will be using AI. This will have a profound impact upon society, the economy and national security.    ・AIの開発とAIベースのシステムの導入は、指数関数的に増加している。今後10~20年の間に、事実上すべての企業や政府機関がAIを利用するようになる。これは、社会、経済、国家安全保障に大きな影響を与えるでしょう。  
・Future advances in customer services and productivity gains—as well as the emergence of new security threats—will be powered by AI, and, therefore, failure to smartly regulate AI will harm the economy, potentially diminish individual rights, and constrain the development and introduction of beneficial technologies.   ・顧客サービスの向上や生産性の向上、また新たな安全保障上の脅威の出現は、AIによってもたらされるため、AIをスマートに規制しないことは、経済に悪影響を与え、個人の権利を低下させる可能性があり、有益な技術の開発や序文を制約することになる。  
・The U.S., through its technological advantages, well-developed system of individual rights, advanced legal system, and interlocking alliances with democracies worldwide, is uniquely situated to lead this effort. The U.S. must act to ensure future economic growth, provide for a competitive workforce, maintain a competitive position in a global economy and address future national security needs.   ・米国は、その技術的優位性、発達した個人の権利制度、先進的な法制度、そして世界中の民主主義国家との連動性を通して、この取り組みをリードするユニークな立場にある。米国は、将来の経済成長を確保し、競争力のある労働力を提供し、グローバル経済における競争力を維持し、将来の国家安全保障のニーズに対応するために行動しなければならない。  
・Policies and initiatives to both enforce existing and craft new laws and rules for the development of responsible AI and its ethical deployment must be a top priority for this and future administrations and congresses.  ・責任あるAIの開発とその倫理的な展開のために、既存の法律やルールを強化し、新しい法律やルールを作る政策とイニシアチブは、現在および将来の政権と議会にとって最優先事項でなければならない。 
Risk-Based Regulatory Framework and other Recommendations  リスクベースの規制フレームワークとその他の提言 
The report identified workforce preparation, global competitiveness, and national security as top priorities policymakers must address in order to promote the responsible adoption and use of AI and establish a risk-based regulatory framework to limit risks 報告書は、AIの責任ある導入と利用を促進し、リスクを抑えるためのリスクベースの規制枠組みを確立するために、政策立案者が取り組むべき最優先事項として、労働力の準備、国際競争力、および国家安全保障を挙げている。 
The report’s regulatory framework called for the following, among many other recommendations (for more see the full report here):   報告書の規制の枠組みは、他の多くの提言の中で、以下のことを求めている(詳しくは報告書全文をご覧ください)。  
Using Existing Law, Fill Gaps in Existing Regulations: Appropriate enforcement of existing laws and regulations provides regulatory certainty and would help inform policymakers in developing future laws and regulations. Moreover, lawmakers should focus on filling gaps in existing regulations to accommodate new challenges created by AI.   既存法の利用、既存規制のギャップを埋める: 既存の法律や規制を適切に執行することは、規制の確実性をもたらし、政策立案者が将来の法律や規制を策定する際の参考となるであろう。さらに、法律家は、AIが生み出す新たな課題に対応するために、既存の規制の隙間を埋めることに注力すべきである。  
Technology Neutral Laws: Laws should be technology-neutral and focus on applications and outcomes of AI, not the technologies themselves (e.g. machine learning, AI, language learning, et al.). Laws regarding AI should be created only as necessary to fill gaps in existing law, protect citizens’ rights, and foster public trust. This approach to AI regulation allows for the development of flexible, industry-specific guidance and best practices.   技術中立な法律:法律は技術に中立的であるべきであり、技術そのものではなく、AIの適用と結果に焦点を当てるべきである(例:機械学習、AI、言語学習、その他など)。AIに関する法律は、既存の法律の隙間を埋め、市民の権利を保護し、社会的信頼を醸成するために必要な場合にのみ作成されるべきである。AI規制に対するこのアプローチは、柔軟で業界特有のガイダンスやベストプラクティスを開発することを可能にする。  
Government Collaboration: Federal interagency collaboration is vital in developing cohesive regulation of AI across the government. AI use is cross-cutting, complex, and rapidly changing and will require a strategic and coordinated approach among agencies.    政府の協力:政府全体でAIに関する一貫した規制を策定するには、連邦政府機関の協力が不可欠である。AIの利用は横断的で複雑、かつ急速に変化しており、省庁間の戦略的かつ協調的なアプローチが必要となる。   
Private Sector Solutions: Laws and regulations should encourage private sector approaches to risk assessment and innovation. Policymakers should encourage best practices developed collaboratively by the private sector, technical experts, civil society, and the government.    民間セクターの解決策:法律や規制は、リスク評価とイノベーションに対する民間セクターのアプローチを奨励すべきである。政策立案者は、民間企業、技術専門家、市民社会、政府が共同で開発したベストプラクティスを奨励すべきである。   
Workforce AI Training and Development: Policymakers must take action to understand the potential impact of AI on the American workforce by leveraging new data sources and advanced analytics to understand the evolving impact of AI Next, the U.S. must increase education around AI in both the K-12 and higher education systems. Finally, the public and private sectors must invest in training and reskilling to the future workforce and Congress must increase the AI talent pool through targeted refinements to the H-1B visa process. These actions would minimize disruptions to the American workforce and maximize the positive role AI could have on it.     労働力 AI の訓練と開発: 政策立案者は、新しいデータソースと高度な分析を活用して、AIが米国の労働力に及ぼす潜在的な影響を理解するために行動を起こす必要がある。 次に、米国は、幼稚園から高校までの教育システムの両方で、AIに関する教育を強化しなければならない。最後に、官民は将来の労働力に対するトレーニングと再スキルアップに投資しなければならず、議会はH-1Bビザ・プロセスの的を絞った改良を通じてAI人材プールを増やす必要がある。これらの行動は、アメリカの労働力への混乱を最小限に抑え、AIが持ちうるポジティブな役割を最大化するものである。    
Global Competitiveness and Collaboration with Allies: With China and the U.S. in a race to be the global AI leader, U.S. officials must collaborate with key partners and allies to develop more sensible global governance frameworks that advance our common democratic goals and values. This includes adequate protecting of AI-enabled intellectual property. Furthermore, the U.S. Patent and Trademark Office needs more resources to speed the review of AI-related public patent applications.   グローバルな競争力と同盟国との協働:中国と米国が世界のAIリーダーになるための競争を繰り広げている中、米国当局は、主要なパートナーや同盟国と協力して、共通の民主的目標と価値を高めるより賢明なグローバルガバナンスの枠組みを開発しなければならない。これには、AIを可能にする知的財産の適切な保護が含まれる。さらに、米国特許商標庁は、AI関連の公開特許出願の審査を迅速化するために、より多くのリソースを必要としている。  
AI-Enabled National Security Systems: The U.S. should look to open investment opportunities for AI-enabled systems to our like-minded countries and allies. Additionally, the U.S. should invest heavily in new ways of testing, evaluating, verifying, and validating military AI-systems to ensure that they are used safely.   AIを活用した国家安全保障システム:米国は、AI対応システムへの投資機会を、志を同じくする国や同盟国に開放することを検討すべきである。さらに、米国は、軍事用AIシステムが安全に使用されることを保証するために、テスト、評価、検証、妥当性確認の新しい方法に多額の投資を行うべきである。  

 


 

日本のAIのガイドが省庁(テーマ)毎にわりと網羅的に記載されているので、参考になります。。。

PwC Japan

・2023.03.13 想定されるリスクと各国の法規制

 

まるちゃんの情報セキュリティ気まぐれ日記

米国...

・2023.03.11 NIST ホワイトペーパー NIST AI 100-2e2023(ドラフト)敵対的機械学習:攻撃と防御の分類と用語集

・2023.03.08 米国 情報技術産業協会 (ITI) AIに関する新たな政策提言を発表 (2023.03.02)

・2023.01.27 NIST AIリスクフレームワーク

・2022.12.05 日本内部監査協会 COSO「人工知能の可能性を最大限に実現する」 (2022.11.21)

・2022.11.11 NIST ホワイトペーパー 【プロジェクト概要】コンテキストにおけるAI/MLバイアスの緩和

・2022.10.07 米国 科学技術政策局 AI権利章典の青写真

・2022.09.20 米国 ITI AIシステムの透明性を実現するためのグローバルな政策原則 (2022.09.15)

・2022.08.24 NIST 意見募集 AIリスクマネジメントフレームワーク(第2ドラフト)とそのプレイブック

・2022.08.19 NIST ホワイトペーパー(ドラフト) コンテキストにおけるAI/MLバイアスの緩和

・2022.07.31 スタンフォード大学 AI監査のアイデア募集 賞金総額は約1000万円 (^^) (2022.07.11)

・2022.07.21 米国 国土安全保障省検査局 米国税関・国境警備局は空港での国際線旅行者の識別のために顔認識のポリシーを遵守している (2022.07.07)

・2022.06.02 米国 GAO 消費者保護:議会は消費者ランク付けに使用されるスコアに関する保護の強化を検討すべき (2022.05.26)

・2022.06.01 米国 消費者金融保護局 AIを使った与信結果についても消費者にその理由を説明しなければならない

・2022.05.17 AIサプライチェーンリスク (米国下院 科学・宇宙・技術委員会での証言から)(2022.05.11)

・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)

・2022.03.22 NIST 意見募集 AIリスクマネジメントフレームワーク(初期ドラフト)

・2022.03.21 NIST SP1270 人工知能におけるバイアスの識別と管理の標準化に向けて

・2022.03.20 米国 ピュー研究所 AIと人間強化についての調査

・2022.02.08 米国 下院 アルゴリズム説明責任法案 2022

・2021.12.23 CSET AIと偽情報キャンペーンの未来 パート1:RICHDATAフレームワーク

・2021.12.23 米国 購買担当職員に対するAIトレーニング法が上院を通過

・2021.07.23 U.S. GAO 人工知能のための新しい枠組み at 2021.06.30

・2021.06.25 NIST SP1270 Draft 人工知能におけるバイアスの識別と管理

・2021.06.24 MITRE ATLASでAIの脅威から守る

・2021.05.10 米国連邦政府 人工知能イニシアティブ

・2021.04.21 U.S. FTC(連邦取引委員会) のブログ 会社でAIを活用する場合は真実、公正、公平を目指そう、という記事がありますね。。。

・2021.03.31 米国 CSET AI安全性の主要概念:概要

・2020.11.30 米国 OMBが「人工知能アプリケーション規制のためのガイダンス」を発行

・2020.09.12 2024年までに戦闘機でAIパイロットをテストすることを含め、米国はAIの軍事利用で世界をリードする by エスパー国防長官

・2020.08.21 NISTはAIに自己説明を求める?(説明可能な人工知能の4原則)

・2020.06.15 カーネギーメロン大学 ソフトウェア研究所 AIエンジニアリングのリスク管理の視点

・2020.05.04 米国国防省と人工知能(戦略と倫理)

 

日本

2022.08.31 産総研 「機械学習品質マネジメントガイドライン 第3版」「機械学習品質評価・向上技術に関する報告書第2版」(2022.08.02)

2022.08.09 経済安全保障関係 「経済安全保障重要技術育成プログラムにかかる研究開発ビジョン検討WG の検討結果について(報告)」のサイバーセキュリティ関係...

2022.07.26 総務省 AIネットワーク社会推進会議 「報告書2022」

2022.05.02 内閣府 AI戦略2022 (2022.04.22)

・2022.04.03 日本クラウド産業協会(ASPIC) AI クラウドサービスの情報開示認定制度

・2022.02.17 総務省 「AIを用いたクラウドサービスに関するガイドブック」の公表+AIを用いたクラウドサービスの安全・信頼性に係る情報開示指針(ASP・SaaS編)

・2022.01.29 経済産業省 AI原則実践のためのガバナンス・ガイドライン ver. 1.1

2021.08.07 総務省 AIネットワーク社会推進会議 「報告書2021」の公表

2021.02.16 IPA 2018年10月に発刊されたAI白書2019のPDF版を公開

・2020.03.31 AI 倫理指針の動向とパーソナル AI エージェント by 中川裕志先生   AI 原則は機能するか?―非拘束的原則から普遍的原則への道筋 by 新保史生先生

 

中国...

・2022.12.23 中国 インターネット情報サービス深層合成管理規定についての専門家のコメント... (2022.12.12)

・2022.12.17 中国 インターネット情報サービス深層合成管理規定 (深層合成で作ったものにはマークを...)(2022.11.25)

・2022.08.15 中国 国家サイバースペース管理局 インターネット情報サービスのアルゴリズム申請に関する情報公開の公告

・2022.04.25 中国 人工知能白書 2022 (2022.04.12)

・2022.01.30 中国 国家サイバースペース管理局 意見募集 インターネット情報サービスの深層合成の管理に関する規定(意見募集稿)

・2022.01.05 中国 インターネット情報サービスのアルゴリズム推奨管理規則

・2021.08.28 中国 意見募集 国家サイバースペース管理局 「インターネット情報サービスのアルゴリズムによる推奨に関する管理規定」

・2020.11.10 中国 TC260 パブコメ AI倫理に関するガイドライン案

 

 

英国...

・2022.12.10 英国 データ倫理・イノベーションセンター「業界温度チェック:AI保証の障壁と実現要因」

・2022.11.06 英国 データ倫理・イノベーションセンター データおよびAIに対する国民の意識:トラッカー調査(第2回)

・2022.10.19 イングランド銀行 「第2回調査 英国の金融業界における機械学習」とディスカッションペーパー「人工知能と機械学習」についての意見募集 (2022.10.11)

・2022.10.28 英国 ICO 未熟なバイオメトリクス技術は人を差別する可能性がある「バイオメトリクス洞察レポート」「バイオメトリクス予見レポート」

・2022.05.30 英国 情報コミッショナー 顔認識データベース会社Clearview AI Incに750万ポンド以上の罰金を科し、英国人のデータの削除を命じた

・2021.12.19 英国 AIバロメータ21 公表

・2021.12.09 英国 AI保証に向けたロードマップを公表(AI認証制度?)

・2021.04.21 英国政府 データ倫理とイノベーションセンターのブログ AIの保証についての3つの記事

・2021.09.24 英国 国家AI戦略

・2020.12.20 UK ICO 雇用決定にアルゴリズムを使用する際に考慮すべき6つのこと

 

欧州他...

・2023.01.08 ノルウェー 個人データ保護局 AI利用における透明性についての報告書 (2022.12.21)

・2022.12.21 世界経済フォーラム (WEF) 製造業における人工知能から価値を解き放つ (2022.12.12)

・2022.12.08 EU理事会 AI法に関する見解を採択

・2022.09.30 欧州委員会 AI責任指令案

・2022.09.23 ⽇欧産業協⼒センター 欧州デジタル政策 (Vol.1-3)

・2022.06.18 英国 Ada Lovelace 協会: EUのAI法について説明 (2022.04.11)

・2022.05.23 ハンガリー AIを利用したコールセンターでの顧客対応がGDPR違反と判定された事例(ハンガリー銀行)

・2022.05.12 世界経済フォーラム (WEF) 「AI Procurment in a Box」を使ってみる:実装からのインサイト

・2022.05.05 フランス CNIL AIについてのリンク集 (2022.04.05)

・2022.04.20 AIガバナンスの標準? ISO/IEC 38507:2022 Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations

・2022.04.20 米国 商務省 国家AI諮問委員会に27名を任命

・2022.02.24 OECD AIシステム分類のためのOECDフレームワーク

・2021.12.15 ENISA 機械学習アルゴリズムの保護

・2021.12.05 欧州理事会 AI法改正案を欧州議会に提出

・2021.10.24 豪州 ビクトリア州  人工知能とプライバシーに関する報告書(2つ)

・2021.09.09 紹介 AIインシデントデータベース

・2021.06.30 WHO 保健のための人工知能の倫理とガバナンス

・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス

・2021.06.22 欧州保険職業年金局 (EIOPA) 欧州保険セクターにおける倫理的で信頼できるAIガバナンス原則に関するレポートを公表

・2021.05.07 ドイツ連邦情報セキュリティ局 (BSI) が「監査可能なAIシステムを目指して - 現状と今後の展望」を公表しています

・2020.12.18 ENISA AI サイバーセキュリティのチャレンジ - AI脅威状況報告を公表していますね。

・2020.10.25 『スマートサイバー AI活用時代のサイバーリスク管理』第24回 サイバー犯罪に関する白浜シンポジウムの発表資料

・2020.05.01 (人工知能 AI)ブラックボックスの検証:アルゴリズムシステムを評価するためのツール - アルゴリズムの監査・影響評価のための共通言語の特定

・2020.03.28 EU Ethics Guidelines for Trustworthy AI(信頼できるAIのためのEU倫理ガイドライン)

・2020.02.27「AI倫理に関する現状」芳田千尋氏

 

 

おまけ...

・2022.06.23 自己保存欲を学習したAIの行く末

・2022.02.25 ISACA Journalに記事が載りました!!! 農業 ✖️ AI ✖️ COBIT です (^^)

・2020.06.26 人間が間違うなら、人間を模倣したAIも間違うんでしょうね。。。

 

 

| | Comments (0)

2023.03.11

NIST ホワイトペーパー NIST AI 100-2e2023(ドラフト)敵対的機械学習:攻撃と防御の分類と用語集

こんにちは、丸山満彦です。

NISTがAIに対する攻撃と防御の分類と用語についての報告書のドラフトを公開し、意見募集をしていますね。。。

AIとセキュリティ・プライバシーの接点という感じですかね。。。

2020年のサイバー犯罪に関する白浜シンポジウムで私が発表した内容の一部を精緻にしたような感じかもです。。。

 

NIST - ITL

・2023.03.08 Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations | NIST Draft Available for Comment

 

Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations | NIST Draft Available for Comment 敵対的な機械学習:攻撃と防御の分類と用語|NIST 意見募集中
The initial public draft of NIST AI 100-2 (2003 edition), Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations, is now available for public comment. NIST AI 100-2(2003年版)「敵対的機械学習」の初期パブリックドラフト:攻撃と防御の分類と用語の解説」のパブリックコメントを募集している。
This NIST report on artificial intelligence (AI) develops a taxonomy of attacks and mitigations and defines terminology in the field of adversarial machine learning (AML). Taken together, the taxonomy and terminology are meant to inform other standards and future practice guides for assessing and managing the security of AI systems by establishing a common language for understanding the rapidly developing AML landscape. Future updates to the report will likely be released as attacks, mitigations, and terminology evolve. 人工知能(AI)に関するこのNISTの報告書は、敵対的機械学習(AML)の分野における攻撃と緩和の分類法を開発し、用語を定義している。この分類法と用語は、急速に発展しているAMLの状況を理解するための共通言語を確立することで、AIシステムのセキュリティを評価・管理するための他の標準や将来の実践ガイドを提供することを目的としている。攻撃、緩和策、用語の進化に伴い、将来的に報告書の更新が発表される可能性がある。
NIST is specifically interested in comments on and recommendations for the following topics: NISTは、特に以下のトピックに関するコメントや提言に関心を寄せている。
・What are the latest attacks that threaten the existing landscape of AI models? ・AIモデルの既存の状況を脅かす最新の攻撃は何か?
・What are the latest mitigations that are likely to withstand the test of time? ・時の試練に耐える可能性の高い最新の緩和策とは何か?
・What are the latest trends in AI technologies that promise to transform the industry/society? What potential vulnerabilities do they come with? What promising mitigations may be developed for them? ・業界/社会の変革を約束するAI技術の最新トレンドは何か?それらにはどのような潜在的な脆弱性があるのか?それらに対して、どのような有望な緩和策が開発される可能性があるのか?
・Is there new terminology that needs standardization? ・標準化が必要な新しい用語はあるか?

 

・2023.03.08 White Paper NIST AI 100-2e2023 (Draft) Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations

White Paper NIST AI 100-2e2023 (Draft) Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations ホワイトペーパー NIST AI 100-2e2023(ドラフト)敵対的機械学習:攻撃と防御の分類と用語集
Announcement 発表
This NIST report on artificial intelligence (AI) develops a taxonomy of attacks and mitigations and defines terminology in the field of adversarial machine learning (AML). Taken together, the taxonomy and terminology are meant to inform other standards and future practice guides for assessing and managing the security of AI systems by establishing a common language for understanding the rapidly developing AML landscape. Future updates to the report will likely be released as attacks, mitigations, and terminology evolve. 人工知能(AI)に関するこのNISTの報告書は、敵対的機械学習(AML)分野における攻撃と緩和策の分類法を開発し、用語を定義している。この分類法と用語は、急速に発展しているAMLの状況を理解するための共通言語を確立することにより、AIシステムのセキュリティを評価・管理するための他の標準や将来の実践ガイドを提供することを目的としている。攻撃、緩和策、用語の進化に伴い、将来的に報告書の更新が発表される可能性がある。
NIST is specifically interested in comments on and recommendations for the following topics: NISTは、特に以下のトピックに関するコメントや提言に関心を寄せている。
・What are the latest attacks that threaten the existing landscape of AI models? ・AIモデルの既存の状況を脅かす最新の攻撃は何か?
・What are the latest mitigations that are likely to withstand the test of time? ・時の試練に耐える可能性の高い最新の緩和策とは何か?
・What are the latest trends in AI technologies that promise to transform the industry/society? What potential vulnerabilities do they come with? What promising mitigations may be developed for them? ・業界/社会の変革を約束するAI技術の最新トレンドは何か?それらにはどのような潜在的な脆弱性があるのか?それらに対して、どのような有望な緩和策が開発される可能性があるのか?
・Is there new terminology that needs standardization? ・標準化が必要な新しい用語はあるか?
NIST intends to keep the document open for comments for an extended period of time to engage with stakeholders and invite contributions to an up-to-date taxonomy that serves the needs of the public.  NISTは、この文書を長期間コメント募集し、ステークホルダーと関わり、人々のニーズに応える最新の分類法への貢献を呼びかけたいと考えている。 
Abstract 概要
This NIST AI report develops a taxonomy of concepts and defines terminology in the field of adversarial machine learning (AML). The taxonomy is built on survey of the AML literature and is arranged in a conceptual hierarchy that includes key types of ML methods and lifecycle stage of attack, attacker goals and objectives, and attacker capabilities and knowledge of the learning process. The report also provides corresponding methods for mitigating and managing the consequences of attacks and points out relevant open challenges to take into account in the lifecycle of AI systems. The terminology used in the report is consistent with the literature on AML and is complemented by a glossary that defines key terms associated with the security of AI systems and is intended to assist non-expert readers. Taken together, the taxonomy and terminology are meant to inform other standards and future practice guides for assessing and managing the security of AI systems, by establishing a common language and understanding of the rapidly developing AML landscape. この NIST AI 報告書は、敵対的機械学習(AML)の分野における概念の分類法を開発し、用語を定義している。この分類法は、AMLの文献の調査に基づいて構築されており、主要なML手法の種類と攻撃のライフサイクル段階、攻撃者の目標と目的、攻撃者の能力と学習プロセスに関する知識を含む概念階層に整理されている。また、攻撃の結果を緩和・管理するための対応方法を示し、AIシステムのライフサイクルで考慮すべき関連するオープンな課題を指摘している。本報告書で使用されている用語は、AMLに関する文献と一致しており、AIシステムのセキュリティに関連する主要な用語を定義し、専門家でない読者を支援することを目的とした用語集によって補完されている。この分類法と用語集は、急速に発展しているAMLの状況について共通の言語と理解を確立することにより、AIシステムのセキュリティを評価・管理するための他の標準や将来の実践ガイドに情報を提供することを目的としている。

 

・[PDF]

20230310-180445

 

目次...

Audience 想定読者
Background 背景
Trademark Information 商標情報
How to read this document 本書の読み方
Executive Summary エグゼクティブサマリー
1. Introduction 1. 序文
2. Attack Classification 2. 攻撃の分類
2.1. Stages of Learning 2.1. 学習のステージ
2.2. Attacker Goals and Objectives 2.2. 攻撃者の目標・目的
2.3. Attacker Capabilities 2.3. 攻撃者の能力
2.4. Attacker Knowledge 2.4. 攻撃者の知識
2.5. Data Modality 2.5. データのモダリティ
3. Evasion Attacks and Mitigations 3. 回避攻撃と緩和策
3.1. White-Box Evasion Attacks 3.1. ホワイトボックス回避攻撃
3.2. Black-Box Evasion Attacks 3.2. ブラックボックス回避攻撃
3.3. Transferability of Attacks 3.3. 攻撃の転送性
3.4. Mitigations 3.4. ミティゲーション
4. Poisoning Attacks and Mitigations 4. ポイズニング攻撃とその対策
4.1. Availability Poisoning 4.1. 可用性ポイズニング
4.2. Targeted Poisoning 4.2. 標的型ポイズニング
4.3. Backdoor Poisoning 4.3. バックドアポイズニング
4.4. Model Poisoning 4.4. モデルポイズニング
5. Privacy Attacks 5. プライバシー攻撃
5.1. Data Reconstruction 5.1. データの再構築
5.2. Memorization 5.2. 記憶する
5.3. Membership Inference 5.3. メンバーシップ推論
5.4. Model Extraction 5.4. モデル抽出
5.5. Property Inference 5.5. プロパティの推論
5.6. Mitigations 5.6. ミティゲーション
6. Discussion and Remaining Challenges 6. ディスカッションと残された課題
6.1. Trade-O↵s Between the Attributes of Trustworthy AI 6.1. 信頼できるAIの属性の間のトレードオフ↵。
6.2. Multimodal Models: Are They More Robust? 6.2. マルチモーダルモデル。よりロバストか?
6.3. Beyond Models and Data 6.3. モデルやデータを超えて
A. Appendix: Glossary A. 附属書:用語集

 

Fig. 1. Taxonomy of attacks on AI systems.

Fig01_20230311055101

順番は逆ですが、どのようなコントロールがどのような脅威に対応しているか?というのを上の図から整理すると、次のようになります。。。

Controls Availability Integrity Privacy
Label Limit Clean-Label Poisoning Clean-Label Backdoor  
Model Control Model Poisoning Model Poisoning  
Query Access Energy-Latency Black-Box Evasion Model Extractiion
      Reconstruction
      Memorization
      Membership Inference
      Property Inference
Train Data Control Data Poisoning Targetd Poisoning  
    Backdoor Poisoning  
Source Code Control   Backdoor Poisoning  
Test Dat Control   Backdoor Poisoning  
    Evasion  

 

Executive Summary  エグゼクティブサマリー 
This NIST AI report is intended to be a step toward developing a taxonomy and terminology of adversarial machine learning (AML), which in turn may aid in securing applications of artificial intelligence (AI) against adversarial manipulations of AI systems. The components of an AI system include – at a minimum – the data, model, and processes for training, testing, and deploying the machine learning (ML) models and the infrastructure required for using them. The data-driven approach of ML introduces additional security and privacy challenges in different phases of ML operations besides the classical security and privacy threats faced by most operational systems. These security and privacy challenges include the potential for adversarial manipulation of training data, adversarial exploitation of model vulnerabilities to adversely affect the performance of ML classification and regression, and even malicious manipulations, modifications or mere interaction with models to exfiltrate sensitive information about people represented in the data or about the model itself. Such attacks have been demonstrated under real-world conditions, and their sophistication and potential impact have been increasing steadily. AML is concerned with studying the capabilities of attackers and their goals, as well as the design of attack methods that exploit the vulnerabilities of ML during the development, training, and deployment phase of the ML life cycle. AML is also concerned with the design of ML algorithms that can withstand these security and privacy challenges. When attacks are launched with malevolent intent, the robustness of ML refers to mitigations intended to manage the consequences of such attacks.  この NIST AI レポートは、敵対的機械学習(AML)の分類法と用語の開発に向けた一歩となることを意図しており、ひいては人工知能(AI)のアプリケーションを、AI システムの敵対的操作から保護するのに役立つと考えられる。AIシステムの構成要素には、最低限、データ、モデル、機械学習(ML)モデルの訓練、テスト、実装のためのプロセス、およびそれらを使用するために必要なインフラストラクチャが含まれる。MLのデータ駆動型アプローチは、ほとんどの運用システムが直面する古典的なセキュリティとプライバシーの脅威に加えて、ML運用のさまざまな段階で追加のセキュリティとプライバシーの課題を導入する。これらのセキュリティとプライバシーの課題には、敵対的な学習データの操作、MLの分類と回帰の性能に悪影響を与えるモデルの脆弱性の悪用、さらには悪意のある操作、修正、モデルとの単なる相互作用によってデータに表された人々やモデル自身に関する機密情報が流出する可能性がある。このような攻撃は、実世界の条件下で実証されており、その巧妙さと潜在的な影響力は着実に増している。AMLは、MLのライフサイクルの開発、訓練、展開の段階において、攻撃者の能力とその目標を研究するとともに、MLの脆弱性を利用した攻撃手法の設計に関心をもっている。また、AMLは、こうしたセキュリティやプライバシーの課題に耐えられるMLアルゴリズムの設計にも取り組んでいる。悪意ある攻撃が行われた場合、MLの堅牢性は、そのような攻撃の結果を管理することを目的とした緩和策を指す。
This report adopts the notions of security, resilience, and robustness of ML systems from the NIST AI Risk Management Framework [169]. Security, resilience, and robustness are gauged by risk, which is a measure of the extent to which an entity (e.g., a system) is threatened by a potential circumstance or event (e.g., an attack) and the severity of the outcome should such an event occur. However, this report does not make recommendations on risk tolerance (the level of risk that is acceptable to organizations or society) because it is highly contextual and application/use-case specific. This general notion of risk offers a useful approach for assessing and managing the security, resilience, and robustness of AI system components. Quantifying these likelihoods is beyond the scope of this document. Correspondingly, the taxonomy of AML is defined with respect to the following four dimensions of AML risk assessment: (i) learning method and stage of the ML life cycle process when the attack is mounted, (ii) attacker goals and objectives, (iii) attacker capabilities, (iv) and attacker knowledge of the learning process and beyond.  本報告書では、NIST AIリスクマネジメントフレームワーク[169]から、MLシステムのセキュリティ、レジリエンス、ロバスト性の概念を採用した。セキュリティ、レジリエンス、ロバスト性は、リスクによって測られる。リスクとは、あるエンティティ(例えば、システム)が潜在的な状況や事象(例えば、攻撃)によって脅かされる程度と、そうした事象が発生した場合の結果の深刻さを示す尺度である。しかし、リスク許容度(組織や社会が許容できるリスクのレベル)については、文脈やアプリケーション/ユースケースに大きく依存するため、本報告書では提言していない。この一般的なリスク概念は、AIシステムコンポーネントのセキュリティ、レジリエンス、ロバスト性を評価・マネジメントする上で有用なアプローチを提供する。これらの可能性を定量化することは、この文書の範囲外である。これに対応して、AML の分類法は、AML リスク評価の次の 4 つの次元に関して定義される:(i) 学習方法と攻撃が行われる際の ML ライフサイクルプロセスの段階、(ii) 攻撃者の目標と目的、(iii) 攻撃者の能力、(iv) および学習プロセス以降に関する攻撃者の知識、。
The spectrum of effective attacks against ML is wide, rapidly evolving, and covers all phases of the ML life cycle – from design and implementation to training, testing, and finally, to deployment in the real world. The nature and power of these attacks are different and can exploit not just vulnerabilities of the ML models but also weaknesses of the infrastructure in which the AI systems are deployed. Although AI system components may also be adversely affected by various unintentional factors, such as design and implementation flaws and data or algorithm biases, these factors are not intentional attacks. Even though these factors might be exploited by an adversary, they are not within the scope of the literature on AML or this report.  MLに対する効果的な攻撃のスペクトルは幅広く、急速に進化しており、MLのライフサイクルのすべての段階(設計、実装から訓練、テスト、そして最後に実世界への展開まで)をカバーしている。これらの攻撃の性質や威力は様々で、MLモデルの脆弱性だけでなく、AIシステムが配備されたインフラの弱点も突くことができる。AIシステムの構成要素も、設計や実装の欠陥、データやアルゴリズムのバイアスなど、様々な非意図的要因によって悪影響を受ける可能性があるが、これらの要因は意図的な攻撃ではありません。これらの要因が敵に悪用される可能性があるとしても、AMLに関する文献や本レポートの範囲には含まれない。
This document defines a taxonomy of attacks and introduces terminology in the field of AML. The taxonomy is built on a survey of the AML literature and is arranged in a conceptual hierarchy that includes key types of ML methods and life cycle stages of attack, attacker goals and objectives, and attacker capabilities and knowledge of the learning process. The report also provides corresponding methods for mitigating and managing the consequences of attacks and points out relevant open challenges to take into account in the life cycle of AI systems. The terminology used in the report is consistent with the literature on AML and is complemented by a glossary that defines key terms associated with the security of AI systems in order to assist non-expert readers. Taken together, the taxonomy and terminology are meant to inform other standards and future practice guides for assessing and managing the security of AI systems by establishing a common language and understanding for the rapidly developing AML landscape. Like the taxonomy, the terminology and definitions are not intended to be exhaustive but rather to aid in understanding key concepts that have emerged in AML literature. 本書は、攻撃の分類法を定義し、AML 分野の用語を紹介する。この分類法は、AMLに関する文献の調査に基づいて構築されており、ML手法の主要な種類と攻撃のライフサイクル段階、攻撃者の目標と目的、攻撃者の能力と学習過程の知識を含む概念的な階層に整理されている。また、攻撃の結果を緩和・管理するための対応方法を示し、AIシステムのライフサイクルで考慮すべき関連するオープンな課題を指摘している。本報告書で使用されている用語は、AMLに関する文献と一致しており、専門家でない読者を支援するために、AIシステムのセキュリティに関連する主要な用語を定義した用語集によって補完されている。この分類法と用語集は、急速に発展しているAMLの状況について共通の言語と理解を確立することにより、AIシステムのセキュリティを評価・管理するための他の基準や将来の実践ガイドを提供することを目的としている。分類法と同様に、用語と定義は網羅的なものではなく、むしろAMLの文献で出てきた重要な概念の理解を助けるものである。

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2020.10.25『スマートサイバー AI活用時代のサイバーリスク管理』第24回 サイバー犯罪に関する白浜シンポジウムの発表資料

 


スマートサイバー AI活用時代のサイバーリスク管理 丸山 満彦 氏(PwCコンサルティング合同会社)

機械学習、深層学習をはじめとするいわゆる人工知能技術(AI)の社会での実装が進んできています。サイバーリスクの防御の面でも機械学習、深層学習を活用したサイバー防御製品やサービスが広がってきています。サイバーリスク管理にAIがどのように活用できるのか、人間とのかかわりはどうすべきか、そしてAIを活用したサイバー攻撃、AIに対するサイバー攻撃といったことにも触れていきながら、これからの課題を考えていきたいと思います。

・[PDF] スマートサイバー AI活用時代のサイバーリスク管理(配布用)

Title


 

| | Comments (0)

2023.03.10

英国 ICO Blog 国際女性デーに向けて...AIによる差別への対処が重要な理由

こんにちは、丸山満彦です。

03.08は国際女性デーでした。。。社内で歓送迎会をしたのですが、メンバーの計らいで女性メンバーに国際女性デーにちなんで、感謝のプレートを用意をしてくれました。。。男女に頭脳的な能力差はないように思うので、女性も思いっきり働ける環境が整えられますように。。。と思います。

そのためには、男性がまずは子育て、家事にもっと時間も割いて、いろいろとできるようにならないとね。。。頑張ります。。。(ちなみに、今のセキュリティチームのリーダーは、子供の弁当を毎朝つくってあげていたそうです。。。これはとても素敵な話です。。。)

さて、AIの利用においても差別を生むようなことがないようにすることが重要ですね。。。

つまり、子育てと同じように、AIも与えられた(学習した)データに基づいて判断をしていくことになりますので、社会のそのままのデータを与えた場合、今ある社会の差別的な要素も含めてAIが判断をしてしまうことになります。

女性や男性(民族や肌の色でも同じですが...)に対するステレオタイプに基づいたデータを与えれば、それに基づいて判断をしていくことでしょう。特に生成AIの場合でイラストを書いたり、話をつくったりする場合には特にそういうことが反映されたものになるかもしれません。。。

AIに可能性を感じている人はぜひ、目を通していただきたいと思います。。。

 

U.K. ICO

・2023.03.08 Blog: Why addressing AI-driven discrimination is so important

 

こちらも時間があれば、、、

What do we need to do to ensure lawfulness, fairness, and transparency in AI systems?

 

Fig_20230310040502

 

 

 

| | Comments (0)

2023.03.08

米国 情報技術産業協会 (ITI) AIに関する新たな政策提言を発表 (2023.03.02)

こんにちは、丸山満彦です。

米国のIT業界団体である情報技術産業協会 (The Information Technology Industry Council: ITI) がAIに関する新たな政策提言を発表しています。過去に2回だしていますが、それを踏まえて、昨今の状況の変化を踏まえての内容になっているというとのことです。。。

The Information Technology Industry Council: ITI

・2023.03.02 New ITI Recommendations Detail How to Harness AI’s Potential

 

WASHINGTON – As consumers and businesses benefit from innovative new artificial intelligence (AI) technologies, global tech trade association ITI issued new policy recommendations today to harness AI’s potential in a responsible manner. ワシントン - 消費者と企業が革新的な新しい人工知能(AI)技術の恩恵を受ける中、世界的なハイテク業界団体であるITIは本日、AIの潜在能力を責任ある方法で活用するための新しい政策提言を発表した。
ITI’s eight recommendations urge the federal government to seize AI’s transformational impact by increasing AI investments, adopting AI solutions across the U.S. government and commercial sectors, and utilizing international standards for AI governance and oversight. ITIの8つの提言は、連邦政府に対し、AIへの投資を増やし、米国政府および商業部門全体でAIソリューションを採用し、AIのガバナンスと監視のための国際基準を活用することによって、AIの変革的インパクトをつかむよう求めている。
“AI holds great promise to improve the lives of all Americans and grow business and economic activity across all sectors, and ITI is committed to working with lawmakers to shape policy that supports innovation and investment in AI technologies and ensures responsible and secure deployment,” said ITI’s President and CEO Jason Oxman. “ITI’s new guide will help policymakers capitalize on AI’s momentum to the benefit of all Americans and advance U.S. competitiveness in a challenging geopolitical and economic environment.” ITI会長兼CEOのJason Oxmanは以下のように述べている。「AIは、すべてのアメリカ人の生活を向上させ、あらゆる分野のビジネスと経済活動を成長させる大きな可能性を秘めている。ITIは、AI技術の革新と投資を支援し、責任ある安全な展開を確保するための政策を策定するため、国会議員と協力することを約束する。ITIの新しいガイドは、政策立案者がすべてのアメリカ人の利益のためにAIの勢いを活用し、厳しい地政学的・経済的環境において米国の競争力を高めるのに役立つだろう。」
ITI encourages lawmakers to precisely define AI and related terms, use partnerships and other initiatives supported by federal funding for AI research and development, and leverage international standards to align regulatory requirements around the globe. ITIは、AIと関連する用語を正確に定義し、AIの研究開発のために連邦政府の資金で支援されるパートナーシップやその他のイニシアチブを利用し、国際基準を活用して世界中の規制要件を調整することを議員に奨励している。
These new recommendations build on ITI’s longstanding expertise on AI policy, including its Global Policy Principles for Enabling Transparency of AI Systems and comprehensive Global AI Policy Recommendations. これらの新しい提言は、AIシステムの透明性を実現するためのグローバル政策原則や包括的なグローバルAI政策提言など、AI政策に関するITIの長年の専門知識に基づくものである。

 

・[PDF]

20230308-52930

仮訳...

Harnessing AI: Recommendations for Policymakers AIの活用:政策立案者への提言
Artificial Intelligence (AI) is a suite of technologies capable of learning, reasoning, adapting, and performing tasks in ways inspired by the human mind. To capitalize on AI’s transformational impact, ITI urges the U.S. Congress to support legislation that increases federal investment and fosters greater adoption of AI solutions across the federal government and commercial sectors. Lawmakers should focus on creating policy that supports innovation and investment in AI technologies to advance tomorrow’s workforce. In doing so, lawmakers should focus first on leveraging voluntary international standards as a baseline for legislative approaches to AI governance. When considering legislation on AI, we encourage lawmakers to do the following: 人工知能(AI)とは、人間の精神に触発された方法で、学習、推論、適応、タスク実行が可能な一連の技術である。AIがもたらす変革のインパクトを活かすため、ITIは米国議会に対し、連邦政府への投資を増やし、連邦政府および商業部門全体でAIソリューションの採用拡大を促進する法律を支援するよう要請する。議員たちは、明日の労働力を向上させるために、AI技術への革新と投資を支援する政策づくりに注力すべきである。その際、議員たちはまず、AIガバナンスに対する立法アプローチのベースラインとして、自主的な国際標準を活用することに焦点を当てるべきである。AIに関する法案を検討する際、我々は議員に以下のことを行うよう勧める。
・Craft a precise and complete definition of AI and other supporting and derivative terms, such as “transparency,” “high-risk,” and “algorithm,” among others. ・AI、および「透明性」、「高リスク」、「アルゴリズム」など、その他の補助的・派生的な用語の正確かつ完全な定義を作成すること。
・Federal funding for AI research and development should encourage multi-stakeholder partnerships and lab-to-market initiatives, such as centers for excellence, innovation hubs, or research centers that underpin industry’s crucial role in developing and deploying AI solutions. ・AIの研究開発に対する連邦政府の資金援助は、AIソリューションの開発と展開における産業の重要な役割を支える、卓越センター、イノベーションハブ、研究センターなど、複数の利害関係者のパートナーシップとラボから市場へというイニシアティブを奨励すべきである。
・Examine existing legislation before proposing new regulation. If regulation is warranted, we encourage lawmakers to recognize that regulation should be flexible, design-neutral, context-specific, and risk-based – with measured regulatory attention dedicated to “high-risk” AI applications and uses. ・新たな規制を提案する前に、既存の法律を検討すること。規制が必要な場合、規制は柔軟で、デザインニュートラルで、状況に応じた、リスクベースであるべきであり、「高リスク」のAIアプリケーションと用途に特化した規制の注意を喚起するよう、議員に促す。
・Encourage reliance on international standards and seek to align regulatory requirements with international approaches to AI regulation. ・国際標準への依存を奨励し、AI規制の国際的アプローチと規制要件の整合性を図る。
・Delineate how potential responsibilities stemming from legislation should be allocated within the AI stakeholder ecosystem. Examples of stakeholders include AI producers, providers, customers, developers, subjects, and partners. ・法規制から生じる潜在的な責任を、AI関係者のエコシステムの中でどのように割り当てるべきかを明確にする。ステークホルダーの例としては、AIの生産者、プロバイダー、顧客、開発者、被験者、パートナーなどがある。
・For federal acquisition opportunities, the federal government should maximize its procurement and deployment of relevant AI solutions to help agencies deliver on their mission and optimize constituent services ・連邦政府の調達について、連邦政府は、AIソリューションの調達と展開を最大化し、各省庁の任務遂行と構成員サービスの最適化に役立てるべきである。
・Avoid mandating prescriptive algorithmic impact assessment and related requirements, recognizing the importance of taking a risk-based approach. ・リスクベースのアプローチの重要性を認識し、規定的なアルゴリズム影響評価や関連要件の義務付けを回避する。
・Support provisions within legislation that protect the foundation of AI systems, including source code, proprietary algorithms, and other intellectual property. Congress should avoid requirements that force companies to transfer or provide access to technology, source code, algorithms, or encryption keys as conditions for doing business with the federal government or as a general practice for business-to-business operations. ・ソースコード、独自のアルゴリズム、その他の知的財産を含むAIシステムの基盤を保護する条項を法律で支持する。連邦議会は、連邦政府との取引の条件として、あるいは企業間取引の一般的な慣行として、技術、ソースコード、アルゴリズム、暗号鍵の譲渡やアクセスを企業に強制する要件を回避するべきである。
Policymakers should leverage and refer to recommendations outlined in ITI’s Policy Principles for Enabling Transparency of AI Systems and Global AI Policy Recommendations to inform congressional staff on how thoughtful legislation and federal investments can accelerate the adoption of AI solutions in a transparent and ethical manner. Spurring innovation, federal funding and acquisition, and multi-stakeholder partnerships across various AI solutions will solidify the U.S. as the global leader in AI technology. 政策立案者は、ITIの「AIシステムの透明性を実現するための政策原則」と「グローバルAI政策提言」で概説された提言を活用し、議会スタッフに、思慮深い法律と連邦投資が透明で倫理的な方法でAIソリューションの採用を加速させる方法について伝えるべきである。様々なAIソリューションのイノベーション、連邦政府の資金調達と買収、マルチステークホルダー・パートナーシップを促進することで、米国はAI技術のグローバルリーダーとして確固たる地位を築くことができるだろう。

 

 

過去の発表について。。。

・2022.09.15 ITI Publishes Global Policy Principles for Enabling Transparency of AI Systems

ITI Publishes Global Policy Principles for Enabling Transparency of AI Systems ITI、AIシステムの透明性を実現するためのグローバルポリシー原則を発表
WASHINGTON – Today, global tech trade association ITI published new Policy Principles for Enabling Transparency of AI Systemsto help inform and guide policymaking. In its principles, ITI underscores that transparency is a critical part of developing accountable and trustworthy AI systems and avoiding unintended outcomes or other harmful impacts. At the highest level, transparency is about being clear about how an AI system is built, operated, and functions. When executed well, AI transparency can help to analyze outputs and hold appropriate AI stakeholders accountable. ワシントン - 本日、世界的なハイテク業界団体であるITIは、政策立案への情報提供と指針として、AIシステムの透明性を実現するための新しい政策原則を発表した。ITIはその原則の中で、透明性が、説明責任を果たし信頼できるAIシステムを開発し、意図しない結果やその他の有害な影響を回避するために重要な要素であることを強調している。最も高いレベルでは、透明性とは、AIシステムがどのように構築され、運用され、機能するのかを明確にすることである。うまく実行されれば、AIの透明性は、アウトプットを分析し、適切なAI関係者に説明責任を果たさせるのに役立つ。
Among its principles, ITI recommends policymakers empower users by including provisions within legislation that provide sufficient information to understand decisions of an AI system that may negatively affect users’ fundamental rights and give them the ability to review and/or challenge such decisions. ITI also outlines the need to make it clear to users when they are interacting directly with an AI system. ITIは、その原則の中で、政策立案者がユーザーの基本的権利に悪影響を及ぼす可能性のあるAIシステムの決定を理解するのに十分な情報を提供し、そのような決定を見直し、異議を申し立てる能力を与える条項を法律内に含めることによって、ユーザーに権限を与えることを推奨する。また、ITIは、ユーザーがAIシステムと直接対話する際に、それを明確にする必要があることを概説している。
“Transparency of AI systems has rightfully been a prime focus for policymakers in the U.S. and across the globe,” said ITI’s President and CEO Jason Oxman. “Regulations must effectively mitigate risk for users while preserving innovation of AI technologies and encouraging their uptake. ITI’s Policy Principles for Enabling Transparency of AI Systems offer a clear guide for policymakers to learn about and facilitate greater transparency of AI systems.” ITI会長兼CEOであるJason Oxmanは、「AIシステムの透明性は、米国をはじめ世界中の政策立案者にとって当然のことながら最重要課題となっている。 規制は、AI技術のイノベーションを維持し、その普及を促進しながら、利用者のリスクを効果的に軽減する必要がある。ITIの「AIシステムの透明性を実現するための政策原則」は、政策立案者がAIシステムについて学び、透明性を高めることを促進するための明確な指針を提供するものである。」
AI systems are comprised of sets of algorithms, which are capable of learning and evolving, whereas an algorithm alone is usually more simplistic, often executing a finite set of instructions. ITI’s Policy Principles for Enabling Transparency of AI Systems suggest that the most effective way to approach policymaking around transparency is to apply transparency requirements to specific, high-risk uses of AI systems – which are applications in which a negative outcome could have a significant impact on people — especially as it pertains to health, safety, freedom, discrimination, or human rights. AIシステムはアルゴリズムのセットで構成され、学習や進化が可能であるが、アルゴリズム単体では通常より単純化され、有限の命令セットを実行することが多い。ITIの「AIシステムの透明性を実現するための政策原則」では、透明性に関する政策立案の最も効果的な方法は、AIシステムの特定の高リスクな用途に透明性要件を適用することであると提言している。この用途とは、特に健康、安全、自由、差別、人権に関連するような、マイナスの結果が人々に大きな影響を与える可能性がある用途である。
ITI’s Policy Principles for Enabling Transparency of AI Systemsadvise policymakers to: ITIの「AIシステムの透明性を実現するための政策原則」は、政策立案者に次のように助言している。
・Consider what the ultimate objective of transparency requirements are. ・透明性要求の究極の目的は何かを検討すること。
・Consider the intended audience of any transparency requirements and at what point of the AI system lifecycle they would apply. ・透明性要件の最終的な目的は何かを検討する。
・Take a risk-based approach to transparency when considering requirements. ・要件を検討する際には、透明性に関してリスクベースのアプローチをとる。
・Include clear definitions of what is meant by transparency in the context of a regulation or policy proposal. ・規制や政策提案の文脈で、透明性が意味するものを明確に定義する。
・Consider that there are different ways to approach transparency and improve trust, and that explainability is only one component. ・透明性にアプローチして信頼を向上させる方法は様々であり、説明可能性は1つの要素に過ぎないことを考慮する。
・Consider including provisions within legislation that are intended to provide users with sufficient information to understand decisions of an AI system that may negatively affect their fundamental rights and provide users with the ability to review and/or challenge such decisions. ・基本的権利に悪影響を及ぼす可能性のあるAIシステムの決定を理解するのに十分な情報を利用者に提供し、そのような決定を見直し、異議を申し立てる能力を利用者に提供することを意図した規定を、法律内に含めることを検討する。
・Ensure that transparency requirements do not require companies to divulge sensitive IP or source code or otherwise reveal sensitive individual data. ・透明性要件が、企業に対して、機密性の高いIPやソースコードの開示、あるいは機密性の高い個人データの公開を要求しないことを確認する。
・Leverage voluntary international standards in order to maintain interoperability of various AI transparency requirements to the extent possible. ・様々なAIの透明性要件の相互運用性を維持するため、可能な限り自主的な国際標準を活用すること。
・Consider that when an AI system is directly interacting with a user, that fact should be easily discoverable and that disclosure requirements can help facilitate this. ・AIシステムがユーザーと直接対話する場合、その事実を容易に発見できるようにすべきであり、開示要件がこれを促進するのに役立つことを考慮する。
・Regulations pertaining to disclosure should be flexible and avoid prescribing specific information or technical details to be included. ・開示に係る規制は柔軟であるべきであり、含まれるべき特定の情報や技術的な詳細を規定することは避けるべきである。
・Only the actual deployer of the AI system should be responsible for disclosure. ・AIシステムの実際の導入者のみが情報開示の責任を負うべきである。
These principles build on ITI’s Global AI Policy Recommendations, released in 2021, which offered a comprehensive set of policy recommendations for global policymakers seeking to foster innovation in AI while also addressing specific harms. これらの原則は、2021年に発表されたITIの「グローバルAI政策提言」に基づくもので、特定の危害に対処しつつAIのイノベーションを促進しようとする世界の政策立案者に対して包括的な政策提言を行ったものである。
Read ITI’s Policy Principles for Enabling Transparency of AI Systems here. ITIの「AIシステムの透明性を実現するための政策原則」はこちらを参照。

 

・[PDF]

20230308-53915

 

・2021.03.24 New ITI Global AI Policy Recommendations Promote Government, Industry, and Stakeholder Collaboration on AI

 

New ITI Global AI Policy Recommendations Promote Government, Industry, and Stakeholder Collaboration on AI 新しいITIグローバルAI政策提言は、AIに関する政府、産業界、ステークホルダーの協働を促進する。
WASHINGTON — Today, global tech trade association ITI published its new Global AI Policy Recommendations to help guide governments around the world as they consider how to approach Artificial Intelligence (AI). The recommendations provide globally applicable AI policy proposals in five key areas: innovation and investment; facilitating public understanding and public trust; ensuring security and privacy; approaches to regulation; and global engagement. ワシントン - 本日、世界的なハイテク業界団体であるITIは、世界各国の政府が人工知能(AI)への取り組み方を検討する際の指針となる、新しい「グローバルAI政策提言」を発表した。本提言は、「イノベーションと投資」「国民の理解と信頼の促進」「セキュリティとプライバシーの確保」「規制へのアプローチ」「グローバルな関与」の5つの主要分野において、グローバルに適用できるAI政策の提言を提供する。
“Artificial Intelligence plays an increasingly integral role in the way we connect, work, and learn,” said John Miller, ITI’s Senior Vice President for Policy and General Counsel. “It’s critical that policymakers around the world collaborate with industry, academia, and community stakeholders to ensure that this technology continues to be developed and used in a secure, trustworthy, and transparent manner everywhere. ITI’s Global AI Policy Recommendations serve as a guide for global governments as they consider policies to encourage responsible AI innovation while addressing challenges related to the use of the technology in its various applications. We look forward to working with policymakers and stakeholders as they consider and apply these recommendations.” ITIの政策担当上級副会長兼法律顧問であるジョン・ミラーは、次のように述べている。「人工知能は、私たちがつながり、働き、学ぶ方法において、ますます不可欠な役割を担っている。世界中の政策立案者が、産業界、学術界、地域社会の関係者と協力し、この技術があらゆる場所で安全、信頼、透明な方法で開発、使用され続けることを確実にすることが重要である。ITIの「グローバルAI政策提言」は、世界各国の政府が、責任あるAIイノベーションを促進するための政策を検討する際の指針となるものであり、同時に、この技術の様々な用途での使用に関連する課題に対処するものである。私たちは、政策立案者や関係者がこれらの提言を検討し、適用する際に協力することを楽しみにしている。」
ITI’s recommendations include: ITIの提言は以下の通りである。
・Increasing innovation and investment in AI, with an emphasis on workforce development, increased investment for R&D, and prioritizing public sector procurements of AI-based technology. ・労働力開発、研究開発への投資拡大、AIベースの技術の公共部門調達の優先順位付けに重点を置き、AIへのイノベーションと投資を増加させる。
・Facilitating public trust and understanding that promote the development of meaningfully explainable AI systems and encourage an ethical design approach. ・有意義に説明できるAIシステムの開発を促進し、倫理的な設計アプローチを奨励する、社会的信頼と理解を促進する。
・Approaches to regulation, with a series of recommendations as to how policymakers should approach regulating AI in a way that focuses on responding effectively to specific harms while allowing for advancements in technology and innovation. ・規制へのアプローチ。政策立案者が、技術やイノベーションの進歩を許容しつつ、特定の危害に効果的に対応することに焦点を当てた方法で、AIを規制することにどのようにアプローチすべきかについて、一連の勧告を示す。
・Ensuring the security and privacy of AI systems, with recommendations that consider how privacy, cybersecurity, and AI interact to ensure that users can trust that their personal and sensitive data is protected and handled appropriately. ・AIシステムのセキュリティとプライバシーの確保。プライバシー、サイバーセキュリティ、AIがどのように相互作用するかを検討し、ユーザーが個人情報や機密データが保護され、適切に取り扱われることを信頼できるようにするための提言を行う。
・Promoting continued global engagement, which will be key to ensuring that approaches to AI are aligned and interoperable to the extent possible. ・AIへのアプローチの整合性と相互運用性を可能な限り確保するための鍵となる、グローバルな取り組みの継続を促進する。
ITI's new Global AI Policy Recommendations build on principles released in 2018 and can help inform an evolving global policy debate. ITI’s new recommendations feature a glossary of key definitions around which global consensus is emerging as well as an appendix highlighting different AI use cases. ITIの新しいグローバルAI政策提言は、2018年に発表された原則に基づいており、進化するグローバルな政策議論に情報を提供するのに役立つ。ITIの新しい勧告は、世界的なコンセンサスが生まれつつある重要な定義の用語集と、さまざまなAIのユースケースを強調した附属書を備えている。
See ITI’s full Global AI Policy Recommendations here. ITIのグローバルAI政策提言の全文はこちらを参照。

 

 

政策提言...

・[PDF]

20230308-54846

 

2018年にすでに考えていた...

AI方針原則...

・2018 [PDF] AI Policy Principles

20230308-54658

 

AI Policy Principles AI方針原則
Executive Summary エグゼクティブサマリー
Artificial Intelligence (AI) is a suite of technologies capable of learning, reasoning, adapting, and performing tasks in ways inspired by the human mind. With access to data and the computational power and human ingenuity required to extract increasing value from it, researchers are building intelligent software and machines to enhance human productivity and empower people everywhere. Startups, medium-sized companies, and larger technology companies have all developed AI systems to help solve some of society’s most pressing problems, from medical diagnosis to education to economic productivity and empowerment.   人工知能(AI)とは、人間の心理に触発された方法で学習、推論、適応、タスク実行が可能な一連の技術である。データへのアクセス、そこから価値を高めるために必要な計算能力、人間の創意工夫により、研究者は人間の生産性を高め、あらゆる人々に力を与える知的ソフトウェアやマシンを開発している。スタートアップ企業、中堅企業、そして大手テクノロジー企業はいずれも、医療診断から教育、経済的生産性やエンパワーメントに至るまで、社会の最も差し迫った問題の解決に役立つAIシステムを開発している。 
While it is impossible to predict the full transformational nature of AI, like technological evolutions before it, we expect the potential implications to be vast. To ensure that AI can deliver its greatest positive potential, the Information Technology Industry Council (ITI) — the global voice of the tech sector — takes industry’s responsibility seriously to be a catalyst for preparing for an AI world. In our Policy Principles, we outline specific areas where industry, governments, and others can collaborate, as well as specific opportunities for public-private partnership. To advance these principles, which we expect will evolve alongside AI technology, we acknowledge the following:  AIがどのような変革をもたらすかを予測することは不可能であるが、これまでの技術革新と同様に、その潜在的な意味は非常に大きいと考えている。AIがその最大の可能性を発揮できるようにするため、ハイテク産業のグローバルな代弁者である情報技術産業協会(ITI)は、AIの世界に備えるための触媒となるべく、産業の責任を真剣に受け止めている。私たちの政策原則では、産業界、政府、その他が協力できる具体的な分野と、官民パートナーシップの具体的な機会について概説している。私たちは、AI技術とともに進化していくことを期待するこれらの原則を推進するために、以下のことを認識する。
Industry’s Responsibility in Promoting Responsible Development and Use: We recognize our responsibility to integrate principles into the design of AI technologies, beyond compliance with existing laws. While the potential benefits to people and society are amazing, AI researchers, subject matter experts, and stakeholders should continue to spend a great deal of time working to ensure the responsible design and deployment of AI systems, including addressing safety and controllability mechanisms, use of robust and representative data, enabling greater interpretability and recognizing that solutions must be tailored to the unique risks presented by the specific context in which a particular system operates.   責任ある開発と利用を促進する業界の責任:責任ある開発と利用を促進する業界の責任:私たちは、既存の法律の遵守にとどまらず、AI技術の設計に原則を統合する責任を認識している。人や社会に対する潜在的な利益は素晴らしいものであるが、AI研究者、データ管理者、関係者は、安全性と制御性のメカニズムへの取り組み、堅牢で代表的なデータの使用、解釈可能性の向上、特定のシステムが動作する特定のコンテキストによってもたらされる固有のリスクに合わせたソリューションの必要性の認識など、AIシステムの責任ある設計と展開を確保するために引き続き多くの時間を費やす必要がある。 
The Opportunity for Governments to Invest In and Enable the AI Ecosystem: We encourage robust support for research and development (R&D) to foster innovation through incentives and funding.  As the primary source of funding for long-term, high-risk research initiatives, we support governments’ investment in research fields specific or highly relevant to AI, including: cyber-defense, data analytics, detection of fraudulent transactions or messages, robotics, human augmentation, natural language processing, interfaces, and visualizations.  We also encourage governments to evaluate existing policy tools and use caution before adopting new laws, regulations, or taxes that may inadvertently or unnecessarily impede the responsible development and use of AI.  This extends to the foundational nature of protecting source code, proprietary algorithms, and other intellectual property.  Failure to do so could present a significant cyber risk.    政府がAIエコシステムに投資し、それを可能にする機会:我々は、インセンティブと資金提供を通じてイノベーションを促進するために、研究開発(R&D)に対する強固なサポートを推奨する。 長期的でリスクの高い研究イニシアチブの主要な資金源として、我々は、サイバー防衛、データ分析、不正な取引やメッセージの検出、ロボット工学、人間拡張、自然言語処理、インターフェース、可視化など、AIに特有または関連性の高い研究分野への政府の投資を支持する。 また、各国政府には、既存の政策手段を評価し、AIの責任ある開発と利用を不注意または不必要に妨げる可能性のある新しい法律、規制、または税金を採用する前に注意を払うことを奨励する。 このことは、ソースコード、独自のアルゴリズム、その他の知的財産を保護するという基本的な性質にも及んでいる。 これを怠ると、重大なサイバーリスクが発生する可能性がある。  
The Opportunity for Public-Private Partnerships (PPPs): Many emerging AI technologies are designed to perform a specific task, assisting human employees and making jobs easier. Our ability to adapt to rapid technological change, however, is critical. That is why we must continue to be prepared to address the implications of AI on the existing and future workforce. By leveraging PPPs – especially between industry partners, academic institutions, and governments – we can expedite AI R&D, democratize access, prioritize diversity and inclusion, and prepare our workforce for the jobs of the future.  官民パートナーシップ(PPP)の機会:多くの新しいAI技術は、特定のタスクを実行するように設計されており、人間の従業員を支援し、仕事を容易にする。しかし、急速な技術革新に適応する能力は非常に重要である。そのため、AIが既存および将来の労働力に与える影響に対処するための準備を続けていく必要がある。特に産業界のパートナー、学術機関、政府間のPPPを活用することで、AIの研究開発を促進し、アクセスを民主化し、多様性と包括性を優先させ、未来の仕事に対応できる労働力を準備することができる。
AI Policy Principles AI方針原則
Artificial Intelligence (AI) is a suite of technologies capable of learning, reasoning, adapting, and performing tasks in ways inspired by the human mind. With access to data and the computational power and human ingenuity required to extract increasing value from it, researchers are building intelligent software and machines to enhance human productivity and empower people everywhere.  人工知能(AI)とは、人間の心理にヒントを得て、学習、推論、適応、タスク実行を行うことができる一連の技術である。データへのアクセス、そこから価値を高めるために必要な計算能力、そして人間の創意工夫により、研究者は人間の生産性を高め、あらゆる人々に力を与えるインテリジェントなソフトウェアやマシンを構築している。
We are already experiencing how AI benefits people, society, and the economy in a diverse array of fields. AI systems assist in medical diagnostics, alerting doctors to early warning signs, and helping personalize patient treatments. They increase accessibility, fueling software programs that make digital content accessible to people with disabilities, such as helping the blind “read” millions of photos or websites on the internet. And intelligent systems already monitor huge volumes of economic transactions – identifying potential fraud in real time and saving consumers millions of dollars.  私たちはすでに、AIが多様な分野で人々や社会、経済にどのような利益をもたらすかを体験している。AIシステムは医療診断に役立ち、早期警告のサインを医師に知らせ、患者の治療を個別化するのに役立っている。また、アクセシビリティを向上させ、目の不自由な人がインターネット上の何百万もの写真やウェブサイトを「読む」ことを支援するなど、デジタルコンテンツにアクセスできるようにするソフトウェアプログラムに拍車をかけている。また、インテリジェント・システムはすでに膨大な量の経済取引を監視しており、潜在的な不正行為をリアルタイムで発見し、消費者を何百万ドルも節約している。
By pairing the power of AI computing with land cover maps, weather forecasts, and soil data, technology can empower people with the data and tools they need to better conserve lands, improve ecosystems, and increase agricultural yields. AI-powered machines can even make dangerous or difficult tasks safer for people, opening new environments that were previously inaccessible to human exploration.  AIコンピューティングのパワーを土地被覆図、天気予報、土壌データと組み合わせることで、土地の保全、生態系の改善、農業の収量増加に必要なデータとツールを人々に提供することができる。AIを搭載した機械は、危険な作業や困難な作業をより安全なものにし、これまで人間の手が届かなかった新しい環境を切り開くこともできるのである。
Startups, medium-sized companies, and larger technology companies have all developed AI systems to help solve some of society’s most pressing problems. By allowing smaller businesses to do more with less, AI will jumpstart small businesses, helping them take risks and grow at faster rates than ever before.  新興企業、中堅企業、そして大手テクノロジー企業は、社会の最も差し迫った問題の解決に貢献するAIシステムを開発している。AIは、中小企業がより少ない労力でより多くのことを行えるようにすることで、中小企業を飛躍的に成長させ、リスクを取ってこれまでよりも速いスピードで成長することを支援する。
Like other transformative technological evolutions before it, it is impossible to fully predict the impact of AI, but like the development of the internet, we expect the potential implications to be vast. In the United States alone, the market for AI technologies that analyze unstructured data is projected to reach $40 billion by 2020, potentially generating more than $60 billion worth of productivity improvements per year. By their very nature, these innovations create new products and services that did not exist before. By 2025, AI technologies are expected to add between $7.1 trillion and $13.17 trillion to the global economy.    これまでの技術革新のように、AIがもたらす影響を完全に予測することは不可能であるが、インターネットの発達と同様に、潜在的な影響力は膨大なものになると予想されます。米国だけでも、非構造化データを分析するAI技術の市場は、2020年までに400億ドルに達すると予測され、年間600億ドル以上の価値のある生産性向上を生み出す可能性がある。こうしたイノベーションは、その性質上、これまで存在しなかった新しい製品やサービスを生み出する。2025年までに、AI技術は世界経済に7兆1,000億ドルから13兆1,700億ドルの利益をもたらすと予想されている。  
These transformations should not cloud the fact that AI remains an active area of research that is constantly evolving and improving.  As it evolves, we take our responsibility seriously to be a catalyst for preparing for an AI world, including seeking solutions to address potential negative externalities and helping to train the workforce of the future.   これらの変革は、AIが依然として活発な研究分野であり、常に進化と改善を続けているという事実を曇らせるべきではありません。 その進化に伴い、潜在的な負の外部性に対処するための解決策を模索し、未来の労働力の育成を支援するなど、AIの世界に備えるための触媒となる責任を、私たちは真剣に受け止めている。 
To ensure that AI is able to deliver its greatest positive potential, the Information Technology Industry Council (ITI) — representing the technology sector’s leading companies — urges collaboration among stakeholders across public and private sectors. We, as an industry, acknowledge the need to develop dialogues with governments and other interested parties to make this an inclusive process at every stage.  Outlined below are specific areas where industry and governments can collaborate, followed by specific opportunities for public-private partnerships (PPPs). To advance these principles, which we expect will evolve alongside AI technology, we acknowledge the following:   AIがその最大の可能性を発揮できるようにするため、テクノロジー分野の主要企業を代表するITI(Information Technology Industry Council)は、官民のステークホルダー間の連携を強く求めている。私たち産業界は、あらゆる段階で包括的なプロセスを実現するために、政府やその他の利害関係者との対話を深める必要性を認識している。 以下に、産業界と政府が協力できる具体的な分野と、官民パートナーシップ(PPP)の具体的な機会を列挙する。私たちは、AI技術とともに進化することを期待するこれらの原則を推進するために、以下のことを認識する。 
Our Responsibility: Promoting Responsible Development and Use.  私たちの責任:責任ある開発と使用を促進する。
Responsible Design and Deployment: We recognize our responsibility to integrate principles into the design of AI technologies, beyond compliance with existing laws. While the potential benefits to people and society are amazing, AI researchers, subject matter experts, and stakeholders should and do spend a great deal of time working to ensure the responsible design and deployment of AI systems. Highly autonomous AI systems must be designed consistent with international conventions that preserve human dignity, rights, and freedoms. As an industry, it is our responsibility to recognize potentials for use and misuse, the implications of such actions, and the responsibility and opportunity to take steps to avoid the reasonably predictable misuse of this technology by committing to ethics by design.  責任ある設計と実装:私たちは、既存の法律の遵守にとどまらず、AI技術の設計に原則を統合する責任を認識している。人と社会に対する潜在的な利益は素晴らしいものであるが、AIの研究者、主題専門家、および関係者は、AIシステムの責任ある設計と展開を確実にするために、多くの時間を費やすべきであるし、実際に費やしている。高度に自律的なAIシステムは、人間の尊厳、権利、自由を保護する国際条約に合致するように設計されなければならない。業界として、使用と誤用の可能性、そのような行為の意味、そして、デザインによる倫理にコミットすることによって、この技術の合理的に予測可能な誤用を避けるための措置を講じる責任と機会を認識することは、我々の責任である。
Safety and Controllability: Technologists have a responsibility to ensure the safe design of AI systems. Autonomous AI agents must treat the safety of users and third parties as a paramount concern, and AI technologies should strive to reduce risks to humans. Furthermore, the development of autonomous AI systems must have safeguards to ensure controllability of the AI system by humans, tailored to the specific context in which a particular system operates.    安全性と制御性:技術者は、AIシステムの安全な設計を保証する責任がある。自律型AIエージェントは、ユーザーと第三者の安全を最優先事項として扱わなければならず、AI技術は人間に対するリスクを低減するよう努めなければならない。さらに、自律型AIシステムの開発には、特定のシステムが動作する特定のコンテキストに合わせて、人間によるAIシステムの制御性を確保するためのセーフガードが必要である。  
Robust and Representative Data: To promote the responsible use of data and ensure its integrity at every stage, industry has a responsibility to understand the parameters and characteristics of the data, to demonstrate the recognition of potentially harmful bias, and to test for potential bias before and throughout the deployment of AI systems. AI systems need to leverage large datasets, and the availability of robust and representative data for building and improving AI and machine learning systems is of utmost importance.   ロバストで代表的なデータ:データの責任ある利用を促進し、あらゆる段階でデータの完全性を確保するために、産業界には、データのパラメータと特性を理解し、潜在的に有害なバイアスの認識を実証し、AIシステムの展開前および展開中に潜在的なバイアスをテストする責任がある。AIシステムは大規模なデータセットを活用する必要があり、AIや機械学習システムを構築・改善するための堅牢で代表的なデータの入手が最も重要である。 
Interpretability: We are committed to partnering with others across government, private industry, academia, and civil society to find ways to mitigate bias, inequity, and other potential harms in automated decision-making systems. Our approach to finding such solutions should be tailored to the unique risks presented by the specific context in which a particular system operates.  In many contexts, we believe tools to enable greater interpretability will play an important role. 解釈のしやすさ:私たちは、自動意思決定システムにおけるバイアス、不公平、その他の潜在的な害を軽減する方法を見つけるために、政府、民間企業、学術界、市民社会の他の人々と協力することを約束する。このような解決策を見つけるための私たちのアプローチは、特定のシステムが動作する特定のコンテキストによって提示される固有のリスクに合わせて調整されるべきである。 多くの文脈では、より大きな解釈可能性を可能にするツールが重要な役割を果たすと考えている。
Liability of AI Systems Due to Autonomy: The use of AI to make autonomous consequential decisions about people, informed by – but often replacing decisions made by – human-driven bureaucratic processes, has led to concerns about liability. Acknowledging existing legal and regulatory frameworks, we are committed to partnering with relevant stakeholders to inform a reasonable accountability framework for all entities in the context of autonomous systems.  自律性に起因する AI システムの責任:人間主導の官僚的プロセスによってなされた決定から情報を得て、しかししばしばそれに取って代わる、人間に関する自律的な結果決定を行うためのAIの使用は、責任に関する懸念につながっている。私たちは、既存の法律や規制の枠組みを理解した上で、関連するステークホルダーと協力し、自律型システムの文脈におけるすべての事業体のための合理的な説明責任の枠組みを伝えることにコミットしている。
The Opportunity for Governments: Investing and Enabling the AI Ecosystem. 政府にとっての機会 AIエコシステムへの投資と実現化。
Investment in AI Research and Development: We encourage robust support for research and development (R&D) to foster innovation through incentives and funding.  As the primary source of funding for long-term, high-risk research initiatives, we support governments’ investment in research fields specific or highly relevant to AI, including: cyber-defense, data analytics, detection of fraudulent transactions or messages, robotics, human augmentation, natural language processing, interfaces, and visualizations.  AI研究開発への投資:我々は、インセンティブと資金提供を通じてイノベーションを促進するために、研究開発(R&D)に対する強固な支援を奨励する。 長期的でリスクの高い研究イニシアチブの主要な資金源として、我々は、サイバー防衛、データ分析、不正な取引やメッセージの検出、ロボット工学、人間の増強、自然言語処理、インターフェース、可視化など、AIに特有または高度に関連する研究分野への政府の投資を支持する。
Flexible Regulatory Approach: We encourage governments to evaluate existing policy tools and use caution before adopting new laws, regulations, or taxes that may inadvertently or unnecessarily impede the responsible development and use of AI. As applications of AI technologies vary widely, overregulating can inadvertently reduce the number of technologies created and offered in the marketplace, particularly by startups and smaller businesses. We encourage policymakers to recognize the importance of sector-specific approaches as needed; one regulatory approach will not fit all AI applications. We stand ready to work with policymakers and regulators to address legitimate concerns where they occur.  柔軟な規制アプローチ:我々は、各国政府が既存の政策手段を評価し、不注意または不必要にAIの責任ある開発と使用を妨げる可能性のある新しい法律、規制、または税金を採用する前に注意することを奨励する。AI技術の用途は多岐にわたるため、過剰な規制は、特に新興企業や中小企業によって、市場で創造・提供される技術の数を不用意に減らすことになりかねない。私たちは、政策立案者が必要に応じて分野別のアプローチの重要性を認識することを奨励する。1つの規制アプローチがすべてのAIアプリケーションに適合するわけではありません。私たちは、政策立案者や規制当局と協力し、正当な懸念が生じた場合には、それに対処する用意がある。
Promoting Innovation and the Security of the Internet: We strongly support the protection of the foundation of AI, including source code, proprietary algorithms, and other intellectual property. To this end, we believe governments should avoid requiring companies to transfer or provide access to technology, source code, algorithms, or encryption keys as conditions for doing business. We support the use of all available tools, including trade agreements, to achieve these ends. イノベーションとインターネットの安全性の促進:私たちは、ソースコード、独自のアルゴリズム、その他の知的財産を含む、AIの基盤の保護を強く支持する。この目的のために、政府は、ビジネスを行うための条件として、技術、ソースコード、アルゴリズム、または暗号化キーの譲渡またはアクセスを企業に要求することを避けるべきだと考えます。私たちは、これらの目的を達成するために、貿易協定を含むあらゆる利用可能なツールの使用を支持する。
Cybersecurity and Privacy: Just like technologies that have come before it, AI depends on strong cybersecurity and privacy provisions. We encourage governments to use strong, globally-accepted and deployed cryptography and other security standards that enable trust and interoperability. We also promote voluntary information-sharing on cyberattacks or hacks to better enable consumer protection. The tech sector incorporates strong security features into our products and services to advance trust, including using published algorithms as our default cryptography approach as they have the greatest trust among global stakeholders, and limiting access to encryption keys. Data and cybersecurity are integral to the success of AI. We believe for AI to flourish, users must trust that their personal and sensitive data is protected and handled appropriately. AI systems should use tools, including anonymized data, de-identification, or aggregation to protect personally identifiable information whenever possible. サイバーセキュリティとプライバシー:これまでの技術と同様に、AIは強力なサイバーセキュリティとプライバシーの規定に依存している。私たちは、信頼と相互運用を可能にする強力で世界的に受け入れられ、展開されている暗号技術やその他のセキュリティ標準を使用することを政府に奨励する。また、サイバー攻撃やハッキングに関する自主的な情報共有を促進し、消費者保護をより効果的に行えるようにする。ハイテクセクターは、信頼を高めるため、製品やサービスに強力なセキュリティ機能を組み込んでいる。これには、世界のステークホルダーから最も信頼されている公開アルゴリズムをデフォルトの暗号手法として使用することや、暗号鍵へのアクセスを制限することなどが含まれます。データとサイバーセキュリティは、AIの成功に不可欠である。私たちは、AIが繁栄するためには、ユーザーが自分の個人データや機密データが保護され、適切に扱われることを信頼しなければならないと考えている。AIシステムは、可能な限り、個人を特定できる情報を保護するために、匿名化データ、非識別化、または集計を含むツールを使用する必要がある。
Global Standards and Best Practices: We promote the development of global voluntary, industry-led, consensus-based standards and best practices. We encourage international collaboration in such activities to help accelerate adoption, promote competition, and enable the cost-effective introduction of AI technologies.   グローバルスタンダードとベストプラクティス:私たちは、業界主導のコンセンサスに基づくグローバルな自主基準およびベストプラクティスの開発を推進する。私たちは、AI技術の採用を加速し、競争を促進し、費用対効果の高い序文を可能にするために、このような活動における国際協力を奨励する。 
The Opportunity for Public-Private Partnerships: Promoting Lifespan Education and Diversity.   官民のパートナーシップの機会。生涯教育と多様性の促進。 
Democratizing Access and Creating Equality of Opportunity: While AI systems are creating new ways to generate economic value, if the value favors only certain incumbent entities, there is a risk of exacerbating existing wage, income, and wealth gaps. We support diversification and broadening of access to the resources necessary for AI development and use, such as computing resources, education, and training, including opportunities to participate in the development of these technologies.    アクセスの民主化と機会均等の創出:AIシステムは経済的価値を生み出す新たな方法を生み出しているが、その価値が特定の既存事業者だけに有利なものであれば、既存の賃金、所得、富の格差を悪化させる危険性がある。私たちは、これらの技術開発に参加する機会を含め、コンピューティング資源、教育、トレーニングなど、AIの開発および使用に必要な資源へのアクセスの多様化と拡大を支持する。  
Science, Technology, Engineering and Math (STEM) Education: Current and future workers need to be prepared with the necessary education and training to help them succeed. We recognize that delivering training is critical and will require significant investment, not only in STEM education, but also in understanding human behavior via the humanities and social sciences. To ensure employability of the workforce of the future, the public and private sectors should work together to design and deliver work-based learning and training systems, and advance approaches that provide students with real work experiences and concrete skills. In conjunction, prioritizing diversity and inclusion in STEM fields, and in the AI community specifically, will be a key part in ensuring AI develops in the most robust way possible.   科学、技術、工学、数学(STEM)教育:現在および将来の労働者は、成功のために必要な教育と訓練を受ける必要がある。私たちは、トレーニングを提供することが重要であり、STEM教育だけでなく、人文科学や社会科学を通じて人間の行動を理解するためにも、多額の投資が必要であると認識している。将来の労働力の雇用可能性を確保するために、官民が協力して、ワークベースの学習・訓練システムを設計・提供し、学生に実際の仕事体験と具体的なスキルを提供するアプローチを進めるべきである。また、STEM分野、特にAIコミュニティにおける多様性と包摂を優先することは、AIが最も強固な方法で発展するための重要な要素になる。 
Workforce: There is concern that AI will result in job change, job loss, and/or worker displacement. While these concerns are understandable, it should be noted that most emerging AI technologies are designed to perform a specific task and assist rather than replace human employees. This type of augmented intelligence means that a portion, but most likely not all, of an employee’s job could be replaced or made easier by AI. While the full impact of AI on jobs is not yet fully known, in terms of both jobs created and displaced, an ability to adapt to rapid technological change is critical. We should leverage traditional human-centered resources as well as new career educational models and newly developed AI technologies to assist both the existing workforce and future workforce in successfully navigating career development and job transitions. Additionally, we must have PPPs that significantly improve the delivery and effectiveness of lifelong career education and learning, inclusive of workforce adjustment programs.  We must also prioritize the availability of job-driven training to meet the scale of need, targeting resources to programs that produce strong results.  労働力:AIが雇用の変化、雇用の喪失、労働者の移動につながるという懸念がある。こうした懸念は理解できるが、新興のAI技術の多くは、特定のタスクを実行し、人間の従業員を置き換えるのではなく、支援するように設計されていることに留意する必要がある。この種の拡張知能は、従業員の仕事の一部がAIに取って代わられたり、より簡単になったりする可能性があることを意味する(ただし、ほとんどの場合、すべてではありません)。AIが雇用に与える影響はまだ完全には分かっていませんが、雇用の創出と喪失の両面から、急速な技術変化に適応する能力が重要である。私たちは、従来の人間中心のリソースだけでなく、新しいキャリア教育モデルや新しく開発されたAI技術を活用し、既存の労働力と未来の労働力の両方が、キャリア開発とジョブトランジションをうまく乗り切れるように支援する必要がある。さらに、労働力調整プログラムを含む生涯キャリア教育・学習の提供と効果を大幅に向上させるPPPが必要である。 また、ニーズの規模に応じた職業主導型トレーニングの提供を優先し、強力な成果を生み出すプログラムに資源を集中させなければならない。
Public Private Partnership: PPPs will make AI deployments an attractive investment for both government and private industry, and promote innovation, scalability, and sustainability. By leveraging PPPs – especially between industry partners, academic institutions, and governments – we can expedite AI R&D and prepare our workforce for the jobs of the future.  官民パートナーシップ:PPPは、政府および民間企業の双方にとって、AIの導入を魅力的な投資とし、イノベーション、拡張性、持続可能性を促進することができる。特に産業界のパートナー、学術機関、政府間のPPPを活用することで、AIの研究開発を加速させ、将来の仕事に対応できる労働力を準備することができる。

 

 

| | Comments (0)

2023.02.15

欧州議会 サイバーセキュリティ:主な脅威と新たな脅威 (2023.01.27)

こんにちは、丸山満彦です。

欧州議会が、「サイバーセキュリティ:主な脅威と新たな脅威」と題して、8つの脅威について簡単な説明を加えて、注意喚起をしていますね。。。

主な脅威と新たな脅威として選ばれた8つの脅威は、

1. Ransomware: hackers seize control of someone’s data and demand a ransom to restore access 1. ランサムウェア:ハッカーが誰かのデータを掌握し、アクセスを回復するために身代金を要求する。
2. Malware: software that harms a system 2. マルウェア:システムに害を与えるソフトウェア
3. Social engineering threats: exploiting human error to gain access to information or services 3. ソーシャルエンジニアリングの脅威:ヒューマンエラーを悪用して情報やサービスにアクセスする。
4. Threats against data: targeting sources of data to get unauthorised access and disclosure 4. データに対する脅威:不正アクセスや情報公開を目的としたデータソースの標的化
5. Threats against availability - Denial of Service: attacks preventing users from accessing data or services 5. 可用性に対する脅威 - サービス妨害:ユーザーがデータやサービスにアクセスするのを妨害する攻撃
6. Threats against availability: threats to the availability of the internet 6. 可用性に対する脅威:インターネットの可用性に対する脅威。
7. Disinformation/misinformation: the spread of misleading information 7. 偽情報・誤報:誤解を招く情報の流布
8. Supply-chain attacks: targeting the relationship between organisations and suppliers 8. サプライチェーン攻撃:組織とサプライヤーの関係を標的にした攻撃

ランサムウェアはどこの国でも上位に来ますね。。。

そして注目は、ソーシャルメディア、偽情報、サプライチェーンですかね。。。

 

で、報告があったインシデントが多かった組織順にいうと、、、

1. Public administration/government(24% of incidents reported) 1. 行政/政府(報告されたインシデントの24%)
2. Digital service providers (13%) 2. デジタルサービスプロバイダー (13%)
3. General public (12%) 3. 一般市民(12%)
4. Services (12%) 4. サービス(12%)
5. Finance/banking (9%) 5. 金融/銀行(9%)
6. Health (7%) 6. 健康 (7%)

と言うことで、政府が一番ですが、一般市民も3位に入っていますね。。。

 

European Parliament

・2023.01.27 Cybersecurity: main and emerging threats

Cybersecurity: main and emerging threats サイバーセキュリティ:主な脅威と新たな脅威
Find out about the top cyber threats in 2022, the most affected sectors and the impact of the war in Ukraine. 2022年のサイバー脅威のトップ、最も影響を受けるセクター、ウクライナ戦争の影響について確認すること。
The digital transformation has inevitably led to new cybersecurity threats. During the coronavirus pandemic, companies had to adapt to remote working and this created more possibilities for cybercriminals. The war in Ukraine has also affected cybersecurity. デジタルトランスフォーメーションは、必然的に新たなサイバーセキュリティの脅威を引き起こした。コロナウイルスが大流行した際、企業はリモートワークに適応しなければならず、その結果、サイバー犯罪者の可能性が高まりれた。ウクライナ戦争もサイバーセキュリティに影響を及ぼしている。
In response to the evolution of cybersecurity threats, Parliament adopted a new EU directive introducing harmonised measures across the EU, including on the protection of essential sectors. サイバーセキュリティの脅威の進化に対応するため、議会は、必須部門の保護を含め、EU全体で調和された措置を導入する新しいEU指令を採択した。
Read more on new EU measures to fight cybercrime サイバー犯罪に対抗するためのEUの新たな対策について続きを読む
Top 8 cybersecurity threats in 2022 and beyond 2022年以降のサイバーセキュリティの脅威トップ8
According to the Threat Landscape 2022 report by the European Union Agency for Cybersecurity (Enisa), there are eight prime threat groups: 欧州連合サイバーセキュリティ機関(Enisa)による「Threat Landscape 2022」レポートによると、8つの主要な脅威グループが存在する。
1. Ransomware: hackers seize control of someone’s data and demand a ransom to restore access 1. ランサムウェア:ハッカーが誰かのデータを掌握し、アクセスを回復するために身代金を要求する。
In 2022, ransomware attacks continued to be one of the main cyberthreats. They are also getting more complex. According to a survey quoted by Enisa that was conducted at the end of 2021 and in 2022, over half of respondents or their employees had been approached in ransomware attacks. 2022年、ランサムウェア攻撃は引き続き主要なサイバー脅威の1つであった。また、それらはより複雑化している。エニサが引用した2021年末と2022年に実施された調査によると、回答者の半数以上またはその従業員がランサムウェア攻撃に接近されたことがあるという。
Data quoted by the EU Agency for Cybersecurity shows that the highest ransomware demand grew from €13 million in 2019 to €62 million in 2021 and the average ransom paid doubled from €71,000 in 2019 to €150,000 in 2020. It is estimated that in 2021 global ransomware reached €18 billion worth of damages – 57 times more than in 2015. EUサイバーセキュリティ庁が引用したデータによると、ランサムウェアの最高要求額は2019年の1,300万ユーロから2021年には6,200万ユーロに拡大し、支払われた身代金の平均額は2019年の71,000ユーロから2020年には150,000ユーロに倍増している。2021年の世界のランサムウェアの被害額は180億ユーロ相当に達し、2015年の57倍になると推定されている。
2. Malware: software that harms a system 2. マルウェア:システムに害を与えるソフトウェア
Malware includes viruses, worms, Trojan horses and spyware. After a global decrease in malware linked to the Covid-19 pandemic in 2020 and early 2021, its use increased heavily by the end of 2021, as people started returning to the office. マルウェアには、ウイルス、ワーム、トロイの木馬、スパイウェアなどが含まれます。2020年から2021年初頭にかけて、Covid-19の大流行に連動してマルウェアが世界的に減少した後、2021年末には人々がオフィスに戻り始めると、その利用が大きく増加した。
The rise of malware is also attributed to crypto-jacking (the secret use of a victim’s computer to create cryptocurrency illegally) and Internet-of-Things malware (malware targeting devices connected to the internet such as routers or cameras). マルウェアの増加は、クリプトジャッキング(被害者のコンピュータを秘密裏に使用して暗号通貨を不正に作成すること)やIoTマルウェア(ルーターやカメラなどインターネットに接続されている機器を狙うマルウェア)にも起因している。
According to Enisa, there were more Internet-of-Things attacks in the first six months of 2022 than in the previous four years. ENISAによると、2022年の最初の6カ月間は、過去4年間よりもIoT攻撃が多かったという。
3. Social engineering threats: exploiting human error to gain access to information or services 3. ソーシャルエンジニアリングの脅威:ヒューマンエラーを悪用して情報やサービスにアクセスする。
Tricking victims into opening malicious documents, files or emails, visiting websites and thus granting unauthorised access to systems or services. The most common attack of this sort is phishing (through email) or smishing (through text messages). 被害者をだまして、悪意のある文書、ファイル、電子メールを開かせたり、ウェブサイトを訪問させたりして、システムやサービスへの不正なアクセスを許可させる。この種の攻撃で最も一般的なのは、フィッシング(電子メールを使ったもの)またはスミッシング(テキストメッセージを使ったもの)である。
Almost 60% of the breaches in Europe, the Middle East and Africa include a social engineering component, according to research quoted by Enisa. ENISAが引用した調査によると、ヨーロッパ、中東、アフリカにおける情報漏えいの約60%にソーシャル・エンジニアリングの要素が含まれているとのことである。
The top organisations impersonated by phishers were from the financial and technology sectors. Criminals are also increasingly targeting crypto exchanges and cryptocurrency owners. フィッシャーになりすまされた組織のトップは、金融とテクノロジー部門であった。また、暗号取引所や暗号通貨の所有者を狙う犯罪者も増えている。
4. Threats against data: targeting sources of data to get unauthorised access and disclosure 4. データに対する脅威:不正アクセスや情報公開を目的としたデータソースの標的化
We live in a data-driven economy, producing huge amounts of data that are extremely important for, among others, enterprises and Artificial Intelligence, which makes it a major target for cybercriminals. Threats against data can be mainly classified as data breaches (intentional attacks by a cybercriminal) and data leaks (unintentional releases of data). 我々はデータ駆動型経済の中で生活しており、特にエンタープライズや人工知能にとって極めて重要な膨大な量のデータを生み出しているため、サイバー犯罪者の大きなターゲットになっている。データに対する脅威は、主にデータ侵害(サイバー犯罪者による意図的な攻撃)とデータ漏えい(意図しないデータの流出)に分類される。
Money remains the most common motivation of such attacks. Only in 10% of cases is espionage the motive. このような攻撃の動機として最も一般的なのは、依然として金銭である。諜報活動が動機となっているケースは10%に過ぎない。
5. Threats against availability - Denial of Service: attacks preventing users from accessing data or services 5. 可用性に対する脅威 - サービス妨害:ユーザーがデータやサービスにアクセスするのを妨害する攻撃
These are some of the most critical threats to IT systems. They are increasing in scope and complexity. One common form of attack is to overload the network infrastructure and make a system unavailable. これらは、ITシステムにとって最も重要な脅威の一つである。これらの脅威は、その範囲と複雑さを増している。一般的な攻撃は、ネットワークインフラに負荷をかけ、システムを利用不能にするものである。
Denial of Service attacks are increasingly hitting mobile networks and connected devices. They are used a lot in Russia-Ukraine cyberwarfare. Covid-19 related websites, such as those for vaccination have also been targeted. サービス拒否攻撃は、モバイルネットワークや接続されたデバイスを攻撃することが多くなっている。ロシアとウクライナのサイバー戦でも多く利用されている。予防接種などのCovid-19関連のWebサイトも狙われている。
6. Threats against availability: threats to the availability of the internet 6. 可用性に対する脅威:インターネットの可用性に対する脅威。
These include physical take-over and destruction of internet infrastructure, as seen in occupied Ukrainian territories since the invasion, as well as the active censoring of news or social media websites. 侵攻後のウクライナ占領地で見られたようなインターネットインフラの物理的な乗っ取りや破壊、ニュースやソーシャルメディアサイトの積極的な検閲などが挙げられる。
7. Disinformation/misinformation: the spread of misleading information 7. 偽情報・誤報:誤解を招く情報の流布
The increasing use of social media platforms and online media has led to a rise in campaigns spreading disinformation (purposefully falsified information) and misinformation (sharing wrong data). The aim is to cause fear and uncertainty. ソーシャルメディアプラットフォームやオンラインメディアの利用が増えたことで、偽情報(意図的に改ざんした情報)や誤情報(誤ったデータの共有)を拡散するキャンペーンが増加している。その目的は、恐怖や不安を引き起こすことである。
Russia has used this technology to target perceptions of the war. ロシアはこの技術を使って、戦争に対する認識を標的にしている。
Deepfake technology means it is now possible to generate fake audio, video or images that are almost indistinguishable from real ones. Bots pretending to be real people can disrupt online communities by flooding them with fake comments. ディープフェイク技術とは、本物とほとんど見分けがつかない偽の音声、映像、画像を生成することが可能になったということである。実在の人物になりすれたボットは、偽のコメントでオンライン・コミュニティを混乱させることができます。
Read more about the sanctions against disinformation the Parliament is calling for 国会が求めている偽情報に対する制裁措置についてもっと読む
8. Supply-chain attacks: targeting the relationship between organisations and suppliers 8. サプライチェーン攻撃:組織とサプライヤーの関係を標的にした攻撃
This is a combination of two attacks - on the supplier and on the customer. Organisations are becoming more vulnerable to such attacks, because of increasingly complex systems and a multitude of suppliers, which are harder to oversee. これは、サプライヤーに対する攻撃と顧客に対する攻撃の2つを組み合わせたものである。システムはますます複雑化し、サプライヤーも多数存在するため、監視することが難しくなっており、組織はこのような攻撃に対してより脆弱になってきている。
Top sectors affected by cybersecurity threats サイバーセキュリティの脅威の影響を受けるトップセクター
Cybersecurity threats in the European Union are affecting vital sectors. According to Enisa, the top six sectors affected between June 2021 and June 2022 were: 欧州連合(EU)におけるサイバーセキュリティの脅威は、重要なセクターに影響を及ぼしている。エニサによると、2021年6月から2022年6月の間に影響を受けた上位6セクターは以下の通りである。
1. Public administration/government (24% of incidents reported) 1. 行政/政府(報告されたインシデントの24%)
2. Digital service providers (13%) 2. デジタルサービスプロバイダー(13%)
3. General public (12%) 3. 一般市民(12%)
4. Services (12%) 4. サービス(12%)
5. Finance/banking (9%) 5. 金融/銀行(9%)
6. Health (7%) 6. 健康 (7%)
Read more on the costs of cyberattacks サイバー攻撃のコストについての詳細はこちら
The impact of the war in Ukraine on cyberthreats ウクライナ戦争がサイバー脅威に与える影響
Russia’s war on Ukraine has influenced the cyber sphere in many ways. Cyber operations are used alongside traditional military action. According to Enisa, actors sponsored by the Russian state have carried out cyber operations against entities and organisations in Ukraine and in countries that support it. ロシアのウクライナ戦争は、様々な形でサイバー領域に影響を与えている。サイバー作戦は、従来の軍事行動と並行して利用されている。Enisaによると、ロシア国家がスポンサーとなっている行為者は、ウクライナやそれを支援する国の団体や組織に対してサイバー作戦を実施している。
Hacktivist (hacking for politically or socially motivated purposes) activity has also increased, with many conducting attacks to support their chosen side of the conflict. ハクティビスト(政治的・社会的動機によるハッキング)の活動も活発化しており、多くは紛争で選んだ側を支援するために攻撃を行った。
Disinformation was a tool in cyberwarfare before the invasion started and both sides are using it. Russian disinformation has focused on finding justifications for the invasion, while Ukraine has used disinformation to motivate troops. Deepfakes with Russian and Ukrainian leaders expressing views supporting the other side of the conflict were also used. 偽情報は侵攻が始まる前からサイバー戦のツールであり、双方がそれを利用している。ロシアの偽情報は侵攻を正当化することに重点を置いており、一方ウクライナは部隊のモチベーションを高めるために偽情報を使用している。ロシアとウクライナの指導者が紛争の反対側を支持する意見を表明しているディープフェイクも使われれた。
Cybercriminals tried to extort money from people wanting to support Ukraine via fake charities サイバー犯罪者は、偽のチャリティ団体を通じてウクライナを支援しようとする人々から金銭を強要しようとした。
Cybercrime and cybersecurity サイバー犯罪とサイバーセキュリティ
Enisa: Cybersecurity Threats Fast-Forward 2030  ENISA:サイバーセキュリティの脅威早わかり2030年版 
Europol: cybercrime  欧州警察機構(Europol):サイバー犯罪 

 

 

European-parliament


 

関連するEuropean Parliamentのサイト (最終更新日)

サイバー攻撃、犯罪...

・2022.11.23 Cybersecurity: why reducing the cost of cyberattacks matters

・2022.01.30 Fighting cybercrime: new EU cybersecurity laws explained

DX...

・2022.05.04 Digital transformation: importance, benefits and EU policy

Deepfakes

・2022.03.03 Parliament committee recommends EU sanctions to counter disinformation

・2021.07.30 Tackling deepfakes in European policy

 

関連するENISAのサイト

・2022.11.03 ENISA Threat Landscape 2022


関連するInterpolのサイト

Cryptojacking

 

 

 

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

 

脅威について...

・2022.02.12 JNSA 20+3周年記念講演資料公開 「コンピューターセキュリティ、情報システムセキュリティ、ITセキュリティ、ネットワークセキュリティ情報セキュリティ、サイバーセキュリティ、そして…」

 

・2023.01.26 IPA 「情報セキュリティ10大脅威 2023」を公開

・2022.12.24 JNSA 2022セキュリティ十大ニュース

・2022.11.09 オーストラリア ACSC 年次サイバー脅威報告書(2021年7月から2022年6月)

・2022.11.08 ENISA 脅威状況 2022:不安定な地政学がサイバーセキュリティ脅威状況の傾向を揺るがす

・2022.11.01 カナダ サイバーセキュリティセンター 国家サイバー脅威評価 2023-2024

・2022.08.31 シンガポール サイバーセキュリティ庁 2021年シンガポールのサイバーセキュリティ状況

・2022.08.01 ENISA ランサムウェアについての脅威状況

 

FIMI、偽情報関係...

・2022.12.14 ENISA 外国人による情報操作と干渉(FIMI)とサイバーセキュリティ - 脅威状況

 

 

 



| | Comments (0)

欧州 データ法案 欧州議会議員は産業データへの公正なアクセスと利用のための新ルールを支持

こんにちは、丸山満彦です。

欧州議会が、データ法を採択したようですね、2023.03.13-16に開催される本議会で採決されるようですね。。。おそらく可決されると思うので、まもなくデータ法も意識していく必要が出てきたのでしょうかね。。。

 

European Parliament

・2023.02.09 Data Act: MEPs back new rules for fair access and use of industrial data

Data Act: MEPs back new rules for fair access and use of industrial data データ法 欧州議会議員は産業データへの公正なアクセスと利用のための新ルールを支持
・Innovation increasingly relies on data ・イノベーションはますますデータに依存するようになる
・Legislation clarifies who can access data and on what terms ・法律により、誰がどのような条件でデータにアクセスできるかが明確になる
・It will empower a wider range of private and public entities to share data ・データ法は、より広範な民間および公的事業体がデータを共有できるようにする
・MEPs want to preserve incentives for businesses to invest in data generation ・欧州議会議員は、事業者がデータ生成に投資するインセンティブを維持したいと考えている
The “Data Act” aims to boost innovation by removing barriers obstructing consumers and businesses’ access to data. 「データ法」は、消費者や事業者のデータへのアクセスを妨げる障壁を取り除くことにより、イノベーションを促進することを目的としている。
The draft legislation, adopted on Thursday in the Industry, Research and Energy Committee, would contribute to the development of new services, in particular in the sector of artificial intelligence where huge amounts of data are needed for algorithm training. It can also lead to better prices for after-sales services and repairs of connected devices. 木曜日に産業・研究・エネルギー委員会で採択されたこの法案では、特にアルゴリズムの学習に膨大なデータを必要とする人工知能の分野において、新しいサービスの開発に貢献することが期待される。また、コネクテッドデバイスのアフターサービスや修理の価格改善にもつながる。
MEPs adopted measures to allow users to gain access to the data they generate, as 80% of industrial data are never used, according to the European Commission. They also want to ensure contractual agreements are at the centre of business-to-business relations. 欧州委員会によると、産業データの80%は利用されることがないため、欧州議会は、ユーザーが生成したデータにアクセスできるようにするための措置を採択した。また、欧州議会議員は、事業者間関係の中心に契約上の取り決めがあるようにしたいと考えている。
Companies could decide what data can be shared, and the manufacturer choose not to make certain data available “by design”. When companies draft their data-sharing contracts, the law will rebalance the negotiation power in favour of SMEs, by shielding them from unfair contractual terms imposed by companies that are in a significantly stronger bargaining position. 企業はどのようなデータを共有できるかを決め、メーカーは「意図的に」特定のデータを利用できないようにすることを選択することができる。企業がデータ共有契約を作成する際、この法律は、著しく強い交渉力を持つ企業が課す不当な契約条件から中小企業を保護し、交渉力を中小企業に有利になるようにバランスを調整する。
The text also defines how public sector bodies can access and use data held by the private sector that are necessary in exceptional circumstances or emergencies, such as floods and wildfires. また、洪水や山火事などの例外的な状況や緊急事態において、公共部門が民間部門の保有するデータにアクセスし、利用する方法を定義している。
MEPs strengthened provisions to protect trade secrets and avoid a situation where increased access to data is used by competitors to retro-engineer services or devices. They also set stricter conditions on business-to-government data requests. 欧州議会議員は、企業秘密を保護する条項を強化し、データへのアクセスの増加が、競合他社によるサービスや機器の改造に利用される事態を回避するようにした。また、事業体対政府のデータ要求に関する条件をより厳しく設定した。
Finally, the proposed act would facilitate switching between providers of cloud services, and other data processing services, and introduce safeguards against unlawful international data transfer by cloud service providers. 最後に、提案された法律では、クラウドサービスやその他のデータ処理サービスのプロバイダー間の切り替えを容易にし、クラウドサービスプロバイダーによる違法な国際データ転送に対する保護措置を導入する。
Quote 引用
“The Data Act will be an absolute game changer providing access to an almost infinite amount of high-quality industrial data. Competitiveness and innovation are part of its DNA”, said lead MEP Pilar del Castillo Vera (EPP, ES). データ法を主導する欧州議会議員Pilar del Castillo Vera(EPP、ES)氏は次のように述べている。「データ法は、ほぼ無限にある高品質の産業データへのアクセスを提供する、絶対的なゲームチェンジャーとなる。競争力とイノベーションは、この法律のDNAの一部である」。
Next steps 次のステップ
The report was adopted by MEPs with 59 votes to 0, with 11 abstentions. It will put to a vote by the full House during the 13-16 March plenary session. 本報告書は、59票対0票、棄権11票で欧州議会で採択された。この報告書は、3月13日から16日にかけて開催される本会議で採決される予定である。
Background 背景
The volume of data generated by humans and machines is increasing exponentially and becoming a critical factor for innovation by businesses (e.g. algorithm training) and by public authorities (e.g. shaping of smart cities). 人間や機械が生成するデータ量は指数関数的に増加しており、事業者によるイノベーション(アルゴリズム教育など)や公的機関によるイノベーション(スマートシティの形成など)にとって重要な要素になっている。
The proposed act establishes common rules governing the sharing of data generated by the use of connected products or related services (e.g. the internet of things, industrial machines) to ensure fairness in data sharing contracts. 本法案は、コネクテッドプロダクトや関連サービス(例:モノのインターネット、産業機械)の使用によって生成されるデータの共有について、データ共有契約の公平性を確保するための共通ルールを定めるものである。
This kind of data is said to have become the new oil and is critical for innovations by business (e.g. algorithm training) and by public authorities (e.g. for shaping smart cities). このようなデータは、新しい石油になったと言われており、ビジネス(アルゴリズム教育など)や公共機関(スマートシティの形成など)によるイノベーションに不可欠である。

 

情報はこのページにまとまっています...

 

European Parliament - Legislative Observatory

2022/0047(COD)  Data Act  

 

欧州委員会から欧州議会に提出されたデータ保護法案

・2022.02.23 [PDF] COM(2022) 68 final 2022/0047 (COD) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on harmonised rules on fair access to and use of data (Data Act)

20230214-135523

・[DOCX] 仮訳

 

 

修正案等

・2022.09.14 [PDF] 2022/0047(COD) ***I DRAFT REPORT

200項目あります...

それに関する議論等

・2022.11.09 委員会で審議された修正案 PE738.509  
・2022.11.09 委員会で審議された修正案 PE738.511  
・2022.11.09 委員会で審議された修正案 PE738.548  
・2022.11.09 委員会で審議された修正案 PE738.549  
・2023.01.25 委員会意見 PE736.701  
・2023.01.26 委員会意見 PE736.696  
・2023.02.02 委員会意見 PE737.389 

 

 

| | Comments (0)

2023.02.14

米国 国防総省 国防総省のサイバーセキュリティに関する報告および証言の概要(2020年7月1日〜2022年6月30日) (2023.02.01)

こんにちは、丸山満彦です。

米国国防総省の内部監察官室が、2020年7月から2022年6月までの2会計期間内の監査によるサイバーセキュリティ関連の指摘事項の概要をまとめた報告書を公表していますね。。。一部機密指定が残っていて黒塗りになっています。

 

Department of Defense Office of Inspector General

・2023.02.01 Summary of Reports and Testimonies Regarding DoD Cybersecurity from July 1, 2020, Through June 30, 2022 (DODIG-2023-047)

 

Summary of Reports and Testimonies Regarding DoD Cybersecurity from July 1, 2020, Through June 30, 2022 (DODIG-2023-047) 2020年7月1日から2022年6月30日までの国防総省のサイバーセキュリティに関する報告書および証言の概要(DODIG-2023-047)
Objective: 目的
The objective of this summary report was to: (1) summarize unclassified and classified reports and testimonies regarding DoD cybersecurity that the DoD Office of Inspector General (OIG), the Government Accountability Office (GAO), and other DoD oversight organizations issued between July 1, 2020, and June 30, 2022, concerning DoD cybersecurity; (2) identify cybersecurity trends; and (3) provide a status of open DoD cybersecurity-related recommendations. 本要約報告書の目的は、(1)国防総省監察総監室(OIG)、政府説明責任局(GAO)、およびその他の国防総省監督機関が2020年7月1日から2022年6月30日の間に発行した国防総省のサイバーセキュリティに関する非分類および分類された報告および証言の要約、(2)サイバーセキュリティ傾向の特定、(3)国防総省サイバーセキュリティ関連の未提案の状況であった。
We issue this summary report biennially to identify DoD cybersecurity trends based on the National Institute of Standards and Technology (NIST), “Framework for Improving Critical Infrastructure Cybersecurity,” April 16, 2018 (NIST Cybersecurity Framework) for DoD management to review and consider implementing changes, as appropriate. 我々は、国防総省の管理者がレビューし、必要に応じて変更を実施することを検討するために、国立標準技術研究所(NIST)、「重要インフラサイバーセキュリティの改善のための枠組み」、2018年4月16日(NISTサイバーセキュリティ枠組み)に基づく国防総省サイバーセキュリティ傾向を特定するために、この要約報告書を隔年発行している。
Background: 背景
Federal agencies are required to use the NIST Cybersecurity Framework to manage their cybersecurity risk. The NIST Cybersecurity Framework consists of five functions—Identify, Protect, Detect, Respond, and Recover— representing high‑level cybersecurity activities that provide a strategic view of the risk management cycle for identifying, assessing, and responding to risk. In addition, the five functions include 23 associated categories, such as “Asset Management” or “Detection Process,” that provide desired cybersecurity outcomes. 連邦政府機関は、サイバーセキュリティのリスクを管理するために、NISTサイバーセキュリティフレームワークを使用することが求められている。NISTサイバーセキュリティフレームワークは、識別、防御、検知、対応、回復の5つの機能で構成されており、リスクの識別、アセスメント、対応のためのリスク管理サイクルの戦略的な視点を提供するハイレベルなサイバーセキュリティ活動を表している。さらに、この5つの機能には、「資産管理」や「検知プロセス」など、サイバーセキュリティの望ましい成果をもたらす23の関連カテゴリーが含まれている。
Each of the 23 categories has up to 12 subcategories that further divide the categories into specific outcomes of technical and management activities, such as “data‑at‑rest is protected” or “notifications from detection systems are investigated.” 23のカテゴリーにはそれぞれ最大12のサブカテゴリーがあり、カテゴリーをさらに「静止データの保護」や「検知システムからの通知の調査」など、技術・管理活動の具体的な成果に分割している。
The DoD also uses the Risk Management Framework, which provides an integrated enterprise‑wide decision structure and is consistent with the principles established in the NIST Cybersecurity Framework, for managing cybersecurity risk and authorizing and connecting information systems. また、DoDは、サイバーセキュリティのリスク管理や情報システムの認可・接続のために、企業全体の統合的な意思決定構造を提供し、NISTサイバーセキュリティフレームワークで定められた原則と一致するリスク管理フレームワークを使用している。
Summary: 概要
This year’s report summarizes the results of the 133 reports related to DoD cybersecurity—124 unclassified and 9 classified— and 7 congressional testimonies from the DoD OIG, GAO, and other DoD oversight organizations that were released from July 1, 2020, through June 30, 2022. 本年度の報告書は、2020年7月1日から2022年6月30日までに発表されたDoDのサイバーセキュリティに関する133の報告書(非分類124、分類9)およびDoD OIG、GAO、その他のDoD監督組織による7つの議会証言の結果を要約したものである。
Over the past 6 years, the DoD OIG, GAO, and the other DoD oversight organizations have steadily increased cybersecurity‑related oversight. However, a large and growing percentage of these reports focused primarily on issues related to two of the five NIST Cybersecurity Framework functions—Identify and Protect. There was less oversight provided by the DoD OIG, GAO, and the other DoD oversight organizations of the three remaining NIST Cybersecurity Framework functions—Detect, Respond, and Recover. 過去6年間、DoD OIG、GAO、およびその他のDoD監視組織は、サイバーセキュリティ関連の監視を着実に強化してきた。しかし、これらの報告書の大部分は、NISTサイバーセキュリティフレームワークの5つの機能のうち、識別と防御の2つの機能に関連する問題に主に焦点を当てており、その割合は増加している。NIST Cybersecurity Frameworkの残りの3つの機能である検知、対応、回復については、DoD OIG、GAO、およびその他のDoD監視組織による監視はあまり行われていない。
The DoD cybersecurity reports issued from July 2020 through June 2022 identified significant challenges in the DoD’s management of cybersecurity risks to its systems and networks.  The reports discussed DoD risks r elated to 20 of the 23 NIST Cybersecurity Framework categories. The majority of the weaknesses identified in the 133 reports we reviewed related to the categories of Governance (Identify function), Asset Management (Identify function), Identity Management, Authentication and Access Control (Protect function), and Information Protection Processes and Procedures (Protect function). 2020年7月から2022年6月までに発行された国防総省のサイバーセキュリティ報告書は、国防総省のシステムとネットワークに対するサイバーセキュリティリスクの管理における重要な課題を特定した。  報告書は、NISTサイバーセキュリティフレームワークの23のカテゴリーのうち20に関連する国防総省のリスクについて論じている。我々がレビューした133の報告書で特定された弱点の大部分は、ガバナンス(特定機能)、資産管理(特定機能)、アイデンティティ管理、認証およびアクセス制御(保護機能)、情報保護プロセスおよび手順(保護機能)のカテゴリーに関連するものであった。
These risks existed because DoD officials did not establish and implement minimum standards and necessary controls in accordance with DoD guidance. これらのリスクは、国防総省の職員が国防総省の指針に従って最低限の基準や必要な統制を確立し、実施しなかったために存在したものである。
We determined that the DoD Components implemented corrective actions necessary to close 417 of the 895 cybersecurity‑related recommendations included in this summary report and prior summary reports. As of June 30, 2022, the DoD had 478 open cybersecurity‑related recommendations, dating as far back as 2012. 我々は、国防総省構成機関が、本要約報告書および過去の要約報告書に含まれる895のサイバーセキュリティ関連の勧告のうち417を解決するために必要な是正措置を実施したと判断している。2022年6月30日現在、国防総省には、2012年までさかのぼる478件の未解決のサイバーセキュリティ関連の勧告があった。
In addition to the 133 reports and 7 testimonies released since July 1, 2020, we also reviewed the notices of finding and recommendation (NFRs) issued to the DoD as part of the agency financial statement audits and attestations of 26 DoD reporting entities. The NFRs communicate to management identified weaknesses and inefficiencies in financial processes, their impact, the reason they exist, and recommendations on how to correct the weaknesses and inefficiencies. A s o f July 15, 2022, the DoD h ad 1,304 open information technology NFRs resulting from FY 2021 financial statement audits. We selected a nonstatistical sample of 44 NFRs and determined that they primarily identified weaknesses in the Protect and Identify functions of the NIST Cybersecurity Framework spanning 11 of the 23 NIST Cybersecurity Framework categories. 2020年7月1日以降に発表された133の報告書と7つの証言に加え、26のDoD報告団体の機関財務諸表監査と認証の一部としてDoDに発行された発見勧告(NFR)も検討した。NFRは、財務プロセスにおける識別された弱点や非効率性、その影響、存在理由、弱点や非効率性を修正する方法に関する勧告を経営陣に伝えるものである。2022年7月15日現在、DoDには、2021年度の財務諸表監査の結果、1,304件の未解決の情報技術NFRがある。我々は、44件のNFRの非統計サンプルを選択し、それらが主にNISTサイバーセキュリティフレームワークの23のカテゴリーのうち11にまたがる保護と識別の機能の弱点を特定すると判断した。
Although we are not making new recommendations to DoD management in this summary report, it is vital to the DoD’s overall cybersecurity posture that management implement timely and comprehensive corrective actions such as configuring security settings in accordance with security requirements and developing policies and procedures that promote implementing consistent security controls that address the open cybersecurity‑related recommendations. この総括報告書では国防総省の管理者に新たな勧告は行っていないが、管理者がセキュリティ要件に従ってセキュリティ設定を行い、サイバーセキュリティ関連の公開勧告に対応した一貫したセキュリティ管理の実施を促す方針と手続きを策定するなど、タイムリーで包括的な是正措置を実施することは国防総省のサイバーセキュリティ体制全体にとって極めて重要である。
These risks existed because DoD officials did not establish and implement minimum standards and necessary controls in accordance with DoD guidance. これらのリスクは、国防総省の職員が国防総省の指針に従って最低限の基準や必要な統制を確立し、実施しなかったために存在したものである。
We determined that the DoD Components implemented corrective actions necessary to close 417 of the 895 cybersecurity‑related recommendations included in this summary report and prior summary reports. As of June 30, 2022, the DoD had 478 open cybersecurity‑related recommendations, dating as far back as 2012. 我々は、国防総省構成機関が、本要約報告書および以前の要約報告書に含まれる895のサイバーセキュリティ関連勧告のうち417を閉じるために必要な是正措置を実施したと判断した。2022年6月30日現在、国防総省には、2012年までさかのぼる478件の未解決のサイバーセキュリティ関連の勧告があった。
In addition to the 133 reports and 7 testimonies released since July 1, 2020, we also reviewed the notices of finding and recommendation (NFRs) issued to the DoD as part of the agency financial statement audits and attestations of 26 DoD reporting entities. The NFRs communicate to management identified weaknesses and inefficiencies in financial processes, their impact, the reason they exist, and recommendations on how to correct the weaknesses and inefficiencies. A s o f July 15, 2022, the DoD h ad 1,304 open information technology NFRs resulting from FY 2021 financial statement audits. We selected a nonstatistical sample of 44 NFRs and determined that they primarily identified weaknesses in the Protect and Identify functions of the NIST Cybersecurity Framework spanning 11 of the 23 NIST Cybersecurity Framework categories. 2020年7月1日以降に発表された133の報告書と7つの証言に加え、26のDoD報告団体の機関財務諸表監査と認証の一部としてDoDに発行された発見勧告(NFR)も検討した。NFRは、財務プロセスにおける識別された弱点や非効率性、その影響、存在理由、弱点や非効率性を修正する方法に関する勧告を経営陣に伝えるものである。2022年7月15日現在、DoDには、2021年度の財務諸表監査の結果、1,304件の未解決の情報技術NFRがある。我々は、44件のNFRの非統計サンプルを選択し、それらが主にNISTサイバーセキュリティフレームワークの23のカテゴリーのうち11にまたがる保護と識別の機能の弱点を特定すると判断した。
Although we are not making new recommendations to DoD management in this summary report, it is vital to the DoD’s overall cybersecurity posture that management implement timely and comprehensive corrective actions such as configuring security settings in accordance with security requirements and developing policies and procedures that promote implementing consistent security controls that address the open cybersecurity‑related recommendations. この総括報告書では、国防総省の管理者に対して新たな勧告は行っていないが、管理者がセキュリティ要件に従ってセキュリティ設定を行い、サイバーセキュリティ関連の公開勧告に対応した一貫したセキュリティ管理の実施を促進する方針と手続きを策定するなど、タイムリーで包括的な是正措置を実施することが国防総省のサイバーセキュリティ体制全体にとって極めて重要である。

 

・[PDF]

20230214-25646_20230214031801

 

目次...

(U) Introduction (U) はじめに
(U) Objective (U)目的
(U) Background (U)背景
(U) Summary (U)概要
(U) Cybersecurity Risks Remain a Significant Challenge for the DoD (U)サイバーセキュリティリスクは国防総省にとって重大な課題として残っている。
(U) Increased DoD Cybersecurity Oversight  (U) 国防総省のサイバーセキュリティ監視の強化 
(U) The DoD Took Actions to Improve DoD Cybersecurity (U) 国防総省は国防総省のサイバーセキュリティを改善するために行動を起こした。
(U) Challenges Remain in Managing DoD Cybersecurity Risks (U) 国防総省のサイバーセキュリティリスクの管理には課題が残っている
(U) Risks by NIST Cybersecurity Framework Function (U) NISTサイバーセキュリティフレームワーク機能別のリスク
(U) Open Cybersecurity-Related Recommendations (U) サイバーセキュリティ関連の未解決の勧告
(U) Opportunity Exists to Improve Cybersecurity Oversight  52 (U)サイバーセキュリティの監視を改善する機会は存在する 52
(U) Appendixes (U) 附属書
(U) Appendix A. Scope and Methodology (U)附属書A.スコープとメソドロジー
(U) Use of Computer-Processed Data (U)コンピュータ処理されたデータの使用
(U) Prior Coverage (U)過去の報道
(U) Appendix B.  Unclassified and Classified Reports and Testimonies Regarding DoD Cybersecurity (U) 附属書B.  国防総省のサイバーセキュリティに関する未公表および機密の報告書と証言書
(U) Appendix C.  Reports Identifying Risks by NIST Cybersecurity Framework Category (U) 附属書C.  NISTサイバーセキュリティフレームワークのカテゴリー別にリスクを識別した報告書。
(U) Appendix D.  Open Recommendations by NIST Cybersecurity Framework Category (U) 附属書D.  NISTサイバーセキュリティフレームワークカテゴリー別の公開勧告
(U) Acronyms and Abbreviations (U)頭字語および省略形

 

 

GAO、DoD OIG、陸軍監査室、海軍監査室、空軍監査室、その他の監査機関による監査の報告事項を説明しています。サイバーセキュリティフレームワークのカテゴリーごとの集計も載せているのですが、識別、防御に偏っているように感じるのは私だけでしょうか...

Fig03

 

 

参考まで。。。

 

 

| | Comments (0)

2023.02.10

欧州連合 欧州対外行動庁 外国人による情報操作と干渉の脅威に関する報告書

こんにちは、丸山満彦です。

欧州連合の欧州対外行動庁が、外国人による情報操作と干渉 (foreign information manipulation and interference: FIMI) の脅威に関する報告書を公表していますね。。。

偽情報というか、情報操作や干渉というのが問題ですよね。。。国民を分断したりすることもできるので、ミサイルが体に作用するハードな武器とすれば、偽情報などは心に作用するソフト武器と言えるかもしれませんね。。。

会議が開催されています。。。この分野の分析やディスカッションは重要ですね。。。

 

European External Action Service

・2023.02.08 Disinformation – EU responses to the threat of foreign information manipulation

Disinformation – EU responses to the threat of foreign information manipulation 偽情報 - 外国による情報操作の脅威に対するEUの対応
Today the European External Action Service (EEAS) under the patronage of High Representative/Vice-President Josep Borrell brought together top political representatives and  experts from around the globe to discuss the threats of foreign information manipulation and interference (FIMI). The conference “Beyond disinformation: EU responses to the threat of foreign information manipulation took place in Brussels. 本日、欧州対外行動庁(EEAS)は、ジョゼップ・ボレル上級代表/副委員長の後援の下、世界各国の政治家および専門家を集め、外国による情報操作と干渉(FIMI)の脅威について議論した。会議「偽情報を超えて。EUは外国による情報操作の脅威に対してどのように対応するか」という会議がブリュッセルで開催された。
“Russia is using information manipulation and interference as a crucial instrument of its war against Ukraine with an unprecedented intensity and use of instruments. We have to work along three axes: to anticipate and deter FIMI activities, to take action in support of Ukraine, and finally – to be ambitious in building resilience to authoritarian regimes” – said HRVP Borrell in his keynote speech. 「ロシアは、ウクライナに対する戦争の重要な手段として、情報操作と干渉を、前例のない強度と手段の使用で行っている。我々は3つの軸で動く必要がある。すなわち、FIMI活動を予測し抑止すること、ウクライナを支援するための行動を起こすこと、そして最後に、権威主義的な体制に対する回復力を高めることに意欲的になることだ」-ボレル副社長は基調講演でこのように述べた。
During the conference, HRVP Borrell presented its first ever threat report analysing foreign information manipulation and interference trends. The report uses best case practice methodology and outlines a wide variety of tactics of information manipulation and interference applied by Russia and China in the last months of 2022. 会議期間中、HRVPボレルは、外国による情報操作と干渉の傾向を分析した初の脅威レポートを発表した。この報告書は、ベストケースプラクティスの手法を用い、2022年の最後の数カ月間にロシアと中国が適用した情報操作と干渉のさまざまな戦術を概説している。
Another key outcome of today’s conference was the consensus by leading experts from EU institutions, Member States, international partners like NATO and the United Nations, civil society organisations, academia, and journalists across the world that the only way forward to combat this threat is to keep working together, engaging all levels of our societies and partners around the globe. In this context, the EU is launching a new initiative to bring information exchange to the next level with a FIMI Information Sharing and Analysis Centre (ISAC). 本日の会議のもう一つの重要な成果は、EU機関、加盟国、NATOや国連などの国際パートナー、市民社会組織、学術界、ジャーナリストなど世界各地の第一線の専門家が、この脅威と戦う唯一の方法は、我々の社会のあらゆるレベルや世界中のパートナーを巻き込んで協力し続けることである、という点で一致したことである。この文脈で、EUは、FIMI情報共有・分析センター(ISAC)により、情報交換を次のレベルに引き上げるための新たな構想を打ち出している。
The conference included a number of panel discussions, with strong emphasis on a wide variety of responses to the threat – from communication to disruptive measures. 会議では、コミュニケーションから破壊的措置まで、脅威に対する多様な対応に強く重点を置いて、多くのパネルディスカッションが行われた。

 

会議の様子...

・2023.02.06 Beyond disinformation – EU responses to the threat of foreign information manipulation

・[YouTube]

 

報告書...

・2023.02.07 1st EEAS Report on Foreign Information Manipulation and Interference Threats

1st EEAS Report on Foreign Information Manipulation and Interference Threats 外国人による情報操作と干渉の脅威に関する第1回EEAS報告書
This first edition of the EEAS report on Foreign Information Manipulation and Interference (FIMI) threats is informed by the work of the European External Action Service’s (EEAS) Stratcom division in 2022. Based on a first sample of specific FIMI cases, it outlines how building on shared taxonomies and standards can fuel our collective understanding of the threat and help inform appropriate countermeasures in the short to the long term. 外国による情報操作と干渉(FIMI)の脅威に関するEEASレポートのこの第1版は、2022年の欧州対外行動庁(EEAS)のストラットコム部門の作業から得られたものである。具体的なFIMI事例の最初のサンプルに基づき、共有の分類法と基準を構築することが、いかに脅威に対する我々の集団的理解を促進し、短期から長期にわたって適切な対策を知らせるのに役立つかを概説している。

 

・[PDF]

20230209-230336

 

目次...

Glossary 用語解説
Executive Summary エグゼクティブサマリー
1 Introduction 1 序文
Encouraging a Community-Wide Conversation on Best Practices ベストプラクティスに関するコミュニティ全体の対話の促進
Scope, Limitations, and Caveats 範囲、限界、および注意事項
2 Focus on Key FIMI Actors 2 主要なFIMIアクターへのフォーカス
3 Pilot Analysis on EEAS Priority Actors and Issues in 2022 3 2022年におけるEEASの優先アクターと課題に関するパイロット版分析
(Threat) Actors (脅威)アクター
Presumed Objectives 想定される目的
Behaviour 行動
Tactics, Techniques, and Procedures (TTPs) 戦術・技術・手順(TTPs)
Content 内容
Timeline of Events イベントのタイムライン
Narratives 物語
Degree 程度
Composition of the Threat Actor Media Ecosystem 脅威アクターのメディア・エコシステムの構成
Threat Actors’ Infosphere 脅威要因のインフォスフィア
Tools: Distribution of Content ツール コンテンツの流通
Languages 言語
Targets ターゲット
Effect 効果
Course of Action 行動指針
4 A Behaviour-Centred Problem Definition: Introducing the Notion of Foreign Information Manipulation and Interference (FIMI) 4 行動を中心とした問題定義。外国人による情報操作と妨害(FIMI)の概念の導入
The “Kill Chain” Perspective on FIMI: Expanding the countermeasures toolbox FIMIに対する「キルチェーン」の視点:対策のツールボックスを拡張する
Threat Analysis vs Disruptive Responses 脅威の分析と破壊的対応
5 An Analytical Framework for FIMI Threat Analysis 5 FIMI脅威分析のための分析フレームワーク
Analysis Cycle: Establishing a Strategic and Self-Reinforcing Workflow 分析サイクル 戦略的かつ自己強化的なワークフローの確立
DISARM Framework: A Community-Driven Taxonomy of TTPs DISARM フレームワーク。コミュニティ主導のTTPの分類法
Towards a standardised Data Format for Threat Information Sharing 脅威情報共有のための標準的なデータフォーマットに向けて
Conclusion まとめ
Recommendations 推奨事項
References 参考文献

 

エグゼクティブサマリー...

EXECUTIVE SUMMARY  エグゼクティブ・サマリー 
This first edition of the report on Foreign Information Manipulation and Interference threats is informed by the work of the European External Action Service’s (EEAS) Stratcom division8 in 2022. It is the first of its kind and can be seen as a pilot project. It applies a novel framework developed by the EEAS, based on best case practices of the FIMI defender community, to a first sample of 100 FIMI incidents detected and analysed between October and December 2022. It therefore does not intend to give a comprehensive overview of FIMI in general or of a specific actor, but highlight how the existing analysis can be enhanced through this approach. In this report the EEAS uses best case practice methodology to allow for informed judgements of ongoing FIMI activities, actors and threat levels. It is therefore a useful tool to support informed and analysis based policy choices. The main findings of this report, based on the samples used, are:  海外情報操作・妨害の脅威に関する本レポートの初版は、2022年の欧州対外行動庁(EEAS)のストラットコム部門8による作業から得られたものである。この種のものとしては初めてであり、パイロットプロジェクトと見なすことができる。これは、2022年10月から12月の間に検知され分析された100件のFIMIインシデントの最初のサンプルに、FIMI擁護者コミュニティのベストケースプラクティスに基づいてEEASが開発した新しいフレームワークを適用するものである。したがって、本報告書は、FIMI全般あるいは特定のアクターの包括的な概観を与えることを意図しておらず、既存の分析がこのアプローチを通じてどのように強化され得るかを強調するものである。本報告書においてEEASは、現在進行中のFIMI活動、行為者及び脅威レベルについて情報に基づいた判断を可能にするために、ベストケースプラクティスの方法論を用いている。したがって、これは情報に基づいた、分析に基づく政策選択を支援するための有用なツールである。使用したサンプルに基づく本報告書の主な所見は以下の通りである。
■ Russia’s full-scale invasion of Ukraine dominates observed FIMI activity. Ukraine and its representatives have been the direct target of 33 incidents. In 60 out of 100 incidents, supporting the invasion was the main motivation behind the attack. ・ロシアのウクライナへの本格的な侵攻が、観測された FIMI 活動の大部分を占めている。ウクライナとその代表者は、33 件のインシデントの直接の標的となっている。100 件中 60 件で、侵攻を支持することが攻撃の主な動機となっている。
 ■ Diplomatic channels are an integral part of FIMI incidents. Russia’s diplomatic channels regularly serve as enablers of FIMI operations. They are deployed across wide range of topics. China also uses diplomatic channels, mostly targeting the US.  ・外交チャンネルは FIMI 事件に不可欠な要素である。ロシアの外交チャンネルは、定期的にFIMI活動を支援する役割を担っている。外交チャンネルは広範なテーマにわたって展開されている。中国も外交チャンネルを利用しているが、その多くは米国をターゲットとしている。
■ Impersonation techniques become more sophisticated. Impersonations of international and trusted organisations and individuals are used by Russian actors particularly to target Ukraine. Print and TV media are most often impersonated, with magazines seeing their entire style copied.  ・なりすまし技術はさらに高度化している。国際的で信頼できる組織や個人へのなりすましは、特にウクライナを標的にしたロシアの工作員によって利用されている。印刷メディアとテレビメディアは最も頻繁になりすまされ、雑誌ではそのスタイル全体がコピーされる。
■ FIMI actor collusion exists but is limited. Official Russian actors were involved in 88 analysed FIMI incidents. Chinese actors were involved in 17. In at least 5 cases, both actors engaged jointly.  ・FIMI の関係者の共謀は存在するが、限定的である。分析した 88 件の FIMI 事件にロシアの公的関係者が関与している。中国の行為者は 17 件に関与している。少なくとも5件では、両者が共同で関与している。
■ FIMI is multilingual. Incidents do not occur in just one language; content is translated and amplified in multiple languages. Incidents featured at least 30 languages, 16 of which are EU-languages. Russia used a larger variety of languages than Chinese actors but 44% of Russian content targeted a Russian-speaking populations, while 36% targeted English-speaking populations.  ・FIMI は多言語である。事件は一つの言語だけで起こるのではなく、コンテンツは複数の言語に翻訳され、増幅される。事件には少なくとも 30 の言語が登場し、そのうち 16 は EU 言語である。ロシアは中国の俳優よりも多くの種類の言語を使用しているが、ロシアのコンテンツの44%はロシア語圏の人々をターゲットにしており、36%は英語圏の人々をターゲットにしている。
■ FIMI is mostly intended to distract and distort. Russia (42%) and China (56%) mostly intend to direct attention to a different actor or narrative or to shift blame (“distract”). Russia attempts to change the framing and narrative (“distort”) relatively more often (35%) than China (18%).  ・FIMIは、そのほとんどが注意をそらし、歪曲させることを目的としている。ロシア(42%)と中国(56%)は、主に別の行為者や物語に注意を向けさせたり、責任を転嫁したりすることを意図している(「注意をそらす」)。ロシアは、中国(18%)よりも比較的頻繁に(35%)フレーミングや物語を変えようとしている(「歪曲」)。
■ FIMI remains mostly image and video based. The cheap and easy production and distribution of image and video material online makes these formats still the most commonly used. The report contributes to the implementation of the Strategic Compass’ call for a FIMI Data Space.  ・FIMIは、依然として画像や動画をベースとしたものが多い。画像・映像素材の安価で容易なオンライン制作・配信により、これらのフォーマットが依然として最もよく利用されている。本報告書は、戦略的コンパスによる FIMI データスペースの呼びかけの実施に寄与するものである。
The EEAS aims to provide the FIMI defender community with a proof-of-concept for a common framework that enables mutual sharing of complex insights in a timely fashion and at scale. This is done to create a common understanding and formulate a collective, systematic response to FIMI. EEASは、FIMI擁護者コミュニティに、複雑な洞察をタイムリーにかつ大規模に相互共有することを可能にする共通フレームワークの概念実証を提供することを目的としている。これは、共通の理解を生み出し、FIMIに対する集団的かつ体系的な対応を策定するために行われる。

 

結論と推奨事項...

CONCLUSION 結論
The experience gathered by the EEAS in analysis and sharing information on FIMI since 2015 fed into this first report on Foreign Information Manipulation and Interference (FIMI). During this time, the defender community has achieved considerable progress and has continued to grow. With this evolution, that is encouraging in light of the ever evolving threat, comes the question of how all of this knowledge and insight can be brought together in an efficient and sustainable manner, complementing the existing practice of sharing reports on specific aspects of the threat. The EEAS in this report is proposing an approach which can enable the FIMI defender community to build on good case practices developed inand outside the community to collectively achieve a more comprehensive situational awareness and inform appropriate countermeasures to the FIMI threat. 2015年以降、EEASがFIMIの分析と情報共有で集めた経験は、外国人による情報操作と干渉(FIMI)に関するこの最初の報告書に反映された。この間、擁護者コミュニティはかなりの進展を達成し、成長を続けてきた。進化し続ける脅威に照らして心強いこの進化に伴い、脅威の特定の側面に関する報告書を共有するという既存の慣行を補完し、この知識と洞察のすべてを効率的かつ持続可能な方法でどのようにまとめることができるのかという疑問が生じる。EEASは本報告書において、FIMI防御コミュニティが、コミュニティ内外で開発された優れた事例を基に、より包括的な状況認識とFIMIの脅威に対する適切な対策を共同で実現できるようなアプローチを提案している。
The report described and applied a methodology to reliably identify, analyse and share information on FIMI incidents It outlined, based on a sample of 100 FIMI incidents, how building on shared taxonomies and standards can enable FIMI defenders to derive larger trends and patterns from their individual and collective findings to help inform appropriate countermeasures in the short to the long term. 本報告書は、FIMI事件に関する情報を確実に特定、分析、共有するための方法論を説明し、適用した。100件のFIMI事件のサンプルに基づいて、共通の分類法と基準を構築することにより、FIMI擁護者が、短期から長期の適切な対策への情報提供を支援すべく、個別及び集団の発見からいかに大きなトレンドとパターンを導き出すことができるかを概説した。
In line with the EEAS’ priority to work in a whole-of-society approach on tackling FIMI, the report strongly advocates for a collaborative and community driven approach that enables each member of the FIMI defender community to contribute with their unique skills, insights and perspectives.  FIMIへの取り組みについて社会全体のアプローチで取り組むというEEASの優先事項に沿って、本報告書は、FIMI擁護者コミュニティの各メンバーが、そのユニークなスキル、洞察力、観点で貢献できるような、共同およびコミュニティ主導のアプローチを強く提唱するものである。
Community-driven, shared taxonomies and standards like DISARM for FIMI TTPs or STIX for threat information storage and exchange are available and will facilitate deeper analysis, discussion as well as collective learning and action. Building on established open standards enables the usage and best case practice development and exchange of open source tools like MISP or OpenCTI and will pave the way for further innovation in the field. This also ensures an approach that is independent of the size or financial situation of an organisation, which makes a broad adoption also by think tanks, fact-checking organisations or NGOs possible. FIMI TTPs のための DISARM や脅威情報の保存と交換のための STIX のようなコミュニティ主導の共有分類法と標準が利用でき、より深い分析、議論、そして集合的な学習と行動が促進されるであろう。確立されたオープンスタンダードの上に構築することで、MISP や OpenCTI のようなオープンソースツールの利用やベストケースの開発・交換が可能になり、この分野におけるさらなる革新への道が開かれる。また、組織の規模や財務状況に依存しないアプローチであるため、シンクタンク、事実確認機関、NGOなどにも広く採用されることが可能である。
Obviously, the EU deploys also other important instruments and tools to address FIMI. Among those are the use of restrictive measures, including those imposed against Russia in response to the unprovoked and unjustified invasion of Ukraine on 24 February 2022. The analysis of FIMI actors carried out by the EEAS has informed many measures taken so far. もちろん、EUは、FIMIに対処するために、他の重要な手段や手段も展開している。その中には、2022年2月24日のいわれのない不当なウクライナ侵攻に対応してロシアに課されたものを含む制限的措置の使用も含まれる。EEASが実施したFIMIアクターの分析は、これまでにとられた多くの措置に情報を与えている。
Many possible avenues for further research have been identified in this report. For continuous and in-depth coverage, follow euvsdisinfoeu 本報告書では、さらなる研究のための多くの可能な道が特定されている。継続的で詳細な取材については、euvsdisinfoeuをフォローすること。
   
RECOMMENDATIONS 推奨事項
1.   A common analytical framework to facilitate multistakeholder cooperation requires consensus for wide adoption.  1.   マルチステークホルダー協力を促進するための共通の分析フレームワークは、広く採用するためのコンセンサスが必要である。
a.   Build on and enrich existing good-case practices, experiences and standards like STIX and DISARM where possible Avoid the creation of parallel frameworks which would hinder interoperability.  a. 可能であれば、STIX や DISARM のような既存のグッドケース、経験、標準を基にし、充実させる。 相互運用性を妨げるような並列のフレームワークの作成は避ける。
b.   Favour widest possible adoption by endorsing and supporting open-source tools and standards that are community driven and informed by active usage of FIMI analysts. b. コミュニティ主導で、FIMI アナリストの積極的な利用によってもたらされるオープンソースツール 及び標準を支持し、支援することによって、可能な限り広く採用されることを支持する。
c.   Prioritise interoperability of frameworks and standards to foster experimentation and innovation. c. 実験と革新を促進するために,フレームワークと標準の相互運用性を優先させる。
2.   We suggest that the FIMI community convenes to agree upon a shared FIMI extension of STIX in the near future  2. 私たちは、近い将来、FIMIコミュニティがSTIXの共有FIMI拡張に合意するために招集される ことを提案します。
a. In this regard, the creation of an Information Sharing and Analysis Center (ISAC) on FIMI can focus such discussions a. この点で、FIMIに関する情報共有・分析センター(ISAC)の設立は、このような議論に焦点を当てることができる。
b. Continuous interoperability of FIMI standards with other communities, like cybersecurity, should be ensured to realise the full potential of information sharing across sectors where appropriate b. 適切な場合には、セクターを超えた情報共有の可能性を完全に実現するために、サイバーセ キュリティのような他のコミュニティとのFIMI標準の継続的な相互運用性を確保する必要がある。
3.   Members of the FIMI defender community with the relevant means should engage in supporting communitydriven initiatives that  3. 関連する手段を有する FIMI 擁護者コミュニティのメンバーは,次のようなコミュニティ主導のイニ シアティブの支援に取り組むことが望ましい。

 

| | Comments (0)

より以前の記事一覧