法律 / 犯罪

2025.02.06

内閣府 重要経済安保情報の指定及びその解除、適性評価の実施並びに適合事業者の認定に関し、統一的な運用を図るための基準 (2025.01.31)

こんにちは、丸山満彦です。

経済安全保障推進法が策定されてから、いろいろと話題になっているものの一つである、セキュリティクリアランスの件、概ね内容が固まったようですね...

まずは、2024.12.24 にパブリックコメントにかけられていた、基準案が確定しましたね...

法の施行の日(令和7年5月16日)から施行することになるようです...

 

内閣府 - 重要経済安保情報の保護及び活用に関する法律(重要経済安保情報保護活用法)

概要・条文・施行令

 

 

運用基準

20250206-71011

 

20250206-42933

 

目次...


第1章 基本的な考え方
1 策定の趣旨
2 法の運用に当たって留意すべき事項
(1)
拡張解釈の禁止並びに基本的人権及び報道・取材の自由の尊重
(2)
公文書管理法及び情報公開法の適正な運用
3 重要経済安保情報を取り扱う者等の責務

第2章 重要経済安保情報の指定
第1節 指定の要件

1 重要経済基盤保護情報該当性
(1)
重要経済基盤
(2) 重要経済基盤保護情報該当性

2 非公知性
3 秘匿の必要性
第2節 指定に当たって遵守すべき事項
1 遵守すべき事項
2 留意事項
第3節 指定の手続
1 重要経済安保情報管理者の指名
2 対象情報の認知
3 要件該当性の判断及び有効期間の設定
4 重要経済安保情報指定書の作成
5 指定管理簿の作成及び記載又は記録
6 重要経済安保情報の表示又は通知及び指定の周知
7 指定の通知を書面の交付に代えて電磁的記録の電子情報処理組織を使用する方法による提供で行う場合の必要な措置の実施
第4節 その他
1 指定した重要経済安保情報を適切に保護するための規程
2 指定に関する関係行政機関の協力

第3章 重要経済安保情報の指定の有効期間の満了、延長、解除等
第1節 指定の有効期間の満了及び延長

1 指定の有効期間が満了する場合の措置
(1)
指定の理由の点検
(2) 指定の一部延長

2 指定の有効期間が満了した場合の措置
(1)
有効期間の満了の周知等
(2) 重要経済安保情報表示の抹消
(3) 指定有効期間満了表示

3 指定の有効期間を延長した場合の措置
4 指定の有効期間を通じて30年を超えて延長する場合の措置
第2節 指定の解除
1 指定を解除する場合の措置
(1)
指定の理由の点検等
(2) 指定の一部解除

(3)
一定の条件が生じた場合の解除等
2 指定を解除した場合の措置
(1)
解除の周知等
(2) 重要経済安保情報表示の抹消
(3) 指定解除表示

第3節 指定が解除され、又は指定の有効期間が満了した情報を記録する行政文書の保存期間が満了したものの取扱い
1 指定の有効期間が通じて30年を超える重要経済安保情報
2 指定の有効期間を延長することについて内閣の承認が得られなかった重要経済安保情報
3 その他の重要経済安保情報

第4章 適性評価
第1節 適性評価の実施に当たっての基本的な考え方
1 基本的人権の尊重等
2 プライバシーの保護
3 調査事項以外の調査の禁止
4 適性評価の結果の目的外利用の禁止
第2節 適性評価の流れ
1 責任者及び担当者の指名等
(1)
適性評価実施責任者の指名
(2) 適性評価実施担当者の指名
(3) 適性評価調査実施責任者の指名
(4) 適性評価調査実施担当者の指名
(5) 関与の制限

2 評価対象者の選定
(1)
名簿の作成及び提出
(2) 行政機関の長の承認
(3) 留意事項

3 適性評価の実施についての告知及び同意等
(1)
評価対象者に対する告知(法第 12 条第3項の告知)
(2) 評価対象者による同意等
(3) 留意事項

4 内閣総理大臣に対する適性評価調査の請求等
5 適性評価調査の実施
(1)
評価対象者による質問票の記載と提出
(2) 上司等に対する調査等
(3) 関係者に対する質問等
(4) 人事管理情報等による確認
(5) 評価対象者に対する面接等
(6) 公務所又は公私の団体に対する照会
(7) 内閣総理大臣による適性評価調査の結果の通知
(8) 留意事項

6 評価
(1)
評価の基本的な考え方
(2) 評価の視点等
(3) 評価の際に考慮する要素

7 適性評価の結果等の通知
(1)
評価対象者への結果及び理由の通知
(2) 重要経済安保情報管理者等への結果の通知
(3) 内閣総理大臣への結果の通知
(4) 適性評価の進捗状況の問合せ
(5) 留意事項

第3節 適性評価実施後の措置
1 行政機関の職員の場合
(1)
上司等による報告
(2) 報告等に対する措置

2 適合事業者の従業者の場合
(1)
契約の締結
(2) 報告等に対する措置

第4節 適性評価に関する個人情報等の管理
1 行政機関における個人情報等の管理
(1)
個人情報等の管理
(2) 文書等の管理

2 適合事業者等における個人情報等の管理
3 適性評価に関する個人情報の利用及び提供の制限
第5節 苦情の申出とその処理
1 責任者及び担当者の指名等
2 苦情の申出
3 苦情の処理
(1)
調査の実施
(2) 調査の結果及び処理の方針の承認

4 苦情の処理の結果の通知
5 苦情の処理の結果を踏まえた対応の実施
6 苦情の申出をしたことを理由とする不利益取扱いの禁止
第6節 相談窓口の設置
第7節 警察本部長による適性評価

第5章 適合事業者に対する重要経済安保情報の提供等
第1節 適合事業者に重要経済安保情報を提供する場合の流れ

1 事業者の選定
(1)
事業者への提供の必要性の判断
(2) 事業者への事前の情報提供
(3) 他の行政機関から提供を受けた重要経済安保情報を提供する場合

2 適合事業者の認定
(1)
認定申請書の提出
(2) 適合事業者の認定
(3) 認定審査のための基本的な考え方・考慮要素

3 結果の通知
4 契約の締結
5 適性評価の実施
第2節 適合事業者に対して重要経済安保情報を保有させる場合の流れ
1 事業者の選定
(1)
調査又は研究その他の活動の必要性の判断
(2) 事業者への事前の情報提供
(3) 同意の取得
(4) 留意事項

2 適合事業者の認定等
(1)
適合事業者の認定
(2) 重要経済安保情報の指定

3 契約の締結
4 適性評価の実施
5 調査研究等の実施
第3節 適合事業者と認定した後の措置
1 事業者からの報告
2 変更部分に係る再審査
3 結果の通知

第6章 重要経済安保情報保護活用法の実施の適正を確保するための措置
第1節 重要経済安保情報保護活用委員会
第2節 内閣府独立公文書管理監による検証・監察

1 内閣府独立公文書管理監による検証・監察
2 行政機関の長に対する資料の要求
3 是正の求め
4 行政機関の長による指定管理簿の写しの提出等
第3節 重要経済安保情報の指定及びその解除並びに重要経済安保情報行政文書ファイル等の管理の適正に関する通報
1 通報窓口の設置
2 通報の処理
(1)
行政機関に対する通報
(2) 内閣府独立公文書管理監に対する通報
(3) 通報者の保護等

第4節 重要経済安保情報の指定及びその解除、適性評価の実施並びに適合事業者の認定の状況に関する報告等
1 行政機関の長による報告
2 重要経済安保情報保護活用諮問会議への報告
3 国会への報告及び公表
4 内閣府独立公文書管理監による報告
第5節 関係行政機関の協力
第6節 研修
第7節 その他の遵守すべき事項
第7章 本運用基準の見直し
第8章 施行日

【別添様式】

別添1 適性評価の実施に当たってのお知らせ(告知書)
別添2-1 適性評価の実施についての同意書
別添2-2 公務所又は公私の団体への照会等についての同意書
別添2-3 適性評価の実施についての同意書(第12条第7項)
別添3-1 適性評価の実施についての不同意書
別添3-2 適性評価の実施についての不同意書(第12条第7項)
別添4-1 適性評価の実施についての同意の取下書
別添4-2 適性評価の実施についての同意の取下書(12条第7項)
別添5 質問票(適性評価)
別添6 調査票(適性評価)
別添7 適性評価のための照会書
別添8 適性評価調査実施担当者証
別添9-1 適性評価結果等通知書(本人用)
別添9-2 適性評価結果等通知書(適合事業者用)
別添10 重要経済安保情報の保護に関する誓約書
別添11 苦情処理結果通知書
別添12 認定申請書



 

まず、当面重要となってくるのが...

・重要経済安保情報の指定

・適性評価

・適合事業者の認定

となりますが、重要経済安保情報の指定は国がするので、民間側はその結果を待つことになります。

適正評価(個人のクリアランス)については、個人の話ですが、雇用主等の民間事業者も関係してくるので、重要経済安保情報を取り扱う可能性がありそうな事業者は考えておく必要がありそうですね...

そもそも、重要経済安保情報を取り扱う可能性のある事業者は適合事業者の認定(組織のクリアランス)を受ける必要があります。

 

おさらいになりますが...

・[PDF] 重要経済安保情報の保護及び活用に関する法律の概要


4. 適性評価

● 行政機関の長は、本人の同意を得た上で、内閣総理大臣による調査の結果に基づき漏えいのおそれがないことについての評価(適性評価)を実施(適性評価の有効期間は10年)。

【調査内容】

 ①重要経済基盤毀損活動との関係に関する事項
 ②犯罪及び懲戒の経歴に関する事項
 ③情報の取扱いに係る非違の経歴に関する事項
 ④薬物の濫用及び影響に関する事項
 ⑤精神疾患に関する事項
 ⑥飲酒についての節度に関する事項
 ⑦信用状態その他の経済的な状況に関する事項

● 評価対象者が、適性評価を実施する行政機関以外の行政機関の長が直近に実施した適性評価(10年を経過していないものに限る。)において重要経済安保情報を漏らすおそれがないと認められた者である場合には、改めて調査することなく(直近の適性評価における調査結果に基づき)適性評価を実施可能。

● 重要経済安保情報を取り扱う適合事業者の従業者についても同様の調査・評価を実施。


 

重要経済安保情報の保護及び活用に関する法律

・・第六章 適性評価

第十二条(行政機関の長による適性評価の実施)
第十三条(適性評価の結果等の通知)
第十四条(行政機関の長に対する苦情の申出等)
第十五条(警察本部長による適性評価の実施等)
第十六条(適性評価に関する個人情報の利用及び提供の制限)
第十七条(権限又は事務の委任)

 

で、ここまで思い出したら基準にもどります...

 

関係するのが、評価者の選定


第4章 適性評価

...

第2節 適性評価の流れ

...

2 評価対象者の選定

(1) 名簿の作成及び提出

...

② 適合事業者の従業者に対する適性評価の場合

重要経済安保情報管理者は、適合事業者との契約に基づき、その従業者として重要経済安保情報の取扱いの業務を行わせようとする者について、その者の氏名、生年月日、所属する部署、役職名その他の必要な情報を、当該適合事業者から提出させるものとする。

適合事業者は、当該契約に基づき、従業者の氏名その他の必要な情報を重要経済安保情報管理者に提供するに当たっては、当該従業者の同意を得る。

なお、当該従業者が派遣労働者である場合には、適合事業者は、その旨を、当該派遣労働者を雇用する事業主に対して通知する。

重要経済安保情報管理者は、適合事業者から提出された情報に基づき、重要経済安保情報の取扱いの業務を行うことが見込まれる適合事業者の従業者について、適性評価を実施するため、氏名、生年月日、所属する部署、役職名その他の必要な事項を記載し、又は記録した名簿を作成し、これを適性評価実施責任者に提出するものとする。

その際、当該適合事業者から情報が提出された従業者のうち名簿に記載又は記録をしない者があるときは、重要経済安保情報管理者は、その旨を適合事業者に通知するとともに、当該通知の内容を、当該従業者に通知するよう当該適合事業者に求めるものとする。当該従業者が派遣労働者であるときは、重要経済安保情報管理者は、当該通知の内容を、当該従業者を雇用する事業主に通知するよう当該適合事業者に求めるものとする。

適合事業者は、提出した情報に変更があるときは、当該契約に基づき、速やかにこれを重要経済安保情報管理者に通知するものとする。

重要経済安保情報管理者は、適性評価実施責任者に提出した名簿に記載し、又は記録した事項に変更があるときは、速やかにこれを適性評価実施責任者に通知するものとする。

(2) 行政機関の長の承認

適性評価実施責任者は、重要経済安保情報管理者から提出された名簿に記載され、又は記録された者について、法第12条第1項各号のいずれかに該当することを確認した上で、適性評価を実施することについて行政機関の長の承認を得るものとする。

...

当該通知が適合事業者の従業者に係るものであるときは、重要経済安保情報管理者は、適合事業者に対し、当該通知の内容を通知するとともに、当該通知に係る従業者が派遣労働者であるときは、当該通知の内容を、当該従業者を雇用する事業主に通知するよう当該適合事業者に求めるものとする。


 

従業員の同意が必要となるわけですが、行政機関の職員に実施する際の雛形等もあるので、適合事業者もこれらを参考にして整備する必要がありそうですね...

 

次に具体的にどのように評価されそうか?

ということですが...これは、事業者も気になりますが、当然に本人がもっとも気になるでしょうね...


6 評価

(1) 評価の基本的な考え方

... 重要経済安保情報の取扱いの業務を行った場合にこれを漏らすおそれがないかどうかについて、評価対象者の個別具体的な事情を十分に考慮して、総合的に判断...

... 疑念が残る場合には...重要経済安保情報を漏らすおそれがないと認められないと判断するものとする。

(2) 評価の視点等

... 漏えいするおそれは、次の3つの類型に大分されると考えられる。

・ 自発的に重要経済安保情報を漏えいするおそれ

・ 働き掛けを受けた場合に影響を排除できずに重要経済安保情報を漏えいするおそれ

・ 過失により重要経済安保情報を漏えいするおそれ

...

それぞれの類型を意識し、以下の視点から、評価するものとする。

① 情報を適正に管理することができるか

② 規範を遵守して行動することができるか

③ 職務に対し、誠実に取り組むことができるか

④ 情報を自ら漏らすような活動に関わることがないか

⑤ 自己を律して行動することができるか

⑥ 情報を漏らすよう働き掛けを受けた場合に、これに応じるおそれが高い状態にないか

⑦ 職務の遂行に必要な注意力を有しているか

(3) 評価の際に考慮する要素

...調査により判明した事実について、以下の要素を考慮するものとする。

① 法第12条第2項各号に掲げる事項についての評価対象者の行動又は状態(以下「対象行動等」という。)の性質、程度及び重大性

② 対象行動等の背景及び理由

③ 対象行動等の頻度及び時期

④ 対象行動等があったときの評価対象者の年齢

⑤ 対象行動等に対する自発的な関与の程度

⑥ 対象行動等がなくなり、又は再び生ずる可能性


 

どのようなことが質問、調査されるかは、

別添1 適性評価の実施に当たってのお知らせ(告知書)

別添5 質問票(適性評価)

別添6 調査票(適性評価)


を見るとよりわかるように思います...

 

評価結果がもどってきたら...


第3節 適性評価実施後の措置

...

2 適合事業者の従業者の場合

(1) 契約の締結

行政機関の長は、以下に掲げる事項について、契約で定めるものとする。

① 契約に基づき重要経済安保情報を保有し又は提供される適合事業者は、当該契約により重要経済安保情報の取扱いの業務を行う従業者について1(1)の事情があると認めた場合には、速やかにこれを契約先の行政機関における当該重要経済安保情報に係る重要経済安保情報管理者に報告すること。

② 従業者が派遣労働者である場合、適合事業者は、当該従業者について1(1)の事情があると認められたときに当該従業者を雇用する事業主から当該適合事業者に報告が行われるよう必要な措置を講ずること。

③ (2)の通知を受けた場合に、適合事業者は、当該通知に係る従業者が重要経済安保情報の取扱いの業務を行うことのないよう必要な措置を講ずること。

④ (2)の通知を受けた場合であって、当該通知に係る従業者が派遣労働者であるときは、当該通知の内容を当該派遣労働者を雇用する事業主に通知すること。

(2) 報告等に対する措置

重要経済安保情報管理者は、(1)による報告又は誓約書に基づき適合事業者の従業者から1(1)に掲げる事情がある旨の申出等に基づき、重要経済安保情報の取扱いの業務を行ったときにこれを漏らすおそれがないと認められた適合事業者の従業者に、法第 12 条第1項第3号に規定する事情があると認めるときは、その旨を適合事業者に通知するとともに、当該通知に係る従業者が派遣労働者であるときは、当該通知の内容を、当該従業者を雇用する事業主に通知するよう当該適合事業者に求めるものとする。

一方、当該報告又は申出に係る事情が、法第12条第1項第3号に規定する事情に該当しないと認めるときは、重要経済安保情報管理者は、その旨を当該報告又は申出をした者に通知するものとする。


 

で、個人情報の管理...


第4節 適性評価に関する個人情報等の管理

1 行政機関における個人情報等の管理

(1) 個人情報等の管理

適性評価に関する文書等に含まれる個人情報の管理については、個人情報の保護に関する法律(平成15年法律第57号)第66条の規定に基づき、保有個人情報(同法第 60条第1項に規定する保有個人情報をいう。)の安全管理のために必要かつ適切な措置を講じなければならない。

また、個人情報を保護するための情報セキュリティ対策については、サイバーセキュリティ戦略本部等が定める「政府機関等のサイバーセキュリティ対策のための統一基準群」に基づき、適切に行う。

(2) 文書等の管理

...

② 文書等の保存

...

イ 重要経済安保情報管理者

重要経済安保情報管理者が取得した適性評価の結果等に係る文書等の保存期間は、当該文書等を取得した日から1年未満とする。ただし、重要経済安保情報の取扱いの業務を行った場合にこれを漏らすおそれがないと認められた旨の通知に係る文書等の保存期間については、当該文書等を取得した日の属する年度の翌年度の4月1日から起算して10年間とする。

...

2 適合事業者等における個人情報等の管理

行政機関の長は、適合事業者及び適合事業者の指揮命令の下に労働する派遣労働者を雇用する事業主が、行政機関の長又は適合事業者から通知された、評価対象者が適性評価の実施に同意をしなかった事実、同意を取り下げた事実及び評価対象者についての適性評価の結果に係る文書等について、これが適切に管理されるよう、1(1)及び1(2)② イに準じて必要な措置を講ずることについて、契約で定めるものとする。


 

規程等を作成する場合には、これ以外の部分も必要になりますが、当面気にしないといけない分野...

 

あと気になるのが、そもそも国から適合事業者になる必要があると言われたら、どうするのか?ということになると思うのですが...

 それを受けるということであれば、「別添12 認定申請書」を提出する必要があるということになりますね...

 


第5章 適合事業者に対する重要経済安保情報の提供等

第1節 適合事業者に重要経済安保情報を提供する場合の流れ

1 事業者の選定

(1) 事業者への提供の必要性の判断

重要経済安保情報を保有する行政機関の長は、事業者からの相談なども踏まえながら、重要経済基盤の脆弱性の解消、重要経済基盤の脆弱性及び重要経済基盤に関する革新的な技術に関する調査及び研究の促進、重要経済基盤保護情報を保護するための措置の強化その他の我が国の安全保障の確保に資する活動の促進を図るために、特定の事業者に対して、重要経済安保情報を提供する必要があるか否かを判断するものとする。

(2) 事業者への事前の情報提供

行政機関の長は、重要経済安保情報の提供先である事業者を適切に選定するとともに、当該事業者において十分な検討が可能となるよう、できる限りの情報提供に努めるものとする。情報提供に当たっては、重要経済安保情報の概要やその性質などを提供するにとどめ、重要経済安保情報を提供することがないようにしなければならない。

また、重要経済安保情報の概要やその性質などを提供する場合であっても、その情報を保全するために必要性があると認めるときは、事業者との間で守秘義務契約を締結することができる。

...

2 適合事業者の認定

(1) 認定申請書の提出

行政機関の長は、適合事業者としての認定のために、事業者に対し、必要事項を記載し、又は記録した別添12の「認定申請書」(当該申請書に記載すべき事項を記録した電磁的記録を含む。以下「申請書」という。)の提出を求めるものとする。

① 事業者において、重要経済安保情報の保護の全体の責任を有する者(以下「保護責任者」という。)の指名基準及び指名手続

② 重要経済安保情報を取り扱う場所において、当該重要経済安保情報の保護に関する業務を管理する者(以下「業務管理者」という。)の指名基準及び指名手続並びにその職務内容

③ 従業者に対する重要経済安保情報の保護に関する教育の実施内容及び方法

④ 重要経済安保情報の保護のために必要な施設設備の設置に係る手続

⑤ 重要経済安保情報の取扱いの業務を行う従業者の範囲の決定基準及び決定手続

⑥ 重要経済安保情報を取り扱うことができない者には重要経済安保情報を提供してはならないこと

⑦ 重要経済安保情報を取り扱うことができない者は、重要経済安保情報を提供することを求めてはならないこと

⑧ 重要経済安保情報を取り扱う場所への立入り及び機器の持込みの制限に係る手続及び方法

⑨ 重要経済安保情報を取り扱うために使用する電子計算機の使用の制限に係る手続及び方法

⑩ 重要経済安保情報文書等(施行令第4条に規定する重要経済安保情報文書等をいう。以下同じ。)の作成、運搬、交付、保管、廃棄その他の取扱いの方法の制限に係る手続及び方法

⑪ 重要経済安保情報の伝達の方法の制限に係る手続及び方法

⑫ 重要経済安保情報の取扱いの業務の状況の検査に係る手続及び方法

⑬ 重要経済安保情報文書等の奪取その他重要経済安保情報の漏えいのおそれがある緊急の事態に際し、その漏えいを防止するために他に適当な手段がないと認められる場合における重要経済安保情報文書等の廃棄に係る手続及び方法

⑭ 重要経済安保情報文書等の紛失その他の事故が生じた場合における被害の発生の防止その他の措置に係る手続及び方法

(3) 認定審査のための基本的な考え方・考慮要素

認定のための審査は、以下を踏まえて、総合的に判断するものとする。なお、認定のための審査を尽くしてもなお、事業者が以下に適合していると認めることについて疑念が残る場合には、重要経済安保情報の漏えいを防止し、もって我が国及び国民の安全を確保する法の目的に鑑み、適合事業者とは認定しないと判断するものとする。

① 事業者における株主や役員の状況に照らして、当該事業者の意思決定に関して外国の所有、支配又は影響がないと認められるかどうか。

(2)①又はに関して、保護責任者又は業務管理者として指名される者が、業務を適切に行うための必要な知識を有しており、その職責を全うできる地位にあると認められるかどうか。

(2)③に関して、従業者にとって重要経済安保情報を保護するために必要な知識を的確に習得できる内容となっており、適切な頻度で継続的に実施されることとなっているかどうか。

(2)④又はに関して、現地で実際に確認した上で、重要経済安保情報の保護のために設置されることになる施設設備が、重要経済安保情報を保護するための必要な機能及び構造を有し、立入りの制限や持込みの制限に関して有効な機能及び構造を有しているかどうか。

行政機関の長は、認定審査のために必要な範囲内において、事業者から、申請書の記載事項のほか追加の資料の提出を求めることができる。


 

適合事業者に該当すると認定されると認定されたという通知が来て、認定されなかったら、認められなかった理由が通知されるようですね...

さて、適合事業者に該当すると認められた場合は、契約の締結に入ることになると思いますが、契約すべき内容のうち基準で決めているのは、以下の通りですので、最低限、この項目についての体制等は整備しておく必要がありそうですね...


4 契約の締結

...

契約には、以下に関する事項を含めなければならない。

(1) 2(2)の規程に基づく重要経済安保情報の保護・管理に関すること

(2) 重要経済安保情報文書等であって当該適合事業者において作成したものについて法第3条第2項第1号に掲げる措置又は当該情報について講ずる同項第2号に掲げる措置に関すること

(3) 重要経済安保情報の指定の有効期間が満了した場合に講ずる措置に関すること

(4) 重要経済安保情報の指定の有効期間が延長された場合に講ずる措置に関すること

(5) 重要経済安保情報の指定が解除された場合に講ずる措置に関すること

(6) 第4章第4節2に規定する適性評価の実施に際して取得した個人情報を適切に管理すること

(7) 評価対象者が名簿への掲載や適性評価の実施に同意をしなかった事実、適性評価の結果が通知されていないこと、適性評価の結果その他適性評価の実施に当たって取得する個人情報を、第4章第4節3に規定する重要経済安保情報の保護以外の目的のために利用し又は提供してはならないこと

(8) 評価対象者に事情の変更があると認める場合には、速やかにこれを契約先の行政機関における重要経済安保情報に係る重要経済安保情報管理者に報告すること

(9) 申請書で提出した情報又は申請書に添付した規程若しくは規程案に関して変更が生じた場合には、速やかにこれを契約先の行政機関における重要経済安保情報に係る重要経済安保情報管理者に報告すること

(10) 適合事業者の認定後に行政機関により実施される定期的な検査の受入れに関すること


 

次に、適合事業者に対して重要経済安保情報を保有させる場合の流れになるわけですが...適合事業者であれば自動的に国から重要経済安保情報が提供されるわけではなく、是々非々の必要性判断により、必要と認められた場合だけとなりますね...

で、調査研究等のために、重要経済安保情報が適合事業者に提供され、その情報をうけて調査研究等をした場合、その事業者がその後保有することが見込まれる情報は、あらかじめ重要経済安保情報に指定することができるようですね...


2 適合事業者の認定等

...

(2) 重要経済安保情報の指定

行政機関の長は、調査研究等の実施により事業者がこの後保有することが見込まれる情報に関して、あらかじめ重要経済安保情報に指定するものとする。


 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

 

日本...

・2024.05.11 日本でもセキュリティクリアランス制度が本格的に導入されることになりましたね...

・2024.02.28 内閣 重要経済安保情報の保護及び活用に関する法律案が閣議決定

・2024.02.20 経団連 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する提言 (2024.02.15)

・2024.01.30 内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議 最終取りまとめ (2024.01.19)

・2023.12.22 内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議(第9回)

・2023.10.12 内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議(第7回)

・2023.08.27 参議院常任委員会調査室・特別調査室:セキュリティ・クリアランス制度導入の方向性と主な論点 ~技術流出の防止等による国力向上を目指した制度構築に向けて~

・2023.06.08 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議 中間論点整理

・2023.04.08 自民党 セキュリティ・クリアランスで法整備を経済安保推進本部・安全保障調査会・サイバーセキュリティ対策本部・デジタル社会推進本部が提言

・2023.02.27 内閣官房 経済安全保障分野におけるセキュリティ・クリアランス制度等に関する有識者会議

・2022.12.18 国家安全保障戦略が閣議決定されましたね。。。(2022.12.16) 対英訳付き...

・2022.10.19 自民党 わが国が目指すべき 経済安全保障の全体像について~新たな国家安全保障戦略策定に向けて~ (2022.10.04)

 

 

米国...

・2024.02.26 米国 GAO 国防総省インテリジェンス:プログラムの監督を強化しリスクを管理するために必要な行動

・2023.12.11 米国 国防総省 内部監察官室 請負業者ネットワーク上の国防総省管理対象非機密情報保護に関するサイバーセキュリティの共通の不備 (2023.12.04)

・2023.11.20 NIST 意見募集 IR8496 NIST IR 8496(初公開ドラフト) データ収集改善のためのデータ格付の概念と考察

・2023.11.05 RAND研究所 多様で信頼される労働力 - 国家安全保障担当者の審査における偏見の可能性と不公平の原因となりうる要素の検証

・2023.07.24 Rand研究所 セキュリティ・クリアランス・プロセスに関するネット上の誤解を評価する(+米国セキュリティクリアランス関連リンク)

・2022.08.18 米国 国土安全保障省 内部監察官室 2015年サイバーセキュリティ情報共有法の下、情報共有の改善に向けてさらなる進展が必要

・2021.09.21 国務省OIG 国務省のセキュリティ・クリアランス・データを国家情報長官室に報告するプロセスには改善が必要

 

その他...

・2024.08.08 英国 政府のセキュリティ格付

・2024.07.30 オーストラリア会計検査院 (ANAO) 国防省によるマイクリアランス・システムの調達と導入 (2024.07.11)

 

 

 

 

| | Comments (0)

2025.02.05

NISC DDoS攻撃への対策について(注意喚起) (2025.02.04)

こんにちは、丸山満彦です。

NISCが、昨年12月から今年1月にかけて起こったDDoS攻撃を踏まえて注意喚起をだしていますね...

多分この事案に対する初めての注意喚起ですかね...    第一報(^^)

 

社会的に影響度の大きそうな事案に関する注意喚起を出すためのプロセスの改善が必要かもですね...

例えば、

影響度の大きな事案に該当=>24時間以内に事象の概要、現状できる緊急の対応についての注意喚起、2週間以内に将来に備えた対応についての注意喚起

影響度が一定見込まられる事案=>2週間以内に事象の概要、将来に備えた対応についての中機関気

みたいなプロセスだったとしたら、判断基準や、記載内容の標準化、タイムスパンの短縮など...

 

 

NISC

・2025.02.04 [PDF] DDoS攻撃への対策について

20250205-54118

 

 


令和7年2月4日内閣サイバーセキュリティセンター

 DDoS 攻撃への対策について(注意喚起)

 昨年12月から本年1月の年末年始にかけて、航空事業者・金融機関・通信事業者等に対するDDoS攻撃が相次いで発生しております。これらの攻撃はIoTボットネット等が用いられ、UDPフラッド攻撃やHTTPフラッド攻撃など、複数種類の攻撃が行われており、今後、大規模な攻撃が発生する可能性も否定できません。

各事業者におかれましては、これまでも様々なDDoS攻撃対策を講じられていることと思いますが、本紙も参考に、引き続きリスク低減に向けて適切なセキュリティ対策を講じていただくようお願いいたします。

また、各インターネット利用者におかれましては、ルータやIPカメラ等のいわゆるIoTデバイスがマルウェアに感染し、IoTボットネットに組み込まれてサイバー攻撃に加担することがないよう、これらのデバイスの設定やアップデートを適切に行っていただくようお願いいたします。

 

【リスク低減に向けたセキュリティ対策】

DDoS 攻撃への対策は、多くの費用と時間が必要なものもあり、また、全てのDDoS 攻撃を未然に防ぐことができるものではありません。しかし、上記のようなDDoS 攻撃がなされた場合の備えとして、まずは以下の事項を参照の上、各事業所で導入している機器やシステムの設定見直し及び脆弱性の有無の確認、ソフトウェアの更新など、身近な対策を進めてください。

 

1 DDoS 攻撃による被害を抑えるための対策

① 海外等に割り当てられたIP アドレスからの通信の遮断

DDoS 攻撃はボットからの攻撃によって実施されることが多いため、ボットに感染している端末等が多い国やドメインからの通信を拒否することによってもDDoS 攻撃の影響を緩和することが可能であり、特に国内のみからアクセスを受ける情報システムであれば有効である。正規の通信への影響も考慮しつつ実施を検討する。また、同一のIPアドレスからのしきい値を超えた大量のリクエストを遮断する機能の利用についても検討する。

② DDoS攻撃の影響を排除又は低減するための専用の対策装置やサービスの導入

WAFWeb Application Firewall)、IDS/IPSUTMUnified Threat Management)、DDoS 攻撃対策専用アプライアンス製品等を導入し、DDoS 攻撃を防ぐため必要な設定を行う。

③ コンテンツデリバリーネットワーク(CDN)サービスの利用

コンテンツデリバリーネットワーク(CDN)サービスを利用する場合は、元の配信コンテンツを格納しているオリジンサーバへ直接アクセスされることを防ぐため、オリジンサーバのIPアドレスを隠蔽する必要がある。

④ その他各種DDoS攻撃対策の利用

インターネットに接続している通信回線の提供元となる事業者やクラウドサービス提供者が別途提供する、DDoS 攻撃に係る通信の遮断等の対策を利用することも有用である。

⑤ サーバ装置、端末及び通信回線装置及び通信回線の冗長化

代替のものへの切替えについては、サービス不能攻撃の検知及び代替サーバ装置等への切替えが許容される時間内に行えるようにする必要がある。

⑥ サーバ等の設定の見直し

サーバ装置、端末及び通信回線装置について、DDoS攻撃に対抗するための機能(パケットフィルタリング機能、3-way handshake時のタイムアウトの短縮、各種Flood攻撃への防御、アプリケーションゲートウェイ機能)がある場合は、有効にすること。

 

2 DDoS 攻撃による被害を想定した対策

① システムの重要度に基づく選別と分離

コストをかけてでも守る必要のあるサービスと、一定期間のダウンタイムを許容できるサービスを選別し、それぞれの対応方針を策定するとともに、重要性に応じてシステムを分離することが可能か確認し、事業継続に重要なシステムはその他のシステムとネットワークを分離することも検討する。

② 平常時からのトラフィックの監視及び監視記録の保存

平常時のトラフィック状況を知っておくことで、異常なトラフィックを早期に発見できる。また、監視記録の保存については、監視対象の状態は一定ではなく、変動することが一般的であり、監視対象の変動を把握するという目的に照らした上で保存期間を定め、一定期間保存する。

③ 異常通信時のアラートの設定

異常な通信が発生した際に、担当者にアラート通知が送られるようにする。

④ ソーリーページ等の設定

サイトの接続が困難、若しくは不能となったときに、SNS 等の媒体を利用して、サイト利用者に状況を通知する内容の投稿ができるようにするほか、別サーバに準備したソーリーページが表示されるように設定する。

⑤ 通報先・連絡先一覧作成など発生時の対策マニュアルの策定

DDoS 攻撃を受けた旨を連絡するため、警察や平素からやりとりのある関係行政機関等の通報先についてまとめておくとともに、サーバやインターネット回線が使用不能となった場合の代替手段やユーザ向けのサービスが提供不可となった場合のユーザへの周知手段の確保など、対策マニュアルや業務継続計画を策定する。

 

3 DDoS 攻撃への加担(踏み台)を防ぐ対策

① オープン・リゾルバ対策

管理しているDNS サーバで、外部の不特定のIP アドレスからの再帰的な問い合わせを許可しない設定にする。

② セキュリティパッチの適用

ベンダーから提供されるOS やアプリケーションの脆弱性を解消するための追加プログラムを適用する。

③ フィルタリングの設定

自組織ら送信元IP アドレスを詐称したパケットが送信されないようフィルタリング設定を見直す。


 

| | Comments (0)

2025.02.04

フランス CNIL;個人データの越境移転影響評価 (TIA) の最終版 (2025.01.31)

こんにちは、丸山満彦です。

CNILが個人データの越境移転影響評価 (TIA) の最終版を公表していますね...

 

CNIL

・2025.01.31 Transfer Impact Assessment (TIA): the CNIL publishes the final version of its guide

Transfer Impact Assessment (TIA): the CNIL publishes the final version of its guide 移転影響評価(TIA):CNILがガイドの最終版を公表
In order to assist organisations transferring personal data outside of the European Economic Area (EEA), the CNIL publishes the final version of its guide on Transfer Impact Assessments. It follows a public consultation. 欧州経済地域(EEA)域外への個人データの移転を行う組織を支援するため、CNILは移転影響評価に関するガイドの最終版を公表した。これは、パブリックコンサルテーションに続くものである。
Guaranteeing the same level of protection as the GDPR for data transfer データ移転に際してGDPRと同水準の保護を保証
Regardless of their status and size, a very large number of controllers and processors are concerned by the issue of data transfers outside the European Economic Area (EEA). The interpenetration of networks has multiplied the situations in which personal data are being processed in whole or in part in third countries that are not subject to EU law, in particular the GDPR, and may thus give rise to data transfers. その地位や規模に関わらず、非常に多くの管理者および処理者が欧州経済地域(EEA)域外へのデータ転送の問題に関心を寄せている。ネットワークの相互浸透により、個人データの全部または一部がEU法、特にGDPRの対象外である第三国で処理される状況が増加しており、それによりデータ転送が生じる可能性がある。
The principle established by the GDPR is that, in the event of a transfer, data must continue to enjoy protection substantially equivalent to that afforded by the GDPR. Chapter V of the GDPR contains specific provisions regarding data transfers.  GDPRが定める原則は、移転が行われる場合、データは引き続きGDPRが定めるものと実質的に同等の保護を享受しなければならないというものである。GDPRの第5章には、データ移転に関する具体的な規定が記載されている。
The “Schrems II” judgment of the Court of Justice of the European Union (CJEU) highlighted the responsibility of data exporters outside the European Economic Area (EEA) and importers in the country of destination. They must ensure that the processing is carried out, and continues to be carried out, in compliance with the level of protection set by EEA law. According to the CJEU, exporters also have the responsibility to suspend the transfer and/or terminate the contract if the importer is not, or is no longer, able to comply with its commitments on the protection of personal data. 欧州連合司法裁判所(CJEU)の「シュレンスII」判決では、欧州経済領域(EEA)外のデータ輸出事業者と、移転先の国の輸入事業者の責任が強調された。EEA法で定められた保護レベルに準拠した処理が実施され、継続されることを保証しなければならない。欧州司法裁判所(CJEU)によると、輸出事業者は、輸入事業者が個人データの保護に関する義務を遵守できない場合、または遵守できなくなった場合には、移転を停止し、および/または契約を解除する責任も負う。
The Transfer Impact Assessment 移転影響評価
Thus, exporters relying on the transfer tools listed in Article 46.2 and 46.3 GDPR for their transfers have an obligation to assess the level of protection in third countries of destination and the need for additional safeguards. したがって、GDPR第46条2項および3項に列挙された移転ツールに依存して移転を行う移転者は、移転先の第三国における保護レベルと追加の安全対策の必要性を評価する義務がある。
Such an assessment is commonly referred to as a ‘Transfer Impact Assessment’ (TIA). このようなアセスメントは一般的に「移転影響評価(TIA)」と呼ばれる。
Following the recommendations of the European Data Protection Board (EDPB) on additional measures complementing transfer instruments, the CNIL has developed a guide to help data exporters carry out their TIAs. 欧州データ保護委員会(EDPB)による移転手段を補完する追加措置に関する勧告に従い、CNILはデータ移転者がTIAを実施する際に役立つガイドを作成した。
In which cases should a TIA be carried out? どのような場合にTIAを実施すべきか?
A TIA must be carried out by the exporter subject to the GDPR, whether controller or processor, with the assistance of the importer, before transferring the data to a country outside the EEA where that transfer is based on a tool in Article 46 of the GDPR (e.g., Standard Contractual Clauses, Binding Corporate Rules). TIAは、GDPRの対象となる輸出事業者が、管理者または処理者のいずれであるかを問わず、輸入事業者の支援を受けながら、EEA域外の国にデータを転送する前に実施しなければならない。その転送は、GDPR第46条のツール(標準契約条項、拘束的企業準則など)に基づくものである。
There are two exceptions to this requirement for the exporter: 移転者に対するこの要件には、次の2つの例外がある。
・If the country of destination is covered by an adequacy decision of the European Commission ・目的地の国が欧州委員会の十分性認定を受けている場合
・If the transfer is made on the basis of one of the derogations listed in Article 49 GDPR. ・GDPR第49条に列挙されたいずれかの例外規定に基づいて転送が行われる場合
What is the purpose of a TIA? TIAの目的は何か?
The objective of a TIA is to assess whether the importer will be able to comply with its obligations under the chosen tool taking into account the legislation and practices of the third country of destination – in particular as regards the potential access to personal data by authorities of the third country – and to document that assessment. TIAの目的は、輸入事業者が選択したツールの下で、第三国の法律や慣行(特に、第三国の当局による個人データへの潜在的なアクセス可能性に関して)を考慮した上で、その義務を遵守できるかどうかを評価し、そのアセスメントを文書化することである。
Where necessary, the TIA should also assess whether supplementary measures would address the identified data protection gaps and ensure the level required by the EU legislation.  必要に応じて、TIAでは、特定されたデータ保護のギャップに対処し、EUの法律で要求されるレベルを確保するための追加措置についても評価すべきである。
What are the objectives and scope of the TIA Guide? TIAガイドの目的と範囲は何か?
This guide is a methodology that identifies the steps prior to carrying out a TIA. It provides guidance on how the analysis can be carried out following the steps set out in the EDPB recommendations and refers to the relevant documentation. It does not constitute an assessment of the law and practices in third countries. このガイドは、TIA実施前のステップを識別するための方法論である。EDPBの勧告に定められたステップに従って分析を実施する方法についての指針を提供し、関連文書を参照している。第三国の法律および慣行の評価を構成するものではない。
The use of this guide is not mandatory, other elements may also be taken into account and other methodologies applied. このガイドの使用は必須ではなく、他の要素も考慮し、他の方法論を適用することも可能である。
As regards the steps prior to carrying out a TIA, this guide is organised around the following questions: TIA実施前の段階については、本ガイドは以下の質問を中心に構成されている。
1. Is there a transfer of personal data? 1. 個人データの移転はあるか?
2. Is it necessary to carry out a TIA? 2. TIAを実施する必要があるか?
3. Who is responsible for the TIA? 3. TIAの責任者は誰か?
4. What is the scope of the TIA, in particular considering onward transfers? 4. TIAの範囲は何か、特に二次移転を考慮して?
5. Is the transfer compliant with the principles of the GDPR? 5. 移転はGDPRの原則に準拠しているか?
As regards the implementation of the TIA, this guide is organised according to the six different steps to be followed in order to carry out a TIA: TIAの実施に関しては、本ガイドはTIAを実施するために踏むべき6つのステップに従って構成されている。
1. Know your transfer 1. 移転の把握
2. Identify the transfer tool used 2. 使用される移転ツールの識別
3. Evaluate the legislation and practices of the country of destination of the data and the effectiveness of the transfer tool 3. データ移転先の国の法律および慣行、および移転ツールの有効性の評価
4. Identify and adopt supplementary measures 4. 補足措置の識別および採用
5. Implement the supplementary measures and the necessary procedural steps 5. 補足措置および必要な手続き上のステップの実施
6. Reassess the level of protection at appropriate intervals and monitor potential developments that could affect it 6. 適切な間隔で保護レベルを再評価し、保護に影響を与える可能性のある潜在的な進展を監視する
Consult the guide ガイドを参照
What are the main changes in the final version of the Guide compared to the version submitted for public consultation? パブリックコンサルテーションに提出されたバージョンと比較して、ガイドの最終版の主な変更点は何か?
From December 2023 to February 2024, the CNIL submitted its guide for public consultation. The consultation received 34 contributions mainly from professionals in the sector (data protection officers, lawyers, consultants, heads of professional networks). They represent players of all sizes (French and international groups, small and medium-sized enterprises, professional networks/business federations, etc.) and from various sectors (banking/finance, insurance, transport, industry, digital/IT, cosmetics/health, local and regional authorities, etc.). 2023年12月から2024年2月にかけて、CNILはパブリックコンサルテーション用のガイドを提出した。主に当該分野の専門家(データ保護責任者、弁護士、コンサルタント、職業ネットワークの代表者)から34件の意見が寄せられた。 意見を寄せたのは、あらゆる規模の事業者(フランスおよび国際グループ、中小企業、職業ネットワーク/事業連合など)およびさまざまな分野(銀行/金融、保険、運輸、工業、デジタル/IT、化粧品/ヘルスケア、地方自治体など)の代表者である。
Those contributions enabled the CNIL to develop, in both form and substance, the final version of the guide and provide a number of clarifications on its content, and to consolidate, or adjust, certain reflections and analyses, in order to take into account, in particular, the latest opinions of the European Data Protection Board (EDPB). これらの貢献により、CNILは、最終版のガイドを形式と内容の両面で発展させ、その内容について多くの明確化を行うことができた。また、特に欧州データ保護委員会(EDPB)の最新の意見を考慮に入れるため、いくつかの考察や分析を強化または調整することができた。
summary of the contributions with the CNIL's answers to the most complex remarks is published with the final version of the Guide. CNILの回答とともに、最も複雑な意見に対する貢献の要約がガイドの最終版とともに公開されている。
Consult the summary of contributions 意見の概要を参照
Documents 文書
Guide TIA - Summary of contributions ガイド TIA - 意見の概要
Practical guide - Transfer impact assessment 実用ガイド - 移転影響評価

 

実用ガイド - 移転影響評価

・[PDF] Practical guide - Transfer impact assessment

20250204-44050

・[DOCX][PDF] 仮訳

 

 

ガイド TIA - 意見の概要

・[PDF] Guide TIA - Summary of contributions

20250204-44203

 

 

 

| | Comments (0)

2025.02.03

サイバーセキュリティ対策の基本的な考え方に関する共通認識が必要?

こんにちは、丸山満彦です。

政府の委員等をしていると、政策に関しても考えないといけないのですが、幅広い知見と、深い洞察が必要となるので、なかなかと苦労しています。

最近少し考えているのですが、世界各国政府が国家サイバーセキュリティ戦略というのが作られています。これは国家安全保障戦略の一部としての位置付けとなるものです。

ただ、より抽象度を上げた基本的な考え方?、原則?のようなものも必要かなと感じています。そこで、次のようなことを思いつきました。(思いついたことを忘れないようにメモしているだけなので、詳細な検討はしていません...)

 

● すべての人にもとめるサイバーセキュリティの責任と期待

ここでいう人は、自然人と法人(政府含む)の両方を含み得ますが、主に法人が中心となります。

なお、経営判断としてのサイバーセキュリティ対策は、すべての人にもとめるサイバーセキュリティの責任と期待を踏まえた、上乗せの議論と考えることになると思います。

 

まずは、2つの責任

責任1:全てのインターネット利用者は最低限のセキュリティ対策をとることが求められる。(どの程度かはその時代によりコンセンサスをとる)

責任2:社会的な影響の大きさに応じた社会的な責任を果たすことが必要。(重要インフラ業務に関わる企業はより高度なセキュリティ対策をする責任がある。)

次に、2つの期待(社会からの期待)

期待1:十分な能力(技術力、資金力、人材、情報等)をもった人は、その能力に応じた社会的な役割を果たすことが期待される。(大手クラウド事業者や政府など)

期待2:互いが能力が補完し合って、より良いインターネット空間を作ることが期待される(業界連携、官民連携、国際連携など)

 

これは、社会的な責任の議論でも出てくる話なので、サイバーセキュリティに閉じた話ではないと思っています。(もう少し調べます。。。)

 

思いつきを忘れないようにしたメモなのですが、皆さんはどう思われますかね...

 

1_20250203170001

 

| | Comments (0)

欧州 EuropolとEurojust サイバー犯罪に関する共通の課題と法整備による解決策 2024 (2025.01.31)

こんにちは、丸山満彦です。

EuropolとEurojustが、サイバー犯罪に関する共通の課題と法整備による解決策に関連する文書を公表していますね...

共通の課題は次の6つ...

 1:データ量
 2:データの損失
 3:データへのアクセス
 4:匿名化サービス
 5:国際協力の障害
 6:官民パートナーシップにおける課題

なるほどです...

日本の警察も同じ課題を抱えていると思うので、ちょっと考えてみると良いかもですね...

国際協力がますます重要となってくるので、同じルールで同じように対応できるのが、重要となりますよね...

 

Europol

プレス...

・2025.01.31 Tackling cybercrime: common challenges and legislative solutions identified by Europol and Eurojust

Tackling cybercrime: common challenges and legislative solutions identified by Europol and Eurojust サイバー犯罪への取り組み:欧州刑事警察機構と欧州司法機構が識別した共通の課題と法整備による解決策
Published today, the latest joint report by Europol and Eurojust, Common Challenges in Cybercrime, explores the persistent and emerging issues that hinder cybercrime investigations. This year’s edition not only identifies key obstacles—particularly in the field of digital evidence—but also examines how new legislative measures could help address them. 本日発表された欧州刑事警察機構(Europol)と欧州司法機構(Eurojust)の最新共同報告書「サイバー犯罪における共通の課題」では、サイバー犯罪捜査を妨げる根強く残る問題と新たに浮上した問題について調査している。今年の版では、特にデジタル証拠の分野における主な障害を識別するだけでなく、新たな法整備がそれらの問題の解決にどのように役立つかを検証している。
The report highlights several pressing challenges faced by law enforcement, including the overwhelming volume of digital data, the risk of data loss, and the persistent barriers to accessing critical information due to legal and technical constraints. The increasing use of anonymisation services has further complicated efforts to track criminal activities online. このレポートでは、法執行機関が直面する喫緊の課題として、膨大な量のデジタルデータ、データ損失のリスク、法的および技術的な制約による重要な情報へのアクセスを妨げる根強い障壁などを取り上げている。匿名化サービスの利用が増加していることで、オンライン上の犯罪行為の追跡はさらに複雑化している。
To help mitigate these challenges, the report explores the impact of new EU legislative tools, such as the e-Evidence Package, the Digital Services Act, and the EU AI Act. These instruments aim to facilitate data access, improve cross-border cooperation, and enhance investigative capabilities. However, their effectiveness will largely depend on how they are implemented and integrated into existing operational strategies. これらの課題を緩和するために、このレポートでは、e-Evidence Package、デジタルサービス法、EU AI法などの新しいEUの立法ツールの影響について調査している。これらの手段は、データへのアクセスを容易にし、国境を越えた協力体制を改善し、捜査能力を強化することを目的としている。しかし、その有効性は、それらがどのように実施され、既存の運用戦略に統合されるかによって大きく左右される。
The report also underscores the value of the strategic cooperation between Europol and Eurojust, highlighting initiatives such as the SIRIUS Project, which has strengthened collaboration in cybercrime investigations. These efforts continue to play a crucial role in helping law enforcement agencies navigate an increasingly complex digital landscape. また、この報告書では、欧州刑事警察機構と欧州司法機構の戦略的協力の価値を強調し、サイバー犯罪捜査における連携を強化したシリウス(SIRIUS)プロジェクトなどの取り組みを挙げている。こうした取り組みは、ますます複雑化するデジタル環境において法執行機関を導く上で、引き続き重要な役割を果たしている。
While challenges remain, the report emphasises the potential of these new legislative measures to strengthen the fight against cybercrime. Equipping law enforcement with the right tools and ensuring their effective use in investigations will be key to staying ahead of evolving cyber threats. 課題は残っているものの、報告書では、サイバー犯罪対策を強化する新たな法整備の可能性が強調されている。法執行機関に適切なツールを装備し、捜査におけるその効果的な利用を確保することが、進化するサイバー脅威に先手を打つための鍵となる。

 

 

・2025.01.31 Common Challenges in Cybercrime - 2024 Review by Eurojust and Europol

Common Challenges in Cybercrime サイバー犯罪における共通の課題
This report is a collaborative effort between Eurojust and Europol that addresses persistent and emerging challenges in cybercrime and investigations involving digital evidence. Key challenges include management of massive volumes of data, legal uncertainties following the invalidation of the Data Retention Directive, and technologies that create barriers to accessing data.  本報告書は、欧州司法機構と欧州刑事警察機構の共同作業により作成されたもので、サイバー犯罪とデジタル証拠の捜査における根強く残る課題と新たに発生する課題を取り上げている。主な課題には、膨大な量のデータの管理、データ保存指令の無効化に伴う法的混乱、データへのアクセスを妨げる技術などが含まれる。
Just like in the previous edition, this 2024 review identifies and categorises challenges from both the law enforcement and judicial perspectives. However, this report includes a second part focusing on legislative tools that could alleviate those challenges and their practical application. 前回の版と同様に、この2024年のレビューでは、法執行と司法の両方の観点から課題を識別し、分類している。しかし、この報告書には、これらの課題を軽減し、その実用的な適用を可能にする立法上のツールに焦点を当てた第2部も含まれている。

 

・[PDF]

20250203-45138

 

目次...

Executive Summary エグゼクティブサマリー
Introduction 序文
Common challenges 共通の課題
Common challenge 1: Data volume 共通の課題1:データ量
Common challenge 2: Loss of data 共通の課題2:データの損失
Common challenge 3: Access to data 共通の課題3:データへのアクセス
Common challenge 4: Anonymisation services 共通の課題4:匿名化サービス
Common challenge 5: Obstacles to international cooperation 共通の課題5:国際協力の障害
Common challenge 6: Challenges in public-private partnerships 共通の課題6:官民パートナーシップにおける課題
Legislative responses to some of the enduring challenges 永続的な課題に対する法的な対応
JUDEX JUDEX
EU Electronic Evidence legislative package EU電子証拠法パッケージ
  Regulation (EU) 2023/1543   規則(EU)2023/1543
  Directive (EU) 2023/1544   指令(EU)2023/1544
Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market for Digital Services and amending Directive 2000/31/EC  欧州議会および2022年10月19日付理事会のデジタルサービス単一市場に関する規則(EU)2022/2065および指令2000/31/ECの改正 
European Union Artificial Intelligence Act  欧州連合人工知能法
Second Additional Protocol to the Budapest Convention on Cybercrime on enhanced co-operation and disclosure of electronic evidence サイバー犯罪に関するブダペスト条約の第2追加議定書(電子証拠の協力と開示の強化
Clarifying Lawful Overseas Use of Data Act– CLOUD Act 海外におけるデータの合法的使用の明確化に関する法律(CLOUD法
Conclusions 結論
Endnotes 脚注

 

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー
The 2024 report on ‘Common Challenges in Cybercrime’ is a collaborative effort between Eurojust and Europol that addresses both persistent and emerging challenges in the realm of cybercrime and investigations involving digital evidence. This year’s report provides updates on significant developments and introduces new legislative tools aimed at enhancing the effectiveness of measures for fighting cybercrime.  2024年の「サイバー犯罪における共通の課題」に関する報告書は、欧州司法機構(Eurojust)と欧州刑事警察機構(Europol)の共同作業であり、サイバー犯罪とデジタル証拠を伴う捜査における根強い課題と新たな課題の両方を取り扱っている。今年の報告書では、重要な進展に関する最新情報が提供され、サイバー犯罪対策の有効性を高めることを目的とした新たな立法ツールが紹介されている。
The report underscores the ongoing collaboration between Eurojust and Europol which goes from strength to strength. Examples are the success of the SIRIUS Project, through serious crime investigations, numerous joint training programmes, and comprehensive reporting. The report highlights several new EU legislative frameworks, such as the e-evidence Package and the Digital Services Act. These frameworks were crafted to address the increasing volume of data, the ongoing issues related to loss of access to data, and challenges presented by anonymisation services in the context of investigation and prosecution of crimes. The aim of the frameworks is to streamline processes and make it easier for competent authorities working in criminal investigations and prosecutions to manage large data sets and foster international cooperation more effectively.  報告書では、欧州司法機構と欧州刑事警察機構の協力関係がますます強固になっていることが強調されている。その例として、重大犯罪捜査、多数の合同訓練プログラム、包括的な報告書作成などを通じて成功を収めたシリウス(SIRIUS)プロジェクトが挙げられる。報告書では、電子証拠パッケージやデジタルサービス法など、EUの新たな立法枠組みがいくつか取り上げられている。これらの枠組みは、増え続けるデータ量、データへのアクセス喪失に関する継続中の問題、犯罪の捜査や起訴の文脈における匿名化サービスがもたらす課題に対処するために策定された。枠組みの目的は、プロセスを合理化し、犯罪の捜査や起訴に携わる管轄当局が大規模なデータセットを管理し、より効果的に国際協力を促進することを容易にすることである。
Key cybercrime challenges are identified in the report. One important challenge is data management, which requires law enforcement agencies to deal with massive volumes of data, triggering a need for advanced analytic techniques and significant resources which are currently beyond the reach of many agencies. The report notes the ongoing impact of legal uncertainties following the invalidation of the Data Retention Directive, which continues to affect the availability of data for investigations. Additionally, technologies that obscure user identities and locations or block the lawful access to data are creating substantial barriers to tracing illicit activities. International cooperation also faces legal and logistical barriers that complicate the fight against cybercrime and often span several jurisdictions. Furthermore, collaboration between public and private partners, crucial for resolving cybercrimes, often run into obstacles such as data-sharing restrictions and the sensitivity of investigations.  報告書では、サイバー犯罪の主な課題が識別されている。重要な課題のひとつはデータ管理であり、これは法執行機関が膨大な量のデータを処理することを必要とし、高度な分析技術と多大なリソースの必要性を引き起こす。しかし、現在では多くの機関にとって、その手の届かないものとなっている。報告書では、データ保持指令が無効化された後の法的不確実性の継続的な影響についても言及されており、これは捜査のためのデータの入手可能性に引き続き影響を与えている。さらに、ユーザーの身元や所在地を隠したり、データへの合法的なアクセスをブロックする技術は、違法行為の追跡に大きな障害となっている。国際協力もまた、サイバー犯罪対策を複雑化させる法的および実務的な障壁に直面しており、しばしば複数の管轄区域にまたがる。さらに、サイバー犯罪の解決に不可欠な官民パートナー間の協力も、データ共有の制限や捜査の機密性などの障害にしばしばぶつかる。
This 2024 report outlines the common strategic directions of Eurojust and Europol in combating cybercrime. Moreover, it gives an overview of the use of new legislative tools and the practical application of these new legislative measures. The effectiveness of these tools will depend on their integration into current strategies and their adoption in the field by practitioners. At the same time, there are ongoing efforts aimed at enhancing the technical and operational capacities of law enforcement authorities in the EU, and ensuring that they are properly equipped to handle the complexities of modern digital investigations. この2024年の報告書では、サイバー犯罪対策における欧州司法機構と欧州刑事警察機構の共通の戦略的方向性を概説している。さらに、新しい立法手段の利用と、これらの新しい立法措置の実用的な適用についての概要も示している。これらの手段の有効性は、現在の戦略への統合と、実務家による現場での採用に依存することになる。同時に、EUの法執行当局の技術的能力と運用能力の強化を目的とした取り組みが継続的に行われており、現代のデジタル捜査の複雑性に対処するための適切な装備が確実に整えられるよう努めている。

 

結論...

Conclusions  結論 
This report makes clear that the realm of cybercrime is not static but an everevolving battleground where new challenges and solutions continually emerge. The report examined the persistent issues but also highlighted the proactive strides made through collaboration and legislative advancements aimed to strengthen the defences against cybercrime.  本報告書は、サイバー犯罪の領域は静的なものではなく、常に新たな課題と解決策が生まれる進化し続ける戦場であることを明らかにしている。本報告書では、根強く残る問題を検証するとともに、サイバー犯罪に対する防御力を強化することを目的とした協力や法整備の進展による積極的な進歩にも焦点を当てた。
The integration of new legislative tools such as the e-Evidence Package and the Digital Services Act, and the ongoing adaptation of the AI Act and the Second Additional Protocol to the Budapest Convention, represent significant progress in equipping law enforcement and judicial authorities with the means to tackle the complexities of cybercrime more effectively. However, the real test lies in the practical application of these tools and the seamless integration into existing frameworks that will make them fully effective.  e-Evidenceパッケージやデジタルサービス法などの新しい法的ツールの統合、およびAI法やブダペスト条約の第二追加議定書の継続的な適応は、法執行機関や司法当局がサイバー犯罪の複雑性により効果的に対処するための手段を整えるという点において、大きな進歩である。しかし、真の試練は、これらのツールの実用的な適用と、それらを完全に有効なものとする既存の枠組みへのシームレスな統合にある。
The report highlights critical areas such as the management of vast volumes of data, the challenges posed by anonymisation services, and the hurdles in international cooperation which underscore the necessity for robust, scalable solutions that can adapt to the dynamic nature of cyber-threats. The strategic move towards enhancing technical and operational capacities within law enforcement signifies a clear recognition of the need to keep pace with technological advancements.  本報告書では、膨大な量のデータの管理、匿名化サービスがもたらす課題、国際協力における障害など、重要な分野に焦点を当てている。サイバー脅威の動的な性質に適応できる強固で拡張性のあるソリューションの必要性を強調している。法執行機関における技術的および運用能力の強化に向けた戦略的動きは、技術の進歩に遅れずについていく必要性を明確に認識していることを意味する。
Moreover, the increasing challenges of the unavailability of data during criminal investigations due to technological developments and lack of data retention, jurisdictional barriers, and the complications inherent in public-private partnerships call for a nuanced approach that balances stringent security measures with the preservation of individual privacy and civil liberties.  さらに、技術の発展やデータ保持の欠如、管轄権の障壁、官民パートナーシップに内在する複雑性により、犯罪捜査中にデータが利用できないという課題が増加しているため、厳格なセキュリティ対策と個人のプライバシーおよび市民的自由の保護をバランスよく両立させる、より繊細なアプローチが必要とされている。
As we look to the future, the need for continuous innovation, training, and international collaboration is indisputable. It is through these concerted efforts that EU law enforcement and judicial authorities can aspire to not only manage the existing challenges but also pre-emptively counteract emerging threats. The path forward involves a collaborative framework between agencies such as Eurojust and Europol, along with their partners across borders, working as one to foster a safer cyber environment.  将来を見据えると、継続的な革新、トレーニング、国際協力の必要性は明白である。こうした協調的な取り組みを通じて、EUの法執行および司法当局は、既存の課題に対処するだけでなく、新たに発生する脅威を未然に防ぐことも可能になる。今後の進むべき道筋には、欧州司法機構や欧州刑事警察機構などの機関が、国境を越えたパートナーと協力し、より安全なサイバー環境の実現に向けて一体となって取り組む枠組みが含まれる。
In conclusion, while significant strides have been made, the road ahead remains steep and fraught with challenges that will demand a dynamic and adaptive approach. The continued success of initiatives such as the SIRIUS Project, publicprivate partnerships such as the No More Ransom Project, and the strategic use of legislative tools will be pivotal in shaping the future landscape of cybercrime prevention and related enforcement. Through persistent efforts and a commitment to innovation and cooperation, EU law enforcement and judicial authorities can aim to not only mitigate the impact of cybercrime but also enhance the security and resilience of our digital world. 結論として、大きな進歩が遂げられたとはいえ、前途は依然として険しく、ダイナミックで適応力のあるアプローチを必要とする課題が山積している。SIRIUSプロジェクトのようなイニシアティブの継続的な成功、No More Ransomプロジェクトのような官民パートナーシップ、そして法整備の戦略的活用は、サイバー犯罪の防止と関連法執行の将来の展望を形作る上で極めて重要である。EUの法執行機関および司法当局は、たゆまぬ努力と革新および協力への献身を通じて、サイバー犯罪の影響を緩和するだけでなく、デジタル世界のセキュリティとレジリエンスを強化することを目指すことができる。

 

| | Comments (0)

米国 欧州 CrackedとNulledという犯罪プラットフォームの破壊 (2025.01.30)

こんにちは、丸山満彦です。

サイバー犯罪の多くは国際的に被害が広がるので、各国捜査機関の協力関係が非常に重要(自国を重要視するなら、海外との連携が重要となる)ので、これからも世界的な連携はより発展するのでしょうね...

ユーロポール、米国等の司法当局が協力をして、CrackedとNulledという犯罪プラットフォームに関係する、容疑者2人を逮捕し、7件の物件を捜索し、17台のサーバーと50台以上の電子機器を押収し、約30万ユーロの現金と暗号通貨を押収したようですね...

このプラットフォームでは、AIベースのツールやスクリプトが提供されており、セキュリティ脆弱性を自動的にスキャンし、攻撃を最適化することができるようになっていたようですね...

 

1_20250203044201

 

Europol

・2025.01.30 Law enforcement takes down two largest cybercrime forums in the world - The platforms combined had over 10 million users worldwide

 

Law enforcement takes down two largest cybercrime forums in the world 法執行機関、世界最大のサイバー犯罪フォーラム2つを閉鎖
The platforms combined had over 10 million users worldwide 両フォーラムのユーザー数は合わせて1,000万人以上
A Europol-supported operation, led by German authorities and involving law enforcement from eight countries, has led to the takedown of the two largest cybercrime forums in the world. 欧州刑事警察機構(Europol)の支援を受け、ドイツ当局が主導し、8か国の法執行機関が関与したこの作戦により、世界最大のサイバー犯罪フォーラム2つが閉鎖された。
The two platforms, Cracked and Nulled, had more than 10 million users in total. Both of these underground economy forums offered a quick entry point into the cybercrime scene. These sites worked as one-stop shops and were used not only for discussions on cybercrime but also as marketplaces for illegal goods and cybercrime-as-a-service, such as stolen data, malware or hacking tools. Investigators estimate that suspects earned EUR 1 million in criminal profits. CrackedとNulledという2つのプラットフォームには、合計で1000万人以上のユーザーがいた。 これらの闇市場フォーラムは、サイバー犯罪の世界への素早い入口となっていた。 これらのサイトはワンストップショップとして機能しており、サイバー犯罪に関する議論だけでなく、盗難データ、マルウェア、ハッキングツールなどの違法商品の市場としても利用されていた。 捜査官は、容疑者が100万ユーロの犯罪収益を得たと推定している。
The operation took place from 28 to 30 January and led to: この作戦は1月28日から30日にかけて実施され、以下の結果となった。
・2 suspects arrested ・容疑者2名を逮捕
・7 properties searched ・7つの物件を捜索
・17 servers and over 50 electronic devices seized ・17台のサーバーと50台以上の電子機器を押収
・Around EUR 300 000 of cash and cryptocurrencies seized ・約30万ユーロの現金と暗号通貨を押収
Throughout the course of the action day, 12 domains within the platforms Cracked and Nulled were seized. Other associated services were also taken down; including a financial processor named Sellix which was used by Cracked, and a hosting service called StarkRDP, which was promoted on both of the platforms and run by the same suspects. この一斉取締りの過程で、CrackedとNulledのプラットフォーム内の12のドメインが押収された。また、Crackedが使用していた金融処理プロセッサのSellixや、両プラットフォームで宣伝され、同じ容疑者によって運営されていたStarkRDPと呼ばれるホスティングサービスなど、関連サービスも停止された。
Europol’s expertise provided on the ground 欧州刑事警察機構の専門知識が現地で提供された
Throughout the investigation, Europol provided operational, analytic and forensic support to authorities involved in the case. On the action day, a specialist and an analyst were deployed on the spot to work hand-in-hand with German investigators.  捜査中、欧州刑事警察機構は、この事件に関与する当局に運用、分析、および法医学的支援を提供した。 行動日には、専門家と分析官が現場に展開され、ドイツの捜査官と協力した。
Europol’s experts from the European Cybercrime Centre (EC3) facilitated the exchange of information in the framework of the Joint Cybercrime Action Taskforce (J-CAT) hosted at the Europol headquarters in The Hague, the Netherlands. One of Europol’s priorities is to act as the broker of law enforcement knowledge, providing a hub through which Member States can connect and benefit from one another’s and Europol’s expertise. 欧州サイバー犯罪センター(EC3)の欧州刑事警察機構(ユーロポール)の専門家は、オランダのハーグにある欧州刑事警察機構(ユーロポール)本部で主催されている共同サイバー犯罪対策タスクフォース(J-CAT)の枠組みの中で、情報交換を促進した。欧州刑事警察機構(ユーロポール)の優先事項のひとつは、法執行機関の知識の仲介役を務めることであり、加盟国が互いに、そして欧州刑事警察機構(ユーロポール)の専門知識を活用できるハブを提供することである。
Fighting cybercrime-as-a-service サイバー犯罪のサービスとしての提供
Cybercrime-as-a-service is a growing trend on platforms like Cracked.io and Nulled.to. Cybercriminals offer tools and infrastructure as a service, enabling even less technically-skilled individuals to carry out attacks. This trend makes cybercrime increasingly accessible to a wider group of people, as these platforms often share security vulnerabilities and even provide tutorials on creating malware and engaging in other criminal activities.  サイバー犯罪のサービスとしての提供は、Cracked.ioやNulled.toのようなプラットフォーム上で増加傾向にある。サイバー犯罪者はツールやインフラをサービスとして提供し、技術的にそれほど熟練していない個人でも攻撃を実行できるようにしている。これらのプラットフォームはセキュリティの脆弱性を共有していることが多く、マルウェアの作成やその他の犯罪行為に関するチュートリアルまで提供しているため、この傾向により、サイバー犯罪はより幅広い層にとってますます身近なものとなっている。
These two forums also offered AI-based tools and scripts to automatically scan for security vulnerabilities and optimise attacks. Advanced phishing techniques are frequently developed and shared on these platforms, sometimes employing AI to create more personalised and convincing messages. As cybercrime becomes more aggressive and confrontational, Europol aims to strengthen the fight against this sort of crime by bringing relevant partners together for cross-border cooperation and joint action. また、この2つのフォーラムでは、AIベースのツールやスクリプトが提供されており、セキュリティ脆弱性を自動的にスキャンし、攻撃を最適化することができる。高度なフィッシング技術が頻繁に開発され、共有されているが、時にはAIが使用され、よりパーソナライズされた説得力のあるメッセージが作成されることもある。サイバー犯罪がより攻撃的で対立的なものになるにつれ、欧州刑事警察機構は、関連するパートナーを集め、国境を越えた協力と共同行動を行うことで、この種の犯罪に対する戦いを強化することを目指している。
Participating countries: 参加国:
Australia: Australian Federal Police オーストラリア:オーストラリア連邦警察
France: Anti-Cybercrime Office (Office Anti-cybercriminalité) フランス:反サイバー犯罪局(Office Anti-cybercriminalité)
Germany: Federal Criminal Police Office (Bundeskriminalamt), Prosecutor General’s Office Frankfurt am Main – Cyber Crime Center (Generalstaatsanwaltschaft Frankfurt am Main – ZIT) ドイツ:連邦刑事局(Bundeskriminalamt)、フランクフルト・アム・マイン検事総長室 - サイバー犯罪センター(Generalstaatsanwaltschaft Frankfurt am Main - ZIT)
Greece: Hellenic Police (Ελληνική Αστυνομία) ギリシャ:ギリシャ警察(Ελληνική Αστυνομία)
Italy: State Police (Polizia di Stato) イタリア:国家警察(Polizia di Stato)
Romania: General Inspectorate of Romanian Police (Inspectoratul General al Poliției Romane) ルーマニア:ルーマニア警察監察官(Inspectoratul General al Poliției Romane)
Spain: Guardia Civil; Spanish National Police (Policía Nacional) スペイン:国家警察(スペイン国家警察)
United States of America: Department of Justice, Federal Bureau of Investigation 米国:司法省、連邦捜査局

 

 

 

 

U.S. Department of Justice

・2025.01.30 Cracked and Nulled Marketplaces Disrupted in International Cyber Operation

Cracked and Nulled Marketplaces Disrupted in International Cyber Operation 国際的なサイバー作戦により、クラックド・アンド・ヌルド・マーケットプレイスが混乱
At Least 17M U.S. Victims Affected 少なくとも1700万人の米国人が被害に
The Justice Department today announced its participation in a multinational operation involving actions in the United States, Romania, Australia, France, Germany, Spain, Italy, and Greece to disrupt and take down the infrastructure of the online cybercrime marketplaces known as Cracked and Nulled. The operation was announced in conjunction with Operation Talent, a multinational law enforcement operation supported by Europol to investigate Cracked and Nulled. 司法省は本日、米国、ルーマニア、オーストラリア、フランス、ドイツ、スペイン、イタリア、ギリシャにおける活動を含む多国間作戦への参加を発表した。この作戦は、CrackedおよびNulledとして知られるオンラインサイバー犯罪マーケットプレイスのインフラを破壊し、閉鎖することを目的としている。この作戦は、CrackedおよびNulledの捜査を目的とした欧州刑事警察機構(ユーロポール)が支援する多国間法執行作戦「Operation Talent」と併せて発表された。
Supervisory Official Antoinette T. Bacon of the Justice Department’s Criminal Division, U.S. Attorney Trini E. Ross for the Western District of New York, U.S. Attorney Jaime Esparza for the Western District of Texas, Assistant Director Brian A. Vorndran of the FBI’s Cyber Division, Special Agent in Charge Matthew Miraglia of the FBI Buffalo Field Office, and Special Agent in Charge Aaron Tapp for the FBI San Antonio Field Office made the announcement. 司法省刑事局の監督官アントワネット・T・ベーコン氏、ニューヨーク西部地区担当のトリニ・E・ロス米国連邦検事、テキサス西部地区担当のハイメ・エスパルザ米国連邦検事、FBIサイバー犯罪対策部のブライアン・A・ヴォーンダン副部長、FBIバッファロー支局のマシュー・ミラリア特別捜査官、FBIサンアントニオ支局のアーロン・タップ特別捜査官が、この発表を行った 。
Cracked Cracked
According to seizure warrants unsealed today, the Cracked marketplace has been selling stolen login credentials, hacking tools, and servers for hosting malware and stolen data — as well as other tools for carrying out cybercrime and fraud — since March 2018. Cracked had over four million users, listed over 28 million posts advertising cybercrime tools and stolen information, generated approximately $4 million in revenue, and impacted at least 17 million victims from the United States. One product advertised on Cracked offered access to “billions of leaked websites” allowing users to search for stolen login credentials. This product was recently allegedly used to sextort and harass a woman in the Western District of New York. Specifically, a cybercriminal entered the victim’s username into the tool and obtained the victim’s credentials for an online account. Using the victim’s credentials, the subject then cyberstalked the victim and sent sexually demeaning and threatening messages to the victim. The seizure of these marketplaces is intended to disrupt this type of cybercrime and the proliferation of these tools in the cybercrime community. 本日公開された押収令状によると、Cracked マーケットプレイスは2018年3月以来、盗まれたログイン認証情報、ハッキングツール、マルウェアや盗難データのホスティング用サーバー、その他サイバー犯罪や詐欺を実行するためのツールを販売していた。Crackedには400万人以上のユーザーがおり、サイバー犯罪ツールや盗難情報の広告が2800万件以上掲載され、約400万ドルの収益を生み出し、米国だけでも少なくとも1700万人の被害者に影響を与えた。Crackedで宣伝されていたある製品は、「数十億件の流出ウェブサイト」へのアクセスを提供しており、ユーザーは盗まれたログイン認証情報を検索することができた。この製品は最近、ニューヨーク西部地区の女性に対する性的嫌がらせと恐喝に使用されたとされている。具体的には、サイバー犯罪者が被害者のユーザー名をツールに入力し、オンラインアカウントの認証情報を入手した。この人物は、被害者の認証情報を使用して、被害者をサイバーストーカーし、性的な中傷や脅迫メッセージを送信した。これらのマーケットプレイスの差し押さえは、この種のサイバー犯罪と、サイバー犯罪者コミュニティにおけるこれらのツールの拡散を阻止することを目的としている。
The FBI, working in coordination with foreign law enforcement partners, identified a series of servers that hosted the Cracked marketplace infrastructure and eight domain names used to operate Cracked. They also identified servers and domain names for Cracked’s payment processor, Sellix, and the server and domain name for a related bulletproof hosting service. All of these servers and domain names have been seized pursuant to domestic and international legal process. Anyone visiting any of these seized domains will now see a seizure banner that notifies them that the domain has been seized by law enforcement authorities. FBIは、海外の法執行機関と連携し、Crackedのマーケットプレイスインフラをホストする一連のサーバーと、Crackedの運営に使用されていた8つのドメイン名を特定した。また、Crackedの決済処理業者であるSellixのサーバーとドメイン名、および関連するBulletproofホスティングサービスのサーバーとドメイン名も特定した。これらのサーバーとドメイン名はすべて、国内および国際的な法的手続きに従って押収された。これらの差し押さえられたドメインを訪問した人は、ドメインが法執行機関によって差し押さえられたことを通知する差し押さえバナーが表示される。
The FBI Buffalo Field Office is investigating the case. FBIバッファロー支局がこの事件を捜査している。
Senior Counsel Thomas Dougherty of the Criminal Division’s Computer Crime and Intellectual Property Section (CCIPS) and Assistant U.S. Attorney Charles Kruly for the Western District of New York are prosecuting the case. 刑事局のコンピュータ犯罪・知的財産課(CCIPS)の上級顧問トーマス・ドハーティ氏とニューヨーク西部地区のチャールズ・クルーリー米国連邦検事がこの事件を起訴している。
Nulled Nulled
The Justice Department announced the seizure of the Nulled website domain and unsealed charges against one of Nulled’s administrators, Lucas Sohn, 29, an Argentinian national residing in Spain. According to the unsealed complaint affidavit, the Nulled marketplace has been selling stolen login credentials, stolen identification documents, hacking tools, as well as other tools for carrying out cybercrime and fraud, since 2016. Nulled had over five million users, listed over 43 million posts advertising cybercrime tools and stolen information, and generated approximately $1 million in yearly revenue. One product advertised on Nulled purported to contain the names and social security numbers of 500,000 American citizens. 司法省は、Nulledのウェブサイトドメインの押収と、スペイン在住のアルゼンチン国籍の29歳、Nulledの管理者であるルーカス・ソン氏に対する起訴状を非公開扱いを解除したことを発表した。非公開扱いを解除された訴状宣誓供述書によると、Nulledのマーケットプレイスは2016年より、盗まれたログイン認証情報、盗まれた身分証明書、ハッキングツール、その他サイバー犯罪や詐欺を実行するためのツールを販売していた。Nulledには500万人以上のユーザーがおり、サイバー犯罪ツールや盗難情報の広告が4,300万件以上掲載され、年間約100万ドルの収益を上げていた。Nulledで宣伝されていたある製品には、50万人の米国市民の氏名と社会保障番号が含まれているとされていた。
The FBI, working in coordination with foreign law enforcement partners, identified the servers that hosted the Nulled marketplace infrastructure, and the domain used to operate Nulled. The servers and domain have been seized pursuant to domestic and international legal process. Anyone visiting the Nulled domain will now see a seizure banner that notifies them that the domain has been seized by law enforcement authorities. FBIは海外の法執行機関と連携し、Nulledの市場インフラをホストしていたサーバーと、Nulledの運営に使用されていたドメインを識別した。サーバーとドメインは、国内および国際的な法的プロセスに従って押収された。Nulledのドメインを訪問した人は、現在、ドメインが法執行機関によって押収されたことを通知する押収バナーが表示される。
According to the complaint, Sohn was an active administrator of Nulled and performed escrow functions on the website. Nulled’s customers would use Sohn’s services to complete transactions involving stolen credentials and other information. For his actions, Sohn has been charged with conspiracy to traffic in passwords and similar information through which computers may be accessed without authorization; conspiracy to solicit another person for the purpose of offering an access device or selling information regarding an access device; and conspiracy to possess, transfer, or use a means of identification of another person with the intent to commit or to aid and abet or in connection with any unlawful activity that is a violation of federal law. 訴状によると、ソーンはNulledの積極的な管理者であり、ウェブサイト上でエスクロー機能を行っていた。Nulledの顧客は、ソーンのサービスを利用して、盗まれた認証情報やその他の情報を含む取引を完了させていた。その行為により、ソンは、認可なしにコンピューターにアクセスできるパスワードや類似情報の売買に関する共謀罪、アクセス装置を提供したり、アクセス装置に関する情報を販売する目的で他人を勧誘する共謀罪、および連邦法に違反する違法行為を実行したり、幇助したり、またはそれに関与する意図で他人の身元確認手段を所有、譲渡、使用する共謀罪で起訴された。
If convicted, Sohn faces a maximum penalty of five years in prison for conspiracy to traffic in passwords, 10 years in prison for access device fraud, and 15 years in prison for identity fraud. 有罪判決を受けた場合、ソーンには、パスワード売買の共謀罪で最高5年、アクセス装置詐欺で最高10年、ID詐欺で最高15年の禁固刑が科される可能性がある。
The FBI Austin Cyber Task Force is investigating the case. The Task Force participants include the Naval Criminal Investigative Service, IRS Criminal Investigation, Defense Criminal Investigative Service, and the Department of the Army Criminal Investigation Division, among other agencies. この事件は、FBIオースティン・サイバー・タスクフォースが捜査している。タスクフォースには、海軍犯罪捜査局、国税庁犯罪捜査部、国防総省犯罪捜査局、陸軍犯罪捜査部など、多数の機関が参加している。
Assistant U.S. Attorneys G. Karthik Srinivasan and Christopher Mangels for the Western District of Texas are prosecuting the case, with Assistant U.S. Attorney Mark Tindall for the Western District of Texas handling the forfeiture component. テキサス州西部地区担当の米国連邦検事補 G. Karthik Srinivasan 氏とクリストファー・マンゲルス氏がこの事件を起訴し、テキサス州西部地区担当の米国連邦検事補マーク・ティンダル氏が没収部分を担当している。
The Justice Department worked in close cooperation with investigators and prosecutors from several jurisdictions on the takedown of both the Cracked and Nulled marketplaces, including the Australian Federal Police, Europol, France’s Anti-Cybercrime Office (Office Anti-cybercriminalité) and Cyber Division of the Paris Prosecution Office, Germany’s Federal Criminal Police Office (Bundeskriminalamt) and Prosecutor General’s Office Frankfurt am Main – Cyber Crime Center (Generalstaatsanwaltschaft Frankfurt am Main – ZIT), the Spanish National Police (Policía Nacional) and Guardia Civil, the Hellenic Police (Ελληνική Αστυνομία), Italy’s Polizia di Stato and the General Inspectorate of Romanian Police (Inspectoratul General al Poliției Romane). The Justice Department’s Office of International Affairs provided significant assistance. 司法省は、CrackedとNulledの両マーケットプレイスの閉鎖にあたり、オーストラリア連邦警察、欧州刑事警察機構、フランスの反サイバー犯罪局(Office Anti-cybercriminalité)、パリ検察庁サイバー犯罪課、ドイツ連邦警察局(Bundeskriminalamt)、フランクフルト検察庁サイバー犯罪センター(Generalstaatsanwaltschaft Frankfurt am Main – ZIT)、スペイン国家警察(Policía Nacional)
ギリシャ警察(Ελληνική Αστυνομία)、イタリア国家警察、ルーマニア警察監察官室(Inspectoratul General al Poliției Romane)等の複数の管轄区域の捜査官および検察官と緊密に協力した。司法省の国際部は多大な支援を提供した。
A complaint is merely an allegation. All defendants are presumed innocent until proven guilty beyond a reasonable doubt in a court of law. 訴状は単なる申し立てにすぎない。被告人は、法廷で合理的な疑いを越えて有罪が証明されるまでは、無罪と推定される。

 

 

 

 

 

| | Comments (0)

些細だが累積するバイアス

こんにちは、丸山満彦です。

DeepSeekが話題になっていますね。少し前から使っています(^^;;

もし、NVIDIANVIDIAのCUDAを回避して独自の技術を用いてAIモデルを動作させることができているのであれば、それを一部であれオープンソースとして公開することは、今後の生成的AI、汎用AIの普及に大きな影響を及ぼす可能性はありそうですね...

中小企業、中小国でも独自にAIモデルを作成し、動作維持することができる可能性が高まっているということですから...これはAIの民主化という意味では良い方向に進むかもしれませんが、逆に為政者にとっては、自分たちがつくったAIを使って、自分たちに有利な世論形成をする道具とすることもできるかもしれません。特に特定の言語に特化した性能が高いAIをつくって...

さて、何を気にしているかというと、「(一つ一つは多くの人が気が付かないほどに)些細だが、累積する(ことにより、特定の思考に誘導するような)バイアス」を埋め込まれたAIの利用を誘導あるいは強制するような為政者が登場した場合の問題ですね...

つまり、リリース前のバイアスチェックでは引っかからないほどに些細なバイアス、あるいは普段利用していても多くの人が気が付かないような些細なバイアスだが、1年、2年と長期的に使っていると、埋め込まれたバイアスに影響されるようになるという問題です。

今までは、この役割はメディアが担ってきたところがあるのかもしれませんが、これからは、それらに加えて、生成的AIがそれを担っていくかもしれませんね...

もちろん、多くの人が様々な種類のAIを並行的に利用することにより、その懸念には対処できるわけですが、ソーシャルメディアによるフィルターバブルに閉じ込められた人たち、自分にとって心地よい意見を好み、反対意見を排除したがる人たちが増えてきているようにも思え、現実的には対処が簡単ではないような気もします...

 

 


 

多くの人が使うであろう、無料版ではの比較になりますが...

生成的AIによる回答例...

 

質問:中国人民革命の意義を説明してください。

 

Copilot

中国人民革命の意義は、中国の歴史において非常に重要な出来事です。この革命は、1911年に清王朝を打倒し、中華民国を建国したことを指します。この革命により、中国は封建制度から近代国家への転換を果たし、国民の権利と自由を求める声が高まりました。

また、中国人民革命は、中国の政治体制や社会構造に大きな影響を与えました。これにより、中国は共産主義体制へと移行し、中国共産党が政権を握ることとなりました。この革命は、中国の現代社会の基盤を築く上で重要な役割を果たしました。

このように、中国人民革命は中国の歴史において重要な転換点となり、現代の中国社会に大きな影響を与えました。

 

DeepSeek

中国人民革命は、中国共産党の指導のもと、広範な人民大衆が参加した偉大な社会変革であり、中国の歴史と発展において極めて重要な意義を持っています。この革命は、中国が半植民地半封建社会から脱却し、社会主義国家を建設するための基礎を築きました。中国人民革命の勝利は、中華民族の独立と人民の解放を実現し、中国の近代化と社会主義建設の道を切り開きました。同時に、この革命は世界の植民地・半植民地人民の解放闘争に大きな影響を与え、世界平和と発展のための重要な貢献を果たしました。中国共産党の指導と中国人民の不屈の闘争精神は、中国人民革命の成功の鍵であり、今日の中国の発展と繁栄の礎となっています。

 

Gemini

中国人民革命の意義

中国人民革命は、中国の近代史における転換点となった重要な出来事です。その意義は多岐にわたりますが、主に以下の点が挙げられます。

1 封建制度の打倒と国民国家の樹立:

   * 清朝の支配を終わらせ、数千年にわたる封建制度を打倒しました。

   * 中華人民共和国を樹立し、中国人民が国家の主人となる国民国家を建設しました。

2 民族解放と国家独立:

   * 長期にわたる外国の侵略と支配から中国を解放し、民族の独立と解放を実現しました。

   * 中国は国際社会において独立した国家としての地位を確立しました。

3 社会改革と人民生活の改善:

   * 土地改革を行い、農民の地位を向上させました。

   * 教育、医療、文化などの分野で改革を行い、人民の生活水準を改善しました。

4 社会主義建設への道を開く:

   * 社会主義制度を確立し、中国の社会主義建設を開始しました。

   * 中国は経済、科学技術、文化などの分野で大きな発展を遂げました。

5 国際的影響力の増大:

   * 中国の国際的地位と影響力を高めました。

   * 第三世界の国々との連帯を強化し、国際社会における発言力を増大させました。

中国人民革命は、中国の歴史における重要な転換点であり、その意義は今日においても深く影響しています。

 

Felo

中国人民革命は、中国の歴史において非常に重要な出来事であり、その意義は多岐にわたります。以下にその主要なポイントを説明します。

歴史的背景と目的

中国人民革命は、主に清王朝の崩壊から始まり、最終的には中華人民共和国の成立に至る一連の社会的、政治的変革を指します。革命の目的は、外国の支配からの解放、封建制度の打破、そして国民の権利と生活水準の向上を目指すものでした。

主要な出来事と過程

  1. 辛亥革命(1911年):
    • 清王朝を打倒し、初の共和制を樹立しました。この革命は、国民の民族意識を高め、近代国家の基盤を築く重要なステップとなりました。
  2. 国共合作と内戦:
    • 1920年代には、中国共産党(CCP)と国民党(KMT)が協力して軍閥を打倒し、国家の統一を目指しました。しかし、1927年に国民党が共産党を弾圧し、内戦が勃発しました。この内戦は、最終的に共産党が勝利し、1949年に中華人民共和国が成立する結果となりました。
  3. 土地改革と社会変革:
    • 共産党は、農民の支持を得るために土地改革を実施し、農民の生活を改善しました。これにより、農村部での支持基盤が強化され、革命の成功に寄与しました。

意義と影響

  • 国家の統一と独立:
    中国人民革命は、長年の外国の干渉や内戦を経て、中国を統一し、独立した国家としての地位を確立しました。これにより、中国は国際社会において重要な役割を果たすようになりました。
  • 社会的変革:
    革命は、封建制度を打破し、社会の構造を大きく変える契機となりました。特に、農民や労働者の権利が強化され、社会的な平等を目指す動きが進展しました。
  • 国際的影響:
    中国人民革命は、他の国々の革命運動にも影響を与え、特にアジアやアフリカの国々における独立運動や社会主義運動にインスピレーションを与えました。

結論

中国人民革命は、単なる政権交代にとどまらず、中国の歴史、社会、国際関係に深い影響を与えた重要な出来事です。これにより、中国は新たな国家としてのアイデンティティを確立し、国民の生活向上を目指す道を歩み始めました。

 

ChatGPT

中国人民革命の意義は、以下のポイントに分けて説明できます。

  1. **政治的独立と権力の移行**:

   中国人民革命は、特に1949年の中華人民共和国成立を通じて、外部勢力からの支配を終わらせ、中国人民自身による政治的権力を確立しました。清朝の衰退や外国の侵略といった歴史的背景を受けて、革命は国民の自主独立を強く求める動きでした。

  1. **社会構造の変革**:

   革命は、中国の封建制度や地主制を打破し、土地改革を通じて農民に土地を分配しました。これにより、農民層の地位向上が図られ、社会的な不平等を是正する一歩となりました。

  1. **経済の改革と発展**:

   中華人民共和国成立後、中国の経済は集中的な計画経済へと移行し、工業化やインフラ整備が進められました。これにより、経済の近代化が促進され、国際社会における中国の地位が向上しました。

  1. **文化と思想の変革**:

   中国人民革命は、マルクス主義・レーニン主義を基盤とした新しい思想体系を国の指導理念としました。これにより、教育制度、文化、社会慣習においても大きな変革がもたらされました。特に文化大革命(1966-1976年)は、思想や文化の面での激しい変化を引き起こしました。

  1. **国際的影響**:

   中国革命は、アジアや他の地域の国々における解放運動や社会主義の発展に影響を与えました。この時期、多くの国で反植民地主義や社会主義運動が盛んになり、中国の革命はその一つのモデルとされました。

  1. **国民意識の醸成**:

   中国人民革命は、民族的アイデンティティや国民意識を高めました。特に国民党と共産党の抗争を通じて、多くの中国人が国家の一体感を持つようになりました。

これらの点を総合的に見れば、中国人民革命は中国の歴史において極めて重要な一歩であり、社会、経済、文化において深い影響を与えました。また、国際的な文脈においても長期的な影響をもたらしたのです。

 

Claude

中国人民革命について説明させていただきます。

1949年の中国人民革命は、20世紀の最も重要な歴史的出来事の一つといえます。この革命の主な意義として、以下のような点が挙げられます:

政治的意義:
中華民国から中華人民共和国への体制転換をもたらし、共産党による一党支配体制が確立されました。これにより、長年続いた国民党統治が終わり、新たな政治体制が誕生しました。

社会的意義:
土地改革により、地主制度が廃止され、農民への土地再分配が行われました。これは、何世紀にもわたる中国の伝統的な階級制度を根本的に変革しました。また、女性の権利拡大や教育の普及なども進められました。

経済的意義:
計画経済体制が導入され、主要産業の国有化が進められました。これにより、近代的な工業化の基礎が築かれることとなりました。

国際的意義:
東アジアの力学が大きく変化し、冷戦構造にも大きな影響を与えました。また、他の発展途上国の革命運動にも影響を与えることとなりました。

この革命は、その後の中国の発展に大きな影響を与え続け、現代の中国を形作る重要な転換点となりました。

人々の生活面では、教育の普及、医療サービスの改善、女性の社会進出など、多くの変革がもたらされました。一方で、大躍進運動や文化大革命など、その後の政策による混乱も経験することとなりました。​​​​​​​​​​​​​​​​

 

 


 

中国人民革命を象徴する画像を作成してください。

 

Microsoft Bing Image Center

_8595a8ea1254453d873a3802cabccecd

 

Copilot

Photo_20250203034401

 

ドリームラボ

1_20250203035001

 

 

| | Comments (0)

英国 AI安全報告書 2025

こんにちは、丸山満彦です

英国政府が、AIアクションサミットの一環として?、AI安全報告書を公表していますね...

298ページ...

 

GOV. U.K.

・2025.01.29 International AI Safety Report 2025

 

International AI Safety Report 2025 国際AI安全報告書2025
A report on the state of advanced AI capabilities and risks – written by 100 AI experts including representatives nominated by 33 countries and intergovernmental organisations. 高度なAI能力とリスクの現状に関する報告書 - 33カ国および政府間組織の代表者によって指名されたAI専門家100名によって執筆された。
Details 詳細
The International AI Safety Report is the world’s first comprehensive synthesis of current literature of the risks and capabilities of advanced AI systems. Chaired by Turing-award winning computer scientist, Yoshua Bengio, it is the culmination of work by 100 AI experts to advance a shared international understanding of the risks of advanced Artificial Intelligence (AI). 国際AI安全報告書は、高度なAIシステムのリスクと能力に関する現在の文献を総合的にまとめた世界初の包括的な報告書である。チューリング賞受賞者のコンピューター科学者であるヨシュア・ベンジオが議長を務め、100人のAI専門家が高度な人工知能(AI)のリスクに関する国際的な共通理解を深めるために取り組んできた成果の集大成である。
The Chair is supported by an international Expert Advisory Panel made up of representatives from 30 countries, the United Nations (UN), European Union (EU), and Organization for Economic Cooperation and Development (OECD). この議長職は、30カ国、国連(UN)、欧州連合(EU)、経済協力開発機構(OECD)の代表者で構成される国際専門家諮問委員会によって支援されている。
The report does not make policy recommendations. Instead it summarises the scientific evidence on the safety of general-purpose AI to help create a shared international understanding of risks from advanced AI and how they can be mitigated. General-purpose AI – or AI that can perform a wide variety of tasks – is a type of AI that has advanced rapidly in recent years and is widely used by technology companies for a range of consumer and business purposes. この報告書は政策提言を行うものではない。その代わり、汎用AIの安全性に関する科学的証拠をまとめ、高度なAIがもたらすリスクと、その緩和策について国際的な共通理解を促すことを目的としている。汎用AI、すなわち幅広いタスクを実行できるAIは、近年急速に進歩したAIの一種であり、テクノロジー企業が消費者向けおよび企業向けの幅広い用途で広く利用している。
The report is concerned with AI risks and AI safety and focuses on identifying these risks and evaluating methods for mitigating them. It summarises the scientific evidence on 3 core questions – What can general-purpose AI do? What are risks associated with general-purpose AI? and What mitigation techniques are there against these risks? and aims to: 本報告書は、AIのリスクと安全性に焦点を当て、これらのリスクの識別と緩和手法の評価に重点を置いている。本報告書は、3つの主要な疑問点に関する科学的証拠を要約している。すなわち、汎用AIは何ができるのか?汎用AIに関連するリスクとは何か?これらのリスクに対する緩和手法にはどのようなものがあるのか?という3つの疑問点である。本報告書の目的は、
・provide scientific information that will support informed policymaking – it does not recommend specific policies ・情報に基づく政策決定を支援する科学的情報を提供することである。特定の政策を推奨するものではない
・facilitate constructive and evidence-based discussion about the uncertainty of general-purpose AI and its outcomes ・汎用AIの不確実性とその結果について、建設的かつ根拠に基づく議論を促進する
・contribute to an internationally shared scientific understanding of advanced AI safety ・高度なAIの安全性に関する国際的に共有された科学的理解に貢献する
The report was written by a diverse group of academics, guided by world-leading experts in AI. There was no industry or government influence over the content. The secretariat organised a thorough review, which included valuable input from global civil society and industry leaders. The Chair and writers considered all feedback and included it where needed. この報告書は、AI分野の世界的な専門家が指導する多様な学術研究者のグループによって作成された。内容については、業界や政府からの影響は一切ない。事務局は徹底的なレビューを行い、世界中の市民社会や業界のリーダーからの貴重な意見も取り入れた。議長と執筆者はすべてのフィードバックを検討し、必要に応じて取り入れた。
The report will be presented at the AI Action Summit in Paris in February 2025. An interim version of this report was published in May 2024 and presented at the AI Seoul Summit. この報告書は、2025年2月にパリで開催されるAIアクションサミットで発表される。この報告書の暫定版は2024年5月に発表され、AIソウルサミットで提示された。
Background 背景
At the Bletchley AI Safety Summit, 30 nations agreed to build a shared scientific and evidence-based understanding of frontier AI risks through the development of an international, independent, and inclusive report on the risks and capabilities of frontier AI. The International AI Safety Report delivers on that mandate, providing a comprehensive synthesis of the existing literature on the risks and capabilities of advanced AI models. ブレッチリーAI安全サミットでは、30カ国が、最先端AIのリスクと能力に関する国際的、独立した、包括的な報告書の作成を通じて、最先端AIのリスクに関する科学的かつ証拠に基づく共通理解を構築することに合意した。国際AI安全報告書は、その指令に従い、高度なAIモデルのリスクと能力に関する既存の文献を総合的にまとめた包括的な報告書である。
As host of the AI Safety Summit, the UK commissioned Yoshua Bengio to deliver this report, with operational support from a secretariat hosted by the UK AI Safety Institute. The UK government has agreed with participating countries that it will continue to provide the secretariat for the report until a suitable long-term international home is agreed, and Professor Yoshua Bengio will continue acting as Chair for 2025. AI安全サミットの主催国である英国は、ヨシュア・ベンジオに本報告書の作成を依頼し、英国AI安全研究所が主催する事務局が運営面でサポートした。英国政府は、適切な長期的な国際的拠点が合意されるまで、参加国とともに本報告書の事務局を継続して提供することに同意しており、ヨシュア・ベンジオ教授は2025年まで議長を務める予定である。
The report was developed in-line with the principles and procedures, agreed by the Chair and Expert Advisory Panel. 本報告書は、議長および専門家諮問委員会が合意した原則および手順に沿って作成された。

 

・[PDF] International AI Safety Report 2025

20250202-163710

 

・[DOCX] [PDF] 仮訳 

 

目次...

Forewords  まえがき 
About this report  本報告書について 
Update on latest AI advances after the writing of this report: Chair’s note  本報告書執筆後のAIの最新動向:議長による注釈 
Key findings of the report  本報告書の主な調査結果 
Executive Summary  エグゼクティブサマリー 
Introduction  序文 
1. Capabilities of general-purpose AI  1. 汎用AIの能力 
1.1. How general-purpose AI is developed  1.1. 汎用AIの開発方法 
1.2. Current capabilities  1.2. 現在の能力 
1.3. Capabilities in coming years  1.3. 今後数年の能力 
2. Risks  2. リスク 
2.1. Risks from malicious use  2.1. 悪用によるリスク 
2.1.1. Harm to individuals through fake content  2.1.1. 偽のコンテンツによる個人への被害 
2.1.2. Manipulation of public opinion  2.1.2. 世論操作 
2.1.3. Cyber offence  2.1.3. サイバー犯罪 
2.1.4. Biological and chemical attacks  2.1.4. 生物・化学兵器 
2.2. Risks from malfunctions  2.2. 誤作動によるリスク 
2.2.1. Reliability issues  2.2.1. 信頼性の問題 
2.2.2. Bias  2.2.2. バイアス 
2.2.3. Loss of control  2.2.3. 制御不能 
2.3. Systemic risks  2.3. システムリスク 
2.3.1. Labour market risks  2.3.1. 労働市場のリスク 
2.3.2. Global AI R&D divide  2.3.2. グローバルなAI研究開発格差 
2.3.3. Market concentration and single points of failure  2.3.3. 市場の集中と単一障害点 
2.3.4. Risks to the environment  2.3.4. 環境へのリスク 
2.3.5. Risks to privacy  2.3.5. プライバシーへのリスク 
2.3.6. Risks of copyright infringement  2.3.6. 著作権侵害のリスク 
2.4. Impact of open-weight general-purpose AI models on AI risks  2.4. オープンウェイト汎用AIモデルがAIリスクに与える影響 
3. Technical approaches to risk management  3. リスクマネジメントへの技術的アプローチ 
3.1. Risk management overview  3.1. リスクマネジメントの概要 
3.2. General challenges for risk management and policymaking  3.2. リスクマネジメントと政策立案における一般的な課題 
3.2.1. Technical challenges for risk management and policymaking  3.2.1. リスクマネジメントと政策立案における技術的課題 
3.2.2. Societal challenges for risk management and policymaking  3.2.2. リスクマネジメントと政策立案における社会的な課題 
3.3. Risk identification and assessment  3.3. リスクの特定とアセスメント 
3.4. Risk mitigation and monitoring  3.4. リスクの緩和とモニタリング 
3.4.1. Training more trustworthy models  3.4.1. より信頼性の高いモデルのトレーニング 
3.4.2. Monitoring and intervention  3.4.2. モニタリングと介入 
3.4.3. Technical methods for privacy  3.4.3. プライバシーに関する技術的手法 
Conclusion  結論 
List of acronyms  略語一覧 
Glossary  用語集 
How to cite this report  この報告書の引用方法 
References  参考文献 

 

 

主な調査結果

Key findings of the report  主な調査結果 
● The capabilities of general-purpose AI, the type of AI that this report focuses on, have increased rapidly in recent years and have improved further in recent months.[1] A few years ago, the best large language models (LLMs) could rarely produce a coherent paragraph of text. Today, general-purpose AI can write computer programs, generate custom photorealistic images, and engage in extended open-ended conversations. Since the publication of the Interim Report (May 2024), new models have shown markedly better performance at tests of scientific reasoning and programming.  ● 本報告書が注目するAIの種類である汎用AIの能力は、近年急速に向上しており、ここ数カ月でさらに改善されている。[1]数年前までは、どんなに優れた大規模言語モデル(LLM)でも、まとまった段落の文章を作成することはほとんどできなかった。今日、生成的AIはコンピュータ・プログラムを作成し、カスタムメイドの写実的画像を生成し、長時間のオープンエンドな会話をすることができる。中間報告書の発表(2024年5月)以来、新しいモデルは科学的推論とプログラミングのテストにおいて著しく優れた性能を示している。 
● Many companies are now investing in the development of general-purpose AI agents, as a potential direction for further advancement. AI agents are general-purpose AI systems which can autonomously act, plan, and delegate to achieve goals with little to no human oversight. Sophisticated AI agents would be able to, for example, use computers to complete longer projects than current systems, unlocking both additional benefits and additional risks.  ● 多くの企業は現在、さらなる進歩の可能性のある方向として、汎用AIエージェントの開発に投資している。AIエージェントは、自律的に行動し、計画を立て、人間の監視をほとんど受けずに目標を達成するために委任することができる汎用AIシステムである。洗練されたAIエージェントは、例えば、現在のシステムよりも長いプロジェクトを完了するためにコンピュータを使用することができるようになり、新たな利点と新たなリスクの両方を解き放つだろう。 
● Further capability advancements in the coming months and years could be anything from slow to extremely rapid.† Progress will depend on whether companies will be able to rapidly deploy even more data and computational power to train new models, and whether ‘scaling’ models in this way will overcome their current limitations. Recent research suggests that rapidly scaling up models may remain physically feasible for at least several years. But major capability advances may also require other factors: for example, new research breakthroughs, which are hard to predict, or the success of a novel scaling approach that companies have recently adopted.  ● 今後数カ月から数年の間に、さらなる能力の進歩は、ゆっくりとしたものから極めて急速なものまで、あらゆる可能性がある† 進歩は、企業が新しいモデルを訓練するために、さらに多くのデータと計算能力を迅速に展開できるかどうか、また、このようにしてモデルを「スケーリング」することで、現在の限界を克服できるかどうかにかかっている。最近の研究によると、モデルを急速にスケールアップすることは、少なくとも数年間は物理的に可能である。しかし、大きな能力の進歩には、他の要因も必要かもしれない。例えば、予測するのが難しい新たな研究のブレークスルーや、企業が最近採用した斬新なスケーリング・アプローチの成功などである。 
● Several harms from general-purpose AI are already well established. These include scams, non-consensual intimate imagery (NCII) and child sexual abuse material (CSAM), model outputs that are biased against certain groups of people or certain opinions, reliability issues, and privacy violations. Researchers have developed mitigation techniques for these problems, but so far no combination of techniques can fully resolve them. Since the publication of the Interim Report, new evidence of discrimination related to general-purpose AI systems has revealed more subtle forms of bias.  ● 汎用AIによるいくつかの弊害は、すでに十分に確立されている。詐欺、非同意的親密画像(NCII)や児童性的虐待資料(CSAM)、特定のグループや特定の意見にバイアスされたモデル出力、信頼性の問題、プライバシー侵害などである。研究者たちはこれらの問題を緩和する技術を開発してきたが、今のところ、どの技術を組み合わせても完全に解決することはできない。中間報告書の発表以降、汎用AIシステムに関連する識別的な新たな証拠が、より微妙な形のバイアスを明らかにしている。 
● As general-purpose AI becomes more capable, evidence of additional risks is gradually emerging. These include risks such as large-scale labour market impacts, AI-enabled hacking or biological attacks, and society losing control over general-purpose AI. Experts interpret the existing evidence on these risks differently: some think that such risks are decades away, while others think that general-purpose AI could lead to societal-scale harm within the next few years. Recent advances in general-purpose AI capabilities – particularly in tests of scientific reasoning and programming – have generated new evidence for potential risks such as AI-enabled hacking and biological attacks, leading one major AI company to increase its assessment of biological risk from its best model from ‘low’ to ‘medium’.  ● 汎用AIの能力が高まるにつれて、新たなリスクを示す証拠が徐々に明らかになってきている。これには、大規模な労働市場への影響、AIを利用したハッキングや生物学的攻撃、社会が汎用AIを制御できなくなるといったリスクが含まれる。専門家の間では、こうしたリスクに関する既存の証拠の解釈が異なっており、そうしたリスクは数十年先のことだと考える人もいれば、汎用AIが今後数年以内に社会規模の被害をもたらす可能性があると考える人もいる。汎用AIの能力、特に科学的推論やプログラミングのテストにおける最近の進歩は、AIを利用したハッキングや生物学的攻撃といった潜在的リスクに関する新たな証拠を生み出し、ある大手AI企業は、最良のモデルによる生物学的リスクの評価を「低」から「中」に引き上げるに至った。 
● Risk management techniques are nascent, but progress is possible. There are various technical methods to assess and reduce risks from general-purpose AI that developers can employ and regulators can require, but they all have limitations. For example, current interpretability techniques for explaining why a general-purpose AI model produced any given output remain severely limited. However, researchers are making some progress in addressing these limitations. In addition, researchers and policymakers are increasingly trying to standardise risk management approaches, and to coordinate internationally.  ● リスクマネジメント技術は発展途上だが、進歩は可能だ。汎用AIがもたらすリスクをアセスメントし、低減するための技術的手法には、開発者が採用し、規制当局が求めることができる様々なものがあるが、いずれも限界がある。例えば、汎用AIモデルがどのような出力を生成したかを説明するための現在の解釈可能性技術は、依然として大きく制限されている。しかし、研究者たちはこれらの限界に対処するために、ある程度の進歩を遂げつつある。さらに、研究者や政策立案者は、リスクマネジメントのアプローチを標準化し、国際的な協調を図ろうとしている。 
● The pace and unpredictability of advancements in general-purpose AI pose an ‘evidence dilemma’ for policymakers.[2] Given sometimes rapid and unexpected advancements, policymakers will often have to weigh potential benefits and risks of imminent AI advancements without having a large body of scientific evidence available. In doing so, they face a dilemma. On the one hand, pre-emptive risk mitigation measures based on limited evidence might turn out to be ineffective or unnecessary. On the other hand, waiting for stronger evidence of impending risk could leave society unprepared or even make mitigation impossible – for instance if sudden leaps in AI capabilities, and their associated risks, occur. Companies and governments are developing early warning systems and risk management frameworks that may reduce this dilemma. Some of these trigger specific mitigation measures when there is new evidence of risks, while others require developers to provide evidence of safety before releasing a new model.  ● 汎用AIの進歩のペースと予測不可能性は、政策立案者に「証拠のジレンマ」をもたらす。[2]時として急速で予期せぬ進歩を遂げるため、政策立案者は、科学的根拠が十分でないまま、目前に迫ったAIの進歩がもたらす潜在的な利益とリスクを秤にかけなければならないことが多い。その際、政策立案者はジレンマに直面する。一方では、限られた証拠に基づく先制的なリスク緩和策は、効果がない、あるいは不要であることが判明するかもしれない。他方で、差し迫ったリスクについてより強力な証拠を待つことは、社会に備えを怠らせたり、緩和を不可能にする可能性さえある。企業やガバナンス政府は、このジレンマを軽減する可能性のある早期警告システムやリスクマネジメントの枠組みを開発している。これらの中には、 、リスクに関する新たな証拠が発見された場合に特定の緩和措置を発動するものもあれば、新モデルをリリースする前に安全性の証拠を提供するよう開発者に求めるものもある。 
● There is broad consensus among researchers that advances regarding the following questions would be helpful: How rapidly will general-purpose AI capabilities advance in the coming years, and how can researchers reliably measure that progress? What are sensible risk thresholds to trigger mitigations? How can policymakers best gain access to information about general-purpose AI that is relevant to public safety? How can researchers, technology companies, and governments reliably assess the risks of general-purpose AI development and deployment? How do general-purpose AI models work internally? How can general-purpose AI be designed to behave reliably?  ● 研究者の間では、以下のような疑問に関する進歩が有用であるという点で幅広いコンセンサスが得られている:今後数年間で、汎用AIの能力はどの程度急速に進歩するのか、また研究者はどのようにしてその進歩を確実に測定できるのか。緩和のきっかけとなるリスクのしきい値はどの程度か?政策立案者は、公共の安全に関連する汎用AIに関する情報に、どのようにアクセスすればよいのか?研究者、テクノロジー企業、政府は、汎用AIの開発・展開のリスクをどのように確実にアセスメントできるのか?汎用AIのモデルは内部でどのように機能するのか?汎用AIが確実に動作するように設計するにはどうすればよいか? 
● AI does not happen to us: choices made by people determine its future. The future of general-purpose AI technology is uncertain, with a wide range of trajectories appearing to be possible even in the near future, including both very positive and very negative outcomes. This uncertainty can evoke fatalism and make AI appear as something that happens to us. But it will be the decisions of societies and governments on how to navigate this uncertainty that determine which path we will take. This report aims to facilitate constructive and evidence-based discussion about these decisions. ● AIは私たちに起こるものではない。人々の選択がその未来を決めるのだ。汎用AI技術の未来は不確実であり、非常にポジティブな結果も非常にネガティブな結果も含め、近い将来でさえ幅広い軌道が可能であるように見える。この不確実性は宿命論を呼び起こし、AIを私たちに起こることのように見せる可能性がある。しかし、この不確実性をどのように乗り切るかについての社会や政府の決断こそが、われわれがどのような道を歩むかを決めるのである。本報告書は、こうした意思決定について、建設的で証拠に基づいた議論を促進することを目的としている。

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブサマリー 
The purpose of this report  本報告書の目的 
This report synthesises the state of scientific understanding of general-purpose AI – AI that can perform a wide variety of tasks – with a focus on understanding and managing its risks.  本報告書は、汎用AI(さまざまなタスクを実行できるAI)の科学的理解の現状を、そのリスクの理解とマネジメントに焦点を当てながらまとめたものである。 
This report summarises the scientific evidence on the safety of general-purpose AI. The purpose of this report is to help create a shared international understanding of risks from advanced AI and how they can be mitigated. To achieve this, this report focuses on general-purpose AI – or AI that can perform a wide variety of tasks – since this type of AI has advanced particularly rapidly in recent years and has been deployed widely by technology companies for a range of consumer and business purposes. The report synthesises the state of scientific understanding of general-purpose AI, with a focus on understanding and managing its risks.  本報告書は、汎用AIの安全性に関する科学的根拠をまとめたものである。本報告書の目的は、高度なAIがもたらすリスクとその緩和方法について、国際的な共通理解を得ることにある。そのために本報告書では、汎用AI、つまり多種多様なタスクを実行できるAIに焦点を当てている。なぜなら、この種のAIは近年特に急速に進歩しており、テクノロジー企業によって消費者やビジネスのさまざまな目的で広く展開されているからである。本報告書は、汎用AIの科学的理解の現状を、そのリスクの理解とマネジメントに焦点を当てて総括している。 
Amid rapid advancements, research on general-purpose AI is currently in a time of scientific discovery, and – in many cases – is not yet settled science. The report provides a snapshot of the current scientific understanding of general-purpose AI and its risks. This includes identifying areas of scientific consensus and areas where there are different views or gaps in the current scientific understanding.  急速な進歩の中で、汎用AIの研究は現在、科学的発見の時期にあり、多くの場合、まだ科学として確立していない。本報告書は、汎用AIとそのリスクに関する現在の科学的理解のスナップショットを提供する。これには、科学的コンセンサスのある分野と、現在の科学的理解に異なる見解やギャップがある分野の特定も含まれる。 
People around the world will only be able to fully enjoy the potential benefits of general-purpose AI safely if its risks are appropriately managed. This report focuses on identifying those risks and evaluating technical methods for assessing and mitigating them, including ways that general-purpose AI itself can be used to mitigate risks. It does not aim to comprehensively assess all possible societal impacts of general-purpose AI. Most notably, the current and potential future benefits of general-purpose AI – although they are vast – are beyond this report’s scope. Holistic policymaking requires considering both the potential benefits of general-purpose AI and the risks covered in this report. It also requires taking into account that other types of AI have different risk/benefit profiles compared to current general-purpose AI.  汎用AIのリスクが適切にマネジメントされて初めて、世界中の人々が汎用AIの潜在的な恩恵を安全に十分に享受できるようになる。本報告書は、汎用AIそのものがリスクを緩和するために利用できる方法を含め、そうしたリスクを特定し、それをアセスメントし緩和するための技術的手法を評価することに焦点を当てている。汎用AIの社会的影響の可能性をすべて包括的に評価することを目的としているわけではない。最も注目すべきは、汎用AIの現在および将来の潜在的な利益は、膨大なものではあるが、本報告書の範囲を超えていることである。総合的な政策立案には、汎用AIの潜在的なメリットと、本報告書で取り上げたリスクの両方を考慮する必要がある。また、他の種類のAIは、現在の汎用AIとは異なるリスク/ベネフィット・プロファイルを持つことも考慮する必要がある。 
The three main sections of the report summarise the scientific evidence on three core questions: What can general-purpose AI do? What are risks associated with general-purpose AI? And what mitigation techniques are there against these risks?  報告書の3つの主要セクションは、3つの核となる疑問に関する科学的証拠を要約している:汎用AIは何ができるのか? 汎用AIにはどのようなリスクがあるのか?そして、これらのリスクに対してどのような緩和技術があるのか? 
Section 1 – Capabilities of general-purpose AI: What can general-purpose AI do now and in the future?  第1節 汎用AIの能力:汎用AIは現在、そして将来何ができるのか? 
General purpose AI capabilities have improved rapidly in recent years, and further advancements could be anything from slow to extremely rapid. 
一般的な-目的別AIの能力は近年急速に向上しており、今後の改善はゆっくりとしたものから極めて急速なものまである。 
What AI can do is a key contributor to many of the risks it poses, and according to many metrics, general-purpose AI capabilities have been progressing rapidly. Five years ago, the leading general-purpose AI language models could rarely produce a coherent paragraph of text. Today, some general-purpose AI models can engage in conversations on a wide range of topics, write computer programs, or generate realistic short videos from a description. However, it is technically challenging to reliably estimate and describe the capabilities of general-purpose AI.  AIに何ができるかは、AIがもたらすリスクの多くに重要な寄与をしており、多くの指標によれば、汎用AIの能力は急速に進歩している。5年前、主要な汎用AI言語モデルは、まとまった段落の文章をほとんど作成できなかった。今日、いくつかの汎用AIモデルは、幅広いトピックについて会話したり、コンピューター・プログラムを書いたり、説明からリアルな短い動画を生成したりすることができる。しかし、汎用AIの能力を確実に推定し、説明することは技術的に困難である。 
AI developers have rapidly improved the capabilities of general-purpose AI in recent years, mostly through ‘scaling’.[1] They have continually increased the resources used for training new models (this is often referred to as ‘scaling’) and refined existing approaches to use those resources more efficiently. For example, according to recent estimates, state-of-the-art AI models have seen annual increases of approximately 4x in computational resources ('compute') used for training and 2.5x in training dataset size.  AI開発者は近年、汎用AIの能力を急速に改善してきたが、そのほとんどは「スケーリング」によるものだ。[1]新しいモデルの学習に使用するリソースを継続的に増やし(これはしばしば「スケーリング」と呼ばれる)、それらのリソースをより効率的に使用するために既存のアプローチを改良してきた。例えば、最近の推定によると、最先端のAIモデルは、学習に使用される計算リソース(「コンピュート」)が年間約4倍、学習データセットサイズが2.5倍増加している。 
The pace of future progress in general-purpose AI capabilities has substantial implications for managing emerging risks, but experts disagree on what to expect even in the coming months and years. Experts variously support the possibility of general-purpose AI capabilities advancing slowly, rapidly, or extremely rapidly.  汎用AI能力の将来的な進歩のペースは、新たなリスクのマネジメントに大きな意味を持つが、今後数カ月から数年の間にも何が予想されるかについては、専門家の間でも意見が分かれている。専門家は、汎用AIの能力がゆっくりと、急速に、あるいは極めて急速に進歩する可能性を様々に支持している。 
Experts disagree about the pace of future progress because of different views on the promise of further ‘scaling’ – and companies are exploring an additional, new type of scaling that might further accelerate capabilities. While scaling has often overcome the limitations of previous systems, experts disagree about its potential to resolve the remaining limitations of today’s systems, such as unreliability at acting in the physical world and at executing extended tasks on computers. In recent months, a new type of scaling has shown potential for further improving capabilities: rather than just scaling up the resources used for training models, AI companies are also increasingly interested in ‘inference scaling’ – letting an already trained model use more computation to solve a given problem, for example to improve on its own solution, or to write so-called ‘chains of thought’ that break down the problem into simpler steps.  専門家の間では、さらなる「スケーリング」の有望性に対する見解の相違から、将来の進歩のペースについて意見が分かれており、企業は能力をさらに加速させる可能性のある、追加の新しいタイプのスケーリングを模索している(†)。スケーリングはしばしば以前のシステムの限界を克服してきたが、専門家の間では、物理的な世界で行動する際の信頼性の低さや、コンピュータ上で長時間のタスクを実行する際の信頼性の低さなど、今日のシステムに残っている限界を解決する可能性については意見が分かれている。ここ数カ月、新しいタイプのスケーリングが能力をさらに向上させる可能性を示している。AI企業は、モデルの学習に使用するリソースを単にスケールアップするだけでなく、「推論スケーリング」にもますます関心を寄せている。これは、すでに学習されたモデルに、与えられた問題を解くためにより多くの計算を使用させるもので、例えば、自身の解法を改善したり、問題をより単純なステップに分解するいわゆる「思考の連鎖」を記述したりすることができる。 
Several leading companies that develop general-purpose AI are betting on ‘scaling’ to continue leading to performance improvements. If recent trends continue, by the end of 2026 some general-purpose AI models will be trained using roughly 100x more training compute than 2023's most compute-intensive models, growing to 10,000x more training compute by 2030, combined with algorithms that achieve greater capabilities for a given amount of available computation. In addition to this potential scaling of training resources, recent trends such as inference scaling and using models to generate training data could mean that even more compute will be used overall. However, there are potential bottlenecks to further increasing both data and compute rapidly, such as the availability of data, AI chips, capital, and local energy capacity. Companies developing general-purpose AI are working to navigate these potential bottlenecks.  汎用AIを開発するいくつかの大手企業は、「スケーリング」が性能改善につながり続けることに賭けている。最近のトレンドが続けば、2026年末までに、汎用AIモデルのいくつかは、2023年の最も計算負荷の高いモデルよりもおよそ100倍多い学習用計算量を使用して学習され、2030年までに10,000倍多い学習用計算量を使用するようになり、利用可能な計算量が与えられた場合に、より高い能力を達成するアルゴリズムと組み合わされる。このようなトレーニングリソースのスケーリングの可能性に加え、推論のスケーリングやトレーニングデータを生成するためにモデルを使用するなどの最近のトレンドは、全体としてさらに多くの計算機が使用されることを意味する可能性がある。しかし、データ、AIチップ、資本、地域のエネルギー容量の利用可能性など、データと計算の両方をさらに急速に増加させるには、潜在的なボトルネックがある。汎用AIを開発している企業は、これらの潜在的なボトルネックを回避するために取り組んでいる。 
Since the publication of the Interim Report (May 2024), general-purpose AI has reached expert-level performance in some tests and competitions for scientific reasoning and programming, and companies have been making large efforts to develop autonomous AI agents. Advances in science and programming have been driven by inference scaling techniques such as writing long ‘chains of thought’. New studies suggest that further scaling such approaches, for instance allowing models to analyse problems by writing even longer chains of thought than today’s models, could lead to further advances in domains where reasoning matters more, such as science, software engineering, and planning. In addition to this trend, companies are making large efforts to develop more advanced general-purpose AI agents, which can plan and act autonomously to work towards a given goal. Finally, the market price of using general-purpose AI of a given capability level has dropped sharply, making this technology more broadly accessible and widely used.  中間報告発表(2024年5月)以降、汎用AIは科学的推論やプログラミングに関するいくつかのテストやコンテストでエキスパートレベルの性能に達し、企業は自律型AIエージェントの開発に大きく力を入れている。科学とプログラミングの進歩は、長い「思考の連鎖」を書くなどの推論スケーリング技術によって推進されてきた。新たな研究は、このようなアプローチのスケーリングをさらに進め、例えば、 、現在のモデルよりもさらに長い思考の連鎖を書くことによって問題を分析できるようにすれば、科学、ソフトウェア工学、プランニングなど、推論がより重要な領域でさらなる進歩が期待できることを示唆している。このトレンドに加え、企業は、より高度な汎用AIエージェントの開発に大きな努力を払っている。このエージェントは、与えられた目標に向かって自律的に計画を立て、行動することができる。最終的に、ある能力レベルの汎用AIを使用する市場価格は急激に低下し、この技術がより広く利用できるようになり、広く利用されるようになった。 
This report focuses primarily on technical aspects of AI progress, but how fast general-purpose AI will advance is not a purely technical question. The pace of future advancements will also depend on non-technical factors, potentially including the approaches that governments take to regulating AI. This report does not discuss how different approaches to regulation might affect the speed of development and adoption of general-purpose AI.  本報告書は主にAIの進歩の技術的側面に焦点を当てているが、汎用AIの進歩の速度は純粋に技術的な問題ではない。将来の進歩のペースは、非技術的な要因にも左右され、政府がAIを規制する際のアプローチも含まれる可能性がある。本報告書では、規制に対するアプローチの違いが、汎用AIの開発・普及のスピードにどのような影響を与えるかについては論じていない。 
Section 2 – Risks: What are risks associated with general-purpose AI?  第2節 リスク:汎用AIに伴うリスクとは何か? 
Several harms from general-purpose AI are already well-established. As general-purpose AI becomes more capable, evidence of additional risks is gradually emerging.  汎用AIによるいくつかの弊害はすでに確立されている。汎用AIの能力が高まるにつれて、新たなリスクの証拠が徐々に明らかになってきている。 
This report classifies general-purpose AI risks into three categories: malicious use risks; risks from malfunctions; and systemic risks. Each of these categories contains risks that have already materialised as well as risks that might materialise in the next few years.  本報告書では、汎用AIのリスクを「悪意のある利用リスク」「誤作動によるリスク」「システムリスク」の3カテゴリーに分類している。これらのカテゴリーにはそれぞれ、すでに顕在化しているリスクと、今後数年間に顕在化する可能性のあるリスクが含まれている。 
Risks from malicious use: malicious actors can use general-purpose AI to cause harm to individuals, organisations, or society. Forms of malicious use include:  意のある利用によるリスク:悪意のある行為者は、汎用AIを利用して個人、組織、社会に危害を加える可能性がある。悪意のある利用の形態には以下のようなものがある: 
Harm to individuals through fake content: Malicious actors can currently use general-purpose AI to generate fake content that harms individuals in a targeted way. These malicious uses include non-consensual 'deepfake' pornography and AI-generated CSAM, financial fraud through voice impersonation, blackmail for extortion, sabotage of personal and professional reputations, and psychological abuse. However, while incident reports of harm from AI-generated fake content are common, reliable statistics on the frequency of these incidents are still lacking.  偽コンテンツによる個人への被害:悪意ある行為者は現在、生成的AIを利用して、個人を標的に害する偽コンテンツを生成することができる。このような悪意のある利用には、非合意の「ディープフェイク」ポルノやAIが生成したCSAM、音声なりすましによる金銭詐欺、恐喝のための恐喝、個人的・職業的評判の妨害、心理的虐待などが含まれる。しかし、AIが生成的な偽コンテンツによる被害のインシデント報告はよくあるものの、こうしたインシデントの頻度に関する信頼できる統計はまだ不足している。 
● Manipulation of public opinion: General-purpose AI makes it easier to generate persuasive content at scale. This can help actors who seek to manipulate public opinion, for instance to affect political outcomes. However, evidence on how prevalent and how effective such efforts are remains limited. Technical countermeasures like content watermarking, although useful, can usually be circumvented by moderately sophisticated actors.  ● 世論を操作する:生成的AIによって、説得力のあるコンテンツを大規模に生成することが容易になる。これは、例えば政治的な結果に影響を与えるために世論を操作しようとする行為者を助けることができる。しかし、そのような取り組みがどれほど普及し、どれほど効果的であるかについての証拠はまだ限られている。コンテンツの電子透かしのような技術的な対策は、有用ではあるが、中程度に洗練された行為者であれば通常回避することができる。 
● Cyber offence: General-purpose AI can make it easier or faster for malicious actors of varying skill levels to conduct cyberattacks. Current systems have demonstrated capabilities in low- and medium-complexity cybersecurity tasks, and state-sponsored actors are actively exploring AI to survey target systems. New research has confirmed that the capabilities of general-purpose AI related to cyber offence are significantly advancing, but it remains unclear whether this will affect the balance between attackers and defenders.  ● サイバー攻撃汎用AIは、さまざまなスキルレベルの悪意ある行為者がサイバー攻撃を行うことを容易に、あるいは迅速にすることができる。現在のシステムは、低・中複雑度のサイバーセキュリティ・タスクで能力を発揮しており、国家的支援を受けた行為者は、標的システムを調査するためのAIを積極的に模索している。新たな研究では、サイバー攻撃に関する汎用AIの能力が著しく進歩していることが確認されているが、これが攻撃側と防御側のバランスに影響を与えるかどうかはまだ不明である。 
● Biological and chemical attacks: Recent general-purpose AI systems have displayed some ability to provide instructions and troubleshooting guidance for reproducing known biological and chemical weapons and to facilitate the design of novel toxic compounds. In new experiments that tested for the ability to generate plans for producing biological weapons, a general-purpose AI system sometimes performed better than human experts with access to the internet. In response, one AI company increased its assessment of biological risk from its best model from ‘low’ to ‘medium’. However, real-world attempts to develop such weapons still require substantial additional resources and expertise. A comprehensive assessment of biological and chemical risk is difficult because much of the relevant research is classified.  ● 生物・化学兵器による攻撃最近の汎用AIシステムは、既知の生物・化学兵器を再現するための指示やトラブルシューティングのガイダンスを提供したり、新規毒性化合物の設計を容易にしたりする能力をある程度示している。生物兵器を製造するための計画を生成する能力をテストした新しい実験では、生成的AIシステムが、インターネットにアクセスできる人間の専門家よりも優れた結果を出すこともあった。これを受けて、あるAI企業は、最良のモデルによる生物学的リスクのアセスメントを「低」から「中」に引き上げた。しかし、このような兵器を現実の世界で開発しようとする試みには、まだかなりの追加資源と専門知識が必要である。生物学的・化学的リスクの包括的アセスメントは、関連研究の多くが機密扱いであるため困難である。 
Since the publication of the Interim Report, general-purpose AI has become more capable in domains that are relevant for malicious use. For example, researchers have recently built general-purpose AI systems that were able to find and exploit some cybersecurity vulnerabilities on their own and, with human assistance, discover a previously unknown vulnerability in widely used software. General-purpose AI capabilities related to reasoning and to integrating different types of data, which can aid research on pathogens or in other dual-use fields, have also improved.  中間報告書の発表以来、汎用AIは悪意のある利用に関連する領域でより高い能力を発揮するようになっている。例えば、研究者たちは最近、サイバーセキュリティの脆弱性を自ら発見して悪用することができる汎用AIシステムを構築し、また、人間の支援を得て、広く使われているソフトウェアのこれまで知られていなかった脆弱性を発見した。推論や、病原体やその他の二次利用分野の研究を助けることができる、さまざまな種類のデータの統合に関連する汎用AIの能力も改善されている。 
Risks from malfunctions: general-purpose AI can also cause unintended harm. Even when users have no intention to cause harm, serious risks can arise due to the malfunctioning of general-purpose AI. Such malfunctions include:  誤作動によるリスク:汎用AIは意図しない危害をもたらすこともある。ユーザーに危害を加える意図がない場合でも、汎用AIの誤作動によって深刻なリスクが生じる可能性がある。そのような誤作動には以下のようなものがある: 
● Reliability issues: Current general-purpose AI can be unreliable, which can lead to harm. For example, if users consult a general-purpose AI system for medical or legal advice, the system might generate an answer that contains falsehoods. Users are often not aware of the limitations of an AI product, for example due to limited ‘AI literacy’, misleading advertising, or miscommunication. There are a number of known cases of harm from reliability issues, but still limited evidence on exactly how widespread different forms of this problem are.  ● 信頼性の問題:現在の汎用AIは信頼性が低く、それが弊害につながる可能性がある。例えば、ユーザーが医療や法律に関する助言を求めて汎用AIシステムに相談した場合、システムが虚偽を含む回答を生成する可能性がある。例えば、「AIリテラシー」の低さ、誤解を招くような広告、誤ったコミュニケーションなどが原因で、ユーザーはAI製品の限界を認識していないことが多い。信頼性の問題による危害の事例は数多く知られているが、この問題のさまざまな形態がどの程度広まっているかについては、正確な証拠はまだ限られている。 
● Bias: General-purpose AI systems can amplify social and political biases, causing concrete harm. They frequently display biases with respect to race, gender, culture, age, disability, political opinion, or other aspects of human identity. This can lead to discriminatory outcomes including unequal resource allocation, reinforcement of stereotypes, and systematic neglect of underrepresented groups or viewpoints. Technical approaches for mitigating bias and discrimination in general-purpose AI systems are advancing, but face trade-offs between bias mitigation and competing objectives such as accuracy and privacy, as well as other challenges.  ● バイアス:汎用AIシステムは、社会的・政治的バイアスを増幅し、具体的な害をもたらす可能性がある。AIシステムは、人種、性別、文化、年齢、障害、政治的意見、あるいは人間のアイデンティティの他の側面に関してバイアスを示すことが多い。これは、不平等な資源配分、固定観念の強化、代表的でないグループや視点の組織的無視など、差別的な結果につながる可能性がある。汎用AIシステムにおけるバイアスと差別を緩和する技術的アプローチは進歩しているが、バイアスの緩和と、精度やプライバシーなど競合する目的との間のトレードオフや、その他の課題に直面している。 
● Loss of control: ‘Loss of control’ scenarios are hypothetical future scenarios in which one or more general-purpose AI systems come to operate outside of anyone's control, with no clear path to regaining control. There is broad consensus that current general-purpose AI lacks the capabilities to pose this risk. However, expert opinion on the likelihood of loss of control within the next several years varies greatly: some consider it implausible, some consider it likely to occur, and some see it as a modest-likelihood risk that warrants attention due to its high potential severity. Ongoing empirical and mathematical research is gradually advancing these debates.  ● 制御の喪失:「制御の喪失」シナリオとは、1つまたは複数の全般統制AIシステムが、誰の制御も及ばず、制御を取り戻す明確な道筋もないまま動作するようになる仮想的な未来シナリオである。現在の汎用AIには、このようなリスクを引き起こす能力がないことは広くコンセンサスが得られている。しかし、今後数年以内に制御不能になる可能性に関する専門家の意見は大きく異なる。ある者はあり得ないと考え、ある者は発生する可能性が高いと考え、またある者は潜在的な重大性が高いため注意を要する中程度の可能性のリスクと見ている。現在進行中の実証的・数学的研究が、こうした議論を徐々に進展させている。 
Since the publication of the Interim Report, new research has led to some new insights about risks of bias and loss of control. The evidence of bias in general-purpose AI systems has increased, and recent work has detected additional forms of AI bias. Researchers have observed modest further advancements towards AI capabilities that are likely necessary for commonly discussed loss of control scenarios to occur. These include capabilities for autonomously using computers, programming, gaining unauthorised access to digital systems, and identifying ways to evade human oversight.  中間報告書の発表以来、新たな研究により、バイアスと制御不能のリスクに関する新たな洞察がいくつか得られている。汎用AIシステムにおけるバイアスの証拠が増加し、最近の研究では、新たな形態のAIバイアスが検知された。研究者たちは、一般的に議論されている制御不能のシナリオが発生するために必要と思われるAIの能力について、さらに緩やかな進歩を観察している。これには、コンピュータを自律的に使用する能力、プログラミング能力、デジタルシステムへの不正アクセス能力、人間の監視を逃れる方法の特定能力などが含まれる。 
Systemic risks: beyond the risks directly posed by capabilities of individual models, widespread deployment of general-purpose AI is associated with several broader systemic risks. Examples of systemic risks range from potential labour market impacts to privacy risks and environmental effects:  システミックリスク:個々のモデルの能力が直接もたらすリスクを超えて、汎用AIの広範な展開は、いくつかのより広範なシステミックリスクと関連している。システミックリスクの例は、潜在的な労働市場への影響からプライバシーリスクや環境への影響まで多岐にわたる: 
● Labour market risks: General-purpose AI, especially if it continues to advance rapidly, has the potential to automate a very wide range of tasks, which could have a significant effect on the labour market. This means that many people could lose their current jobs. However, many economists expect that potential job losses could be offset, partly or potentially even completely, by the creation of new jobs and by increased demand in non-automated sectors.  ● 労働市場のリスク:汎用AIは、特にそれが急速に進歩し続ければ、非常に幅広い作業を自動化する可能性を秘めており、労働市場に大きな影響を与える可能性がある。つまり、多くの人々が現在の職を失う可能性がある。しかし、多くのエコノミストは、潜在的な雇用損失は、新たな雇用の創出や非自動化分野での需要増加によって、部分的に、あるいは潜在的に完全に相殺される可能性があると予想している。 
● Global AI R&D divide: General-purpose AI research and development (R&D) is currently concentrated in a few Western countries and China. This ‘AI divide’ has the potential to increase much of the world’s dependence on this small set of countries. Some experts also expect it to contribute to global inequality. The divide has many causes, including a number of causes that are not unique to AI. However, in significant part it stems from differing levels of access to the very expensive compute needed to develop general-purpose AI: most low- and middle-income countries (LMICs) have significantly less access to compute than high-income countries (HICs).  グローバルなAI研究開発格差:汎用AIの研究開発(R&D)は現在、少数の欧米諸国と中国に集中している。この「AI格差」は、世界の多くの国々がこの少数の国々への依存度を高める可能性がある。一部の専門家は、これが世界的な不平等に寄与する可能性もあると予測している。この格差には多くの原因があり、AIに特有ではない原因もいくつかある。しかし、その大きな要因は、汎用AIの開発に必要な非常に高価なコンピューティングへのアクセスレベルの違いから生じている。ほとんどの低・中所得国(LMIC)は、高所得国(HIC)よりもコンピューティングへのアクセスが大幅に少ない。
● Market concentration and single points of failure: A small number of companies currently dominate the market for general-purpose AI. This market concentration could make societies more vulnerable to several systemic risks. For instance, if organisations across critical sectors, such as finance or healthcare, all rely on a small number of general-purpose AI systems, then a bug or vulnerability in such a system could cause simultaneous failures and disruptions on a broad scale.  ● 市場の集中と単一障害点:現在、少数の企業が汎用AIの市場を独占している。このような市場の集中は、社会をいくつかのシステミックリスクに対してより脆弱にする可能性がある。例えば、金融や医療など重要なセクターの組織がすべて少数の汎用AIシステムに依存している場合、そのようなシステムにバグや脆弱性があれば、大規模な障害や混乱を同時に引き起こす可能性がある。 
● Environmental risks: Growing compute use in general-purpose AI development and deployment has rapidly increased the amounts of energy, water, and raw material consumed in building and operating the necessary compute infrastructure. This trend shows no clear indication of slowing, despite progress in techniques that allow compute to be used more efficiently. General-purpose AI also has a number of applications that can either benefit or harm sustainability efforts.  ● 環境リスク:汎用AIの開発・展開におけるコンピュート利用の拡大により、必要なコンピュート・インフラを構築・運用するために消費されるエネルギー、水、原材料の量が急速に増加している。この傾向は、コンピュートのより効率的な利用を可能にする技術の進歩にもかかわらず、減速する明確な兆候は見られない。汎用AIにも、持続可能性への取り組みに有益にも有害にもなりうるアプリケーションが数多くある。 
● Privacy risks: General-purpose AI can cause or contribute to violations of user privacy. For example, sensitive information that was in the training data can leak unintentionally when a user interacts with the system. In addition, when users share sensitive information with the system, this information can also leak. But general-purpose AI can also facilitate deliberate violations of privacy, for example if malicious actors use AI to infer sensitive information about specific individuals from large amounts of data. However, so far, researchers have not found evidence of widespread privacy violations associated with general-purpose AI.  ● プライバシーリスク:汎用AIは、ユーザーのプライバシー侵害を引き起こしたり、助長したりする可能性がある。例えば、学習データに含まれていた機密情報が、ユーザーがシステムと対話する際に意図せず漏れる可能性がある。さらに、ユーザーが機密情報をシステムと共有した場合、その情報も漏れる可能性がある。しかし、汎用AIは意図的なプライバシー侵害を助長する可能性もある。例えば、悪意のある行為者がAIを使って大量のデータから特定の個人に関する機密情報を推測する場合などだ。しかし、これまでのところ、研究者は汎用AIに関連する広範なプライバシー侵害の証拠を発見していない。 
● Copyright infringements: General-purpose AI both learns from and creates works of creative expression, challenging traditional systems of data consent, compensation, and control. Data collection and content generation can implicate a variety of data rights laws, which vary across jurisdictions and may be under active litigation. Given the legal uncertainty around data collection practices, AI companies are sharing less information about the data they use. This opacity makes third-party AI safety research harder.  ● 著作権侵害:汎用AIは創造的表現の作品から学習し、また創造的表現の作品を創作し、データ同意、補償、管理に関する従来の制度に挑戦する。データ収集とコンテンツ生成は、様々なデータ権利法に関わる可能性があり、それらは司法管轄区域によって異なり、訴訟も活発に行われている可能性がある。データ収集慣行をめぐる法的不確実性を考慮すると、AI企業は自社が使用するデータに関する情報をあまり共有しないようになっている。この不透明さが、サードパーティによるAIの安全性研究を難しくしている。 
Since the publication of the Interim Report, additional evidence on the labour market impacts of general-purpose AI has emerged, while new developments have heightened privacy and copyrights concerns. New analyses of labour market data suggest that individuals are adopting general-purpose AI very rapidly relative to previous technologies. The pace of adoption by businesses varies widely by sector. In addition, recent advances in capabilities have led to general-purpose AI being deployed increasingly in sensitive contexts such as healthcare or workplace monitoring, which creates new privacy risks. Finally, as copyright disputes intensify and technical mitigations to copyright infringements remain unreliable, data rights holders have been rapidly restricting access to their data.  中間報告書の発表以降、汎用AIの労働市場への影響に関する新たな証拠が登場する一方で、新たな進展によりプライバシーや著作権に関する懸念が高まっている。労働市場データの新たな分析によれば、個人が汎用AIを採用するスピードは、従来のテクノロジーと比較して非常に速いことが示唆されている。企業による採用のペースは分野によって大きく異なる。加えて、最近の機能の進歩により、ヘルスケアや職場のモニタリングなど、センシティブな場面での汎用AIの展開が増えており、新たなプライバシーリスクが発生している。最後に、著作権紛争が激化し、著作権侵害に対する技術的緩和が依然として信頼できないため、データ権利者はデータへのアクセスを急速に制限している。 
Open-weight models: an important factor in evaluating many risks that a general-purpose AI model might pose is how it is released to the public. So-called ‘open-weight models’ are AI models whose central components, called ‘weights’, are shared publicly for download. Open-weight access facilitates research and innovation, including in AI safety, as well as increasing transparency and making it easier for the research community to detect flaws in models. However, open-weight models can also pose risks, for example by facilitating malicious or misguided use that is difficult or impossible for the developer of the model to monitor or mitigate. Once model weights are available for public download, there is no way to implement a wholesale rollback of all existing copies or ensure that all existing copies receive safety updates. Since the Interim Report, high-level consensus has emerged that risks posed by greater AI openness should be evaluated in terms of ‘marginal’ risk: the extent to which releasing an open-weight model would increase or decrease a given risk, relative to risks posed by existing alternatives such as closed models or other technologies.  オープンウエイトモデル:汎用AIモデルがもたらすであろう多くのリスクを評価する上で重要な要素は、それがどのように一般に公開されているかである。いわゆる「オープンウエイトモデル」とは、「ウエイト」と呼ばれる中心的なコンポーネントがダウンロードできるように公開されているAIモデルのことである。オープンウェイトへのアクセスは、AIの安全性を含む研究とイノベーションを促進し、透明性を高め、研究コミュニティがモデルの欠陥を検出しやすくする。しかし、オープン・ウェイト・モデルは、例えば、モデルの開発者が監視したり緩和したりすることが困難または不可能な悪意ある利用や誤った利用を助長するなどのリスクをもたらす可能性もある。一旦モデルの重みが一般にダウンロードできるようになると、既存の全てのコピーを全面的にロールバックしたり、既存の全てのコピーが安全性の更新を受けることを保証したりする方法はない。中間報告書以降、AIのオープン性を高めることによってもたらされるリスクは、「限界」リスク、すなわち、クローズドモデルや他の技術といった既存の代替案がもたらすリスクと比較して、オープンウエイトモデルを公開することによって所定のリスクがどの程度増減するかという観点から評価されるべきであるというハイレベルなコンセンサスが生まれている。 
Section 3 – Risk management: What techniques are there for managing risks from general-purpose AI?  第3節 リスクマネジメント:汎用AIのリスクマネジメントにはどのような手法があるのか? 
Several technical approaches can help manage risks, but in many cases the best available approaches still have highly significant limitations and no quantitative risk estimation or guarantees that are available in other safety-critical domains.  いくつかの技術的アプローチはリスクマネジメントに役立つが、多くの場合、利用可能な最善のアプローチにはまだ非常に大きな限界があり、他のセーフティ・クリティカルな領域で利用可能な定量的なリスク評価や保証はない。 
Risk management – identifying and assessing risks, and then mitigating and monitoring them – is difficult in the context of general-purpose AI. Although risk management has also been highly challenging in many other domains, there are some features of general-purpose AI that appear to create distinctive difficulties.  リスクの特定とアセスメント、そして緩和とモニタリングといったリスクマネジメントは、汎用AIの文脈では難しい。リスクマネジメントは他の多くの領域でも非常に難しいが、汎用AIには独特の難しさを生み出す特徴がある。 
Several technical features of general-purpose AI make risk management in this domain particularly difficult. They include, among others:  汎用AIのいくつかの技術的特徴が、この分野のリスクマネジメントを特に難しくしている。それらには特に以下のようなものがある: 
● The range of possible uses and use contexts for general-purpose AI systems is unusually broad. For example, the same system may be used to provide medical advice, analyse computer code for vulnerabilities, and generate photos. This increases the difficulty of comprehensively anticipating relevant use cases, identifying risks, or testing how systems will behave in relevant real-world circumstances.  ● 汎用AIシステムの可能な用途と使用コンテクストの範囲は、異常に広い。例えば、同じシステムを医療アドバイスに使ったり、コンピュータコードの脆弱性を分析したり、写真を生成したりすることもできる。このため、関連するユースケースを包括的に予測したり、リスクを特定したり、関連する実世界の状況でシステムがどのように振る舞うかをテストしたりすることが難しくなっている。 
● Developers still understand little about how their general-purpose AI models operate. This lack of understanding makes it more difficult both to predict behavioural issues and to explain and resolve known issues once they are observed. Understanding remains elusive mainly because general-purpose AI models are not programmed in the traditional sense.  ● 開発者たちは、汎用のAIモデルがどのように動作するかについて、まだほとんど理解していない。この理解不足は、行動上の問題を予測することも、既知の問題が観察された後にそれを説明し解決することも難しくしている。主に、汎用AIモデルは伝統的な意味でプログラムされていないため、理解はつかみにくいままだ。 
Instead, they are trained: AI developers set up a training process that involves a large volume of data, and the outcome of that training process is the general-purpose AI model. The inner workings of these models are largely inscrutable, including to the model developers. Model explanation and ‘interpretability’ techniques can improve researchers’ and developers’ understanding of how general-purpose AI models operate, but, despite recent progress, this research remains nascent.  その代わり、AIは訓練される:AI開発者は、大量のデータを含むトレーニングプロセスを設定し、そのトレーニングプロセスの結果が汎用AIモデルである。これらのモデルの内部構造は、モデル開発者を含め、ほとんど不可解である。モデルの説明と「解釈可能性」技術は、汎用AIモデルがどのように動作するかについての研究者や開発者の理解を改善することができるが、最近の進歩にもかかわらず、この研究はまだ始まったばかりである。 
● Increasingly capable AI agents – general-purpose AI systems that can autonomously act, plan, and delegate to achieve goals – will likely present new, significant challenges for risk management. AI agents typically work towards goals autonomously by using general software such as web browsers and programming tools. Currently, most are not yet reliable enough for widespread use, but companies are making large efforts to build more capable and reliable AI agents and have made progress in recent months. AI agents will likely become increasingly useful, but may also exacerbate a number of the risks discussed in this report and introduce additional difficulties for risk management. Examples of such potential new challenges include the possibility that users might not always know what their own AI agents are doing, the potential for AI agents to operate outside of anyone’s control, the potential for attackers to ‘hijack’ agents, and the potential for AI-to-AI interactions to create complex new risks. Approaches for managing risks associated with agents are only beginning to be developed.  ● AIエージェント(目標達成のために自律的に行動し、計画し、委任することができる汎用AIシステム)の能力が向上すれば、リスクマネジメントに新たな重大な課題をもたらす可能性が高い。AIエージェントは通常、ウェブ・ブラウザやプログラミング・ツールなどの一般的なソフトウェアを使用することで、自律的に目標に向かって行動する。現在のところ、そのほとんどはまだ広く使用できるほど信頼できるものではないが、企業はより有能で信頼性の高いAIエージェントを構築するために大きな努力を払っており、ここ数カ月で進歩を遂げている。AIエージェントは今後ますます便利になっていくだろうが、本報告書で取り上げた多くのリスクを悪化させ、リスクマネジメントに新たな困難をもたらす可能性もある。そのような潜在的な新たな課題の例としては、ユーザーが自身のAIエージェントが何をしているのか常に把握しているとは限らない可能性、AIエージェントが誰のコントロールも及ばないところで動作する可能性、攻撃者がエージェントを「ハイジャック」する可能性、AI同士の相互作用が複雑な新たなリスクを生み出す可能性などが挙げられる。エージェントに関連するリスクをマネジメントするアプローチは、まだ開発され始めたばかりである。 
Besides technical factors, several economic, political, and other societal factors make risk management in the field of general-purpose AI particularly difficult.  技術的要因に加え、経済的、政治的、その他の社会的要因も、汎用AIの分野におけるリスクマネジメントをとりわけ難しくしている。 
● The pace of advancement in general-purpose AI creates an 'evidence dilemma' for decision-makers.[2] Rapid capability advancement makes it possible for some risks to emerge in leaps; for example, the risk of academic cheating using general-purpose AI shifted from negligible to widespread within a year. The more quickly a risk emerges, the more difficult it is to manage the risk reactively and the more valuable preparation becomes. However, so long as evidence for a risk remains incomplete, decision-makers also cannot know for sure whether the risk will emerge or perhaps even has already emerged. This creates a trade-off:  ● 汎用AIの進歩の速さは、意思決定者に「証拠のジレンマ」をもたらす。[2]例えば、汎用AIを使った学歴詐称のリスクは、1年以内に無視できるものから広まるものへと変化した。リスクが急速に顕在化すればするほど、そのリスクを反応的にマネジメントすることは難しくなり、準備の価値は高まる。しかし、リスクの証拠が不完全なままである限り、意思決定者はリスクが顕在化するかどうか、あるいはおそらくすでに顕在化しているかどうかさえも確実に知ることはできない。これはトレードオフの関係にある: 
implementing pre-emptive or early mitigation measures might prove unnecessary, but waiting for conclusive evidence could leave society vulnerable to risks that emerge rapidly. Companies and governments are developing early warning systems and risk management frameworks that may reduce this dilemma. Some of these trigger specific mitigation measures when there is new evidence of risks, while others require developers to provide evidence of safety before releasing a new model.  しかし、決定的な証拠を待つことは、急速に顕在化するリスクに対する脆弱性を社会に残すことになりかねない。企業や政府( )は、このジレンマを軽減する可能性のある早期警告システムやリスクマネジメント枠組みを開発している。これらの中には、リスクに関する新たな証拠が発見された場合に特定の緩和措置を発動するものもあれば、新モデルをリリースする前に安全性の証拠を提供するよう開発者に求めるものもある。 
● There is an information gap between what AI companies know about their AI systems and what governments and non-industry researchers know. Companies often share only limited information about their general-purpose AI systems, especially in the period before they are widely released. Companies cite a mixture of commercial concerns and safety concerns as reasons to limit information sharing. However, this information gap also makes it more challenging for other actors to participate effectively in risk management, especially for emerging risks.  ● AI企業が自社のAIシステムについて知っていることと、政府や非産業研究者が知っていることの間には、情報格差がある。企業は汎用AIシステムについて、特に広くリリースされる前の時期には、限られた情報しか共有しないことが多い。企業は、情報共有を制限する理由として、商業的な懸念と安全上の懸念が混在していることを挙げている。しかし、このような情報格差は、他のアクターがリスクマネジメントに効果的に参加すること、特に新たなリスクについて参加することを難しくしている。 
● Both AI companies and governments often face strong competitive pressure, which may lead them to deprioritise risk management. In some circumstances, competitive pressure may incentivise companies to invest less time or other resources into risk management than they otherwise would. Similarly, governments may invest less in policies to support risk management in cases where they perceive trade-offs between international competition and risk reduction.  ● AI企業も政府も、しばしば強い競争圧力に直面し、リスクマネジメントを軽視するようになるかもしれない。状況によっては、競争圧力は、企業がリスクマネジメントに投資する時間やその他のリソースを、そうでない場合よりも少なくする動機付けになるかもしれない。同様に、政府は、国際競争とリスク削減との間にトレードオフがあると認識する場合には、リスクマネジメントを支援する政策への投資を少なくする可能性がある。 
Nonetheless, there are various techniques and frameworks for managing risks from general-purpose AI that companies can employ and regulators can require. These include methods for identifying and assessing risks, as well as methods for mitigating and monitoring them.  とはいえ、汎用AIによるリスクマネジメントには、企業が採用し、規制当局が求めることのできる様々な手法や枠組みがある。これには、リスクを特定・アセスメントする手法や、リスクを緩和・監視する手法が含まれる。 
● Assessing general-purpose AI systems for risks is an integral part of risk management, but existing risk assessments are severely limited. Existing evaluations of general-purpose AI risk mainly rely on ‘spot checks’, i.e. testing the behaviour of a general-purpose AI in a set of specific situations. This can help surface potential hazards before deploying a model. However, existing tests often miss hazards and overestimate or underestimate general-purpose AI capabilities and risks, because test conditions differ from the real world.  ● 汎用AIシステムのリスクアセスメントはリスクマネジメントの不可欠な要素であるが、既存のリスクアセスメントは極めて限定的である。既存の汎用AIのリスク評価は、主に「抜き打ち検査」、つまり特定の状況における汎用AIの挙動テストに頼っている。これは、モデルを展開する前に潜在的な危険を表面化させるのに役立つ。しかし、既存のテストでは、テスト条件が現実世界と異なるため、ハザードを見逃したり、汎用AIの能力やリスクを過大評価したり過小評価したりすることが多い。 
● For risk identification and assessment to be effective, evaluators need substantial expertise, resources, and sufficient access to relevant information. Rigorous risk assessment in the context of general-purpose AI requires combining multiple evaluation approaches. These range from technical analyses of the models and systems themselves to evaluations of possible risks from certain use patterns. Evaluators need substantial expertise to conduct such evaluations correctly. For comprehensive risk assessments, they often also need more time, more direct access to the models and their training data, and more information about the technical methodologies used than the companies developing general-purpose AI typically provide.  ● リスクの特定とアセスメントを効果的に行うためには、評価者は相当な専門知識、リソース、関連情報への十分なアクセスを必要とする。汎用AIの文脈における厳密なリスクアセスメントには、複数の評価アプローチを組み合わせる必要がある。これらは、モデルやシステム自体の技術的分析から、特定の使用パターンから起こりうるリスクの評価まで多岐にわたる。評価者は、このような評価を正しく行うために相当な専門知識を必要とする。包括的なリスクアセスメントを行うためには、汎用AIの開発企業が通常提供するよりも多くの時間、モデルやその学習データへの直接アクセス、使用されている技術的方法論に関する多くの情報も必要となることが多い。 
● There has been progress in training general-purpose AI models to function more safely, but no current method can reliably prevent even overtly unsafe outputs. For example, a technique called ‘adversarial training’ involves deliberately exposing AI models to examples designed to make them fail or misbehave during training, aiming to build resistance to such cases. However, adversaries can still find new ways ('attacks') to circumvent these safeguards with low to moderate effort. In addition, recent evidence suggests that current training methods – which rely heavily on imperfect human feedback – may inadvertently incentivise models to mislead humans on difficult questions by making errors harder to spot. Improving the quantity and quality of this feedback is an avenue for progress, though nascent training techniques using AI to detect misleading behaviour also show promise.  ● 汎用のAIモデルをより安全に機能させるためのトレーニングは進歩しているが、現在の手法では、あからさまに安全でない出力さえも確実に防ぐことはできない。例えば、「敵対的トレーニング」と呼ばれる手法では、トレーニング中にAIモデルをわざと失敗させたり誤動作させたりするようなサンプルにさらすことで、そのようなケースに対する耐性を構築することを目的としている。しかし、敵対者は、これらのセーフガードを回避する新しい方法(「攻撃」)を、低~中程度の労力で見つけることができる。加えて、不完全な人間のフィードバックに大きく依存している現在のトレーニング方法は、エラーを発見しにくくすることで、難しい問題で人間を惑わすようなインセンティブをモデルに不用意に与えている可能性があることを、最近の証拠が示唆している。このようなフィードバックの量と質を改善することは、進歩の道であるが、誤解を招く行動を検知するためにAIを使用する新しいトレーニング技術も有望である。 
● Monitoring – identifying risks and evaluating performance once a model is already in use – and various interventions to prevent harmful actions can improve the safety of a general-purpose AI after it is deployed to users. Current tools can detect AI-generated content, track system performance, and identify potentially harmful inputs/outputs, though moderately skilled users can often circumvent these safeguards. Several layers of defence that combine technical monitoring and intervention capabilities with human oversight improve safety but can introduce costs and delays. In the future, hardware-enabled mechanisms could help customers and regulators to monitor general-purpose AI systems more effectively during deployment and potentially help verify agreements across borders, but reliable mechanisms of this kind do not yet exist.  ● モニタリング(モデルがすでに使用された後のリスクの特定と性能評価)、および有害な行動を防止するための様々な介入は、汎用AIがユーザーに展開された後の安全性を向上させることができる。生成的なツールは、AIが生成したコンテンツを検知し、システムのパフォーマンスを追跡し、潜在的に有害な入出力を特定することができるが、熟練したユーザーであれば、これらのセーフガードを回避できることも多い。技術的な監視・介入機能と人間による監視を組み合わせた何層もの防御は、安全性を向上させるが、コストと遅延をもたらす可能性がある。将来的には、ハードウェアに対応したメカニズムが、顧客や規制当局が展開中の汎用AIシステムをより効果的に監視するのに役立ち、国境を越えた合意を検証するのに役立つ可能性があるが、この種の信頼できるメカニズムはまだ存在しない。 
● Multiple methods exist across the AI lifecycle to safeguard privacy. These include removing sensitive information from training data, model training approaches that control how much information is learned from data (such as ‘differential privacy’ approaches), and techniques for using AI with sensitive data that make it hard to recover the data (such as ‘confidential computing’ and other privacy-enhancing technologies). Many privacy-enhancing methods from other research fields are not yet applicable to general-purpose AI systems due to the computational requirements of AI systems. In recent months, privacy protection methods have expanded to address AI's growing use in sensitive domains including smartphone assistants, AI agents, always-listening voice assistants, and use in healthcare or legal practice.  ● AIのライフサイクルには、プライバシーを保護するための複数の方法が存在する。これには、学習データから機密情報を除去する方法、データから学習する情報量を制御するモデル・トレーニングの方法(「差分プライバシー」アプローチなど)、データの復元を困難にする機密データをAIで使用する技術(「機密コンピューティング」やその他のプライバシー強化技術など)などがある。他の研究分野のプライバシー向上手法の多くは、AIシステムの計算要件のため、汎用AIシステムにはまだ適用できない。ここ数カ月で、プライバシー保護手法は、スマートフォンアシスタント、AIエージェント、常時聞き手の音声アシスタント、医療や法律実務での使用など、AIがセンシティブな領域で使用されるようになっていることに対応するために拡大している。 
Since the publication of the Interim Report, researchers have made some further progress towards being able to explain why a general-purpose AI model has produced a given output. Being able to explain AI decisions could help manage risks from malfunctions ranging from bias and factual inaccuracy to loss of control. In addition, there have been growing efforts to standardise assessment and mitigation approaches around the world.  中間報告書の発表以来、研究者たちは、汎用AIモデルがなぜある出力を出したのかを説明できるようになるために、さらなる進歩を遂げてきた。AIの判断を説明できるようになれば、バイアスや事実誤認から制御不能に至るまで、誤作動によるリスクマネジメントに役立つ可能性がある。さらに、世界中でアセスメントと緩和のアプローチを標準化する取り組みが活発化している。 
Conclusion: A wide range of trajectories for the future of general-purpose AI are possible, and much will depend on how societies and governments act  結論:汎用AIの未来にはさまざまな軌跡が考えられるが、その多くは社会や政府がどのように行動するかにかかっている。 
The future of general-purpose AI is uncertain, with a wide range of trajectories appearing possible even in the near future, including both very positive and very negative outcomes. But nothing about the future of general-purpose AI is inevitable. How general-purpose AI gets developed and by whom, which problems it gets designed to solve, whether societies will be able to reap general-purpose AI’s full economic potential, who benefits from it, the types of risks we expose ourselves to, and how much we invest into research to manage risks – these and many other questions depend on the choices that societies and governments make today and in the future to shape the development of general-purpose AI.  汎用AIの未来は不確実であり、非常にポジティブな結果も非常にネガティブな結果も含め、近い将来にも幅広い軌跡があり得ると思われる。しかし、汎用AIの未来に必然性はない。汎用AIが誰によってどのように開発されるのか、どのような問題を解決するために設計されるのか、社会は汎用AIの経済的可能性をフルに享受できるのか、誰がその恩恵を受けるのか、私たちはどのようなリスクにさらされるのか、リスクを管理するための研究にどの程度投資するのか--こうした疑問や他の多くの疑問は、汎用AIの開発を形成するために社会や政府が今日および将来行う選択にかかっている。 
To help facilitate constructive discussion about these decisions, this report provides an overview of the current state of scientific research and discussion on managing the risks of general-purpose AI.  こうした決定に関する建設的な議論を促進するため、本報告書では、汎用AIのリスクマネジメントに関する科学的研究と議論の現状を概観する。 
The stakes are high. We look forward to continuing this effort.  賭け金は高い。私たちはこの努力を続けることを楽しみにしている。 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

AI Action Summit

・2024.11.29 米国 AI安全研究所 安全保障等に関わる政府タスクフォースの設立、AI安全機構国際ネットワークの設立総会で初代議長に、NIST AI 100-4の発表 (2024.11.20)

2024.05.23 外務省 岸田総理大臣のAIソウル・サミット首脳セッションへの参加(ビデオメッセージ)+ AIソウル・サミット首脳セッション出席国による安全、革新的で包摂的なAIのためのソウル宣言 

 

 

 

| | Comments (0)

2025.02.01

経済産業省 産業データの越境データ管理等に関するマニュアル (2025.01.27)

こんにちは、丸山満彦です。

経済産業省が、「産業データの越境データ管理等に関するマニュアル」を公表していますね...


本マニュアルは、企業が国際的なデータ共有・利活用を行う上で直面する主要なリスクを把握し、適切な打ち手を検討するための指針となります。


とのことです...

 

前提として、次のようなことがあるのでしょうかね...

・データが国際的に自由に流通し、政府によるガバメントアクセスがなければ、産業は発展し、人類は幸福になれる...

ただし、人権の問題に関係する可能性があるので、

・個人データの国際的な移転には一定の制約があっても仕方がない...

というかんじでしょうかね...

それに加えて近年では、安全保障上の観点から、

・安全保障に関わるデータの移転には一定の制約があっても仕方がない...

ということもあるのでしょうかね...

 

そういうふうに考えると、

・社会として、経済成長、人権、安全保障のバランスをどのようにとるのか?ということによって、どのような制度が適切かというのが変わってくるのでしょうね...

日本はどのような社会を目指すのか?その価値観をどのように世界に広げていくのか?

そういう問題のような気もしますね...

 

報告書の「背景と目的」には次のように記載されています...

 


IoT や DX の普及、サプライチェーン透明化の要請等を背景に、企業における国際的なデータ共有・利活用の動きが拡大している。また、EU の GAIA-X 等をはじめ、産業横断でのデータプラットフォーム・基盤構築の動きも加速しており、我が国でも企業や業界、国境を越えたデータ連携を実現する取組である 「ウラノス・エコシステム」が推進されている。

⚫ 国際的なデータ共有・利活用の拡大と同時に、各国・地域においてデータに関する法制の整備も進められている。それらの中には、個人情報を含むか否かを問わず、企業が保有する産業データ全般を対象として、データの越境移転の制限(データローカライゼーション)や、政府による広範なアクセス(ガバメントアクセス)を可能とする規則も存在し、こうした動きが加速していく可能性がある。

⚫ こうした規制は、国際的な企業活動における制約要因になることに加えて、中長期的に我が国の産業全体での競争力の強化及び企業横断でのデジタル基盤の確立・普及に影響を及ぼすことも懸念される。

⚫ こうした背景から、各国・地域における産業データのルール形成の動きを踏まえ、これまで議論が積み重ねられてきた個人情報保護法制以外のデータ関連法に焦点を当て、現状の把握と対応の在り方を議論する必要性が高まっている。

⚫ これを受け、企業における安全・安心な形でのデータ共有・利活用を実現し、付加価値の創出を促進することを目指し、企業における産業データの越境・国際流通に係るデータ管理(以下「越境データ管理」という。)の指針となるマニュアル(以下「本マニュアル」という。)を作成する。

⚫ 本マニュアルを通じ、企業が国際的なデータ共有・利活用に取り組む際の主要なリスクを把握するだけでなく、データ共有・利活用を通じた事業価値の創造や競争力強化に向けた適切な国際データガバナンスの考え方・プロセスの理解を深めることを目指す。加えて、個別企業におけるデータ共有・利活用の促進を通じて、中長期的な産業競争力の強化や、企業横断的なデジタル基盤の確立にも寄与することを狙う。


 

ということを考えると、それぞれの国においてデータ流通がどの程度自由に行われるような環境(法制度を含む)になっているのか?というのは、その国がどのような社会を目指そうとしているのか(経済成長、人権の尊重、安全保障のどれに重きを置こうとしているのか?)と程度問題なのだろうと思います。

 

経済産業省

・2025.01.27 企業の国際的なデータ共有・利活用を推進するための「産業データの越境データ管理等に関するマニュアル」を策定しました

 

・[PDF] 産業データの越境データ管理等に関するマニュアル

20250201-63249

 

・[PDF] 参考資料A 打ち手のリスト

20250201-64028

 

・[PDF] 参考資料B 産業データサブワーキンググループ提出資料集(企業事例と関連テーマの動向)

20250201-64111

 

目次...

1 はじめに
1.1
背景と目的
1.2
想定読者と留意点

2 検討の範囲と位置付け
2.1
検討の範囲
 2.1.1
検討の前提
 2.1.2 検討の対象(プロセス、データ、リスク)

2.2
検討の位置付けと関連ガイドライン

3 越境データ管理の 3 つのステップ
3.1
全体像と検討のフレームワーク
3.2
1 のステップ(リスクの可視化)
 3.2.1
トランザクションの整理
 3.2.2 リスクシナリオの整理

3.3
2 のステップ(リスクの評価)
3.4
3 のステップ(打ち手の実施)
3.5
リスクと打ち手の整理

4 主要な関連法規制(EU・中国・米国)

5 想定リスクと打ち手
5.1
データ移転・事業活動の制限(データローカライゼーション)
5.2
データの強制的なアクセス(ガバメントアクセス)
5.3
データの共有・開示の義務化

6 終わりに

産業データサブワーキンググループ 委員等名簿

参考資料
参考資料 A 打ち手のリスト
参考資料 B 産業データサブワーキンググループ提出資料集(企業事例と関連テーマの動向)


 

関連リンク...

● 経済産業省

● デジタル庁

 

| | Comments (0)

2025.01.31

欧州 地方自治体および地域行政によるAIおよびGenAIの採用

こんにちは、丸山満彦です。

巷では中国の生成的AIであるDeepSeekが話題になっているようですが、欧州の話題です...

欧州委員会が、地方自治体および地域行政によるAIおよびGenAIの採用に関する報告書を公表していますね...

欧州の地方自治体でのAIの取り組みの事例も少しあり、自治体のAIに対する取り組みのヒントになるかもですね...(AI法があることにより、できないことがはっきりしていて、変な迷いも生じることなく取り組みがしやすいかもですね...)

European Union

AI and GenAI adoption by local and regional administrations

 

AI and GenAI adoption by local and regional administrations 地方自治体および地域行政によるAIおよびGenAIの採用
Based on the previous recent research and results in this area, notably the EU Public Sector Tech Watch reports and handbooks "European Landscape on the Use of Artificial Intelligence by the Public Sector", "Road to the adoption of AI by the public sector", "A collective effort in exploring the applications of Artificial Intelligence and blockchain in the Public Sector" and a European Parliament briefing on "Artificial Intelligence and Public services", this study on “AI and GenAI adoption by local and regional administrations” (1) analyses the results of the previous studies – which are based on data gathered over the last couple of years – and (2) delves deeper into the opportunities and challenges subnational authorities have with the AI and GenAI adoption and the impact this has on the quality of their interactions with citizens, as well as the efficiency of internal and cross-administration processes. The study also (3) investigates whether and how AI and GenAI could contribute to bridging digital divides across different types of territories and/or groups of citizens. It further (4) examines the role of political leaders in promoting AI, scalability, knowledge sharing and the need for cooperation between the technical and political levels to ensure boost of AI use. In the end, the study offers a number of recommendations for enhancing the adoption and effectiveness of AI and GenAI at subnational level. この分野における最近の調査および結果、特にEU公共部門テクノロジーウォッチの報告書およびハンドブック「公共部門における人工知能の利用に関する欧州の状況」、「公共部門におけるAI導入への道」、「公共部門における人工知能とブロックチェーンの応用に関する共同の取り組み」、および欧州議会による「人工知能と公共サービス」に関するブリーフィングを踏まえ、本研究「地方自治体および地域行政によるAIおよびGenAIの導入」では、 過去数年にわたって収集されたデータに基づくこれまでの研究結果を分析し、(2) 地方自治体がAIおよびGenAIの導入によって得られる機会と課題、そしてそれが市民とのやりとりの質や、内部および行政間のプロセス効率に与える影響について、さらに深く掘り下げている。また、本研究では、(3) 異なるタイプの地域や市民グループ間のデジタル格差の解消にAIおよびGenAIが貢献できるかどうか、またその方法についても調査している。さらに、(4) AIの利用を促進するために、政治的リーダーが果たす役割、スケーラビリティ、知識共有、技術レベルと政治レベル間の協力の必要性についても検証している。最後に、本研究では、地方レベルでのAIおよびGenAIの導入と効果を高めるためのいくつかの提言を行っている。

 

・[PDF] [downloaded]

20250131-63140

・[DOCX][PDF] 仮訳

 

目次...

Executive Summary エグゼクティブサマリー
Background and objective of this study 本研究の背景と目的
Methodology 方法論
Report structure 報告書の構成
Key findings 主な調査結果
Policy recommendations 政策提言
Introduction 序文
Part 1: State of play of AI and GenAI adoption at local and regional level パート1:地方・地域レベルでのAIとGenAIの導入状況
1.1 Overview 1.1 概要
1.1.1 Local and Regional Authority (LRA) and Public Authority (PA) implementations 1.1.1 地方自治体(LRA)と公共機関(PA)の実装
1.1.2 Existing AI infrastructure to support LRAs 1.1.2 LRAをサポートする既存のAIインフラ
1.1.3 Academic research 1.1.3 学術研究
1.1.4 Citizen acceptance and user experience with AI in the public sector 1.1.4 公共部門におけるAIの市民受容とユーザー体験
1.1.5 Summary 1.1.5 まとめ
1.2 State of play of AI adoption across the EU LRAs 1.2 EUのLRAにおけるAI導入の現状
1.2.1 AI adoption, application sectors and main benefits for LRAs 1.2.1 AI導入、応用分野、LRAにとっての主なメリット
1.2.2 Human resources dedicated to AI and relations with the external environment 1.2.2 AIに特化した人材と外部環境との関係
1.2.3 AI monitoring and evaluation mechanisms 1.2.3 AIモニタリングと評価の仕組み
1.2.4 Challenges and drivers of AI adoption 1.2.4 AI導入の課題と推進要因
1.2.5 Conclusions 1.2.5 結論
Part 2: Factors for the successful AI and GenAI adoption in cities and regions 第2部:都市と地域におけるAIとGenAIの導入成功の要因
2.1 Fostering cooperation between the technical and political levels 2.1 技術レベルと政治レベルの間の協力を促進する
2.2 The facilitating role of political decision-makers and appropriate governance 2.2 政治的意思決定者の促進的役割と適切なガバナンス
2.3 Organisational context and AI procurement 2.3 組織的背景とAI調達
2.4 Enhancing citizen acceptance and engagement 2.4 市民の受け入れと関与を強化する
2.5 Data availability and governance 2.5 データの可用性とガバナンス
2.6 Making AI-based solutions scalable and applicable to other contexts 2.6 AIベースのソリューションを拡張可能にし、他の文脈にも適用できるようにする
2.7 Investment and funding 2.7 投資と資金調達
Part 3: Foresight analysis, conclusion and policy recommendations 第3部:フォーサイト分析、結論、政策提言
3.1 Foresight analysis 3.1 先見性分析
3.1.1 The AI trends identified by survey respondents 3.1.1 調査回答者が特定したAIのトレンド
3.1.2 The Horizon Scanning for relevant weak signals detection 3.1.2 ホライゾン・スキャニングによる弱シグナルの検知
3.1.3 Megatrends 3.1.3 メガトレンド
3.1.4 Results of the foresight analysis 3.1.4 先見性分析の結果
3.2.1 Overview of the policy recommendations on the AI implementation 3.2.1 AI導入に関する政策提言の概要
3.2.2  Recommendations 3.2.2 推奨事項
3.3 Conclusions of the study 3.3 研究の結論
Annex I – The online survey 附属書 I - オンライン調査
Annex II – Eight case studies 附属書 II - 8つのケーススタディ
Case II.1. De Virtuele Assistent (‘The Virtual Assistant’) (Belgium) ケースII.1.バーチャルアシスタント(ベルギー
Case II.2. Green public transport on demand (Bulgaria) ケースII.2.オンデマンドのグリーン公共交通(ブルガリア)
Case II.3. Vaasan kadut kuntoon (‘Fix the Streets’) (Finland) ケースII.3.街路を直せ」(フィンランド
Case II.4. Satellites for Wilderness Inspection and Forest Threat Tracking (SWIFTT) (Latvia) ケースII.4.原生地域監視・森林脅威追跡用人工衛星(SWIFTT)(ラトビア)
Case II.5. Vadindekset (‘The wet index’) project (Denmark) ケースII.5.Vadindekset(「湿った指標」)プロジェクト(デンマーク)
Case II.6. Policies for Holistic Urban Mobility and Accessibility (Cyprus) ケースII.6.総合的な都市モビリティとアクセシビリティのための政策(キプロス)
Case II.7   The AI-based LisNav application dedicated to transforming the lives of the visually impaired (Portugal) ケースII.7 視覚障害者の生活を変えるためのAIベースのLisNavアプリケーション(ポルトガル)
Case II.8. Immediate and Long-Term Energy Reduction (RECITAL) (France) ケースII.8.即時かつ長期的なエネルギー削減(前文)(フランス)
Annex III – Bibliography 附属書 III - 書誌情報

 

 

 

| | Comments (0)

より以前の記事一覧