« 世界経済フォーラム (WEF) 暗号資産規制への道筋: グローバルアプローチ (2023.05.25) | Main | 個人情報保護委員会 「第3回G7データ保護・プライバシー機関ラウンドテーブル会合」共同コミュニケ、生成AIに関する生命、行動計画 »

2023.06.22

世界経済フォーラム (WEF) 責任ある生成的AIに関するプレシディオ提言 (2023.06.14)

こんにちは、丸山満彦です。

世界経済フォーラム (WEF)が「責任ある生成的AIに関するプレシディオ提言」を公表していますね。



World Economic Forum - Whitepaper

・2023.06.14 [PDF] The Presidio Recommendations on Responsible Generative AI

The Presidio Recommendations on Responsible Generative AI 責任ある生成的AIに関するプレシディオ提言
Generative AI has the potential to transform industries and society, but responsible design and collaboration among stakeholders are crucial. 生成的AIは産業や社会を変革する可能性を秘めているが、責任ある設計とステークホルダー間の協働が重要である。

 

20230621-101347

 

Introduction 序文
Generative artificial intelligence (AI) has the potential to transform industries and society by boosting innovation and empowering individuals across diverse fields, from arts to scientific research. To ensure a positive future, it is crucial to prioritize responsible design and release practices from the beginning. As generative AI continues to advance at an unprecedented pace, the need for collaboration among stakeholders to ensure that AI serves as a force for good has become increasingly urgent.  生成的人工知能(AI)は、芸術から科学研究まで、さまざまな分野でイノベーションを促進し、個人の能力を高めることで、産業と社会を変革する可能性を秘めている。ポジティブな未来を確実にするためには、最初から責任ある設計とリリースを優先することが極めて重要である。生成的AIがかつてないスピードで進化し続ける中、AIが善のための力として機能するための関係者間の協力の必要性は、ますます高まってきている。
On 26-28 April 2023, the summit “Responsible AI Leadership: A Global Summit on Generative AI” took place at the World Economic Forum’s Centre for the Fourth Industrial Revolution based in the Presidio in San Francisco, USA. The event was hosted by the Forum in partnership with AI Commons to guide technical experts and policy-makers on the responsible development and governance of generative AI systems. 2023年4月26日~28日、サミット「Responsible AI Leadership: A Global Summit on Generative AI」が、米国サンフランシスコのプレシディオに拠点を置く世界経済フォーラムの第4次産業革命センターで開催された。このイベントは、生成的AIシステムの責任ある開発とガバナンスについて、技術専門家と政策立案者を導くために、フォーラムがAI Commonsと提携して主催したものである。
The summit emphasized the importance of open innovation and international collaboration as essential enablers for responsible generative AI. The focus was on moving beyond insightful discussions to generate actionable and practical recommendations for various AI stakeholders that could significantly influence the design, construction and deployment of generative AI. このサミットでは、責任ある生成的AIを実現するために不可欠なイネーブラーとして、オープンイノベーションと国際協力の重要性が強調された。また、洞察に満ちた議論を超えて、生成的AIの設計、構築、展開に大きな影響を与えることができる、さまざまなAI関係者に対する実行可能で実用的な提言を生み出すことに焦点が当てられた。
Over 100 AI thought leaders and practitioners participated in the summit, including chief scientific officers, responsible AI and ethics leads, academic leaders, AI entrepreneurs, policy-makers, tech investors and members of civil society. Participants engaged in discussions on numerous aspects of generative AI’s design, development, release and societal impact, and deliberated on key recommendations. These recommendations emerged from interactive panel discussions and working sessions through a bottom-up process, with participants reaching consensus on critical areas related to the governance of generative AI. サミットには、最高科学責任者、責任あるAIと倫理のリーダー、学術界のリーダー、AI起業家、政策立案者、技術投資家、市民社会のメンバーなど、100人を超えるAI思想家や実務家が参加した。参加者は、生成的AIの設計、開発、リリース、社会的インパクトの多くの側面について議論し、主要な勧告について審議した。これらの提言は、双方向のパネルディスカッションやワーキングセッションからボトムアッププロセスで生まれ、参加者は生成的AIのガバナンスに関連する重要な領域についてコンセンサスを得た。
This summary presents a set of 30 action-oriented recommendations aimed at guiding generative AI towards meaningful human progress. The recommendations address three key themes that cover the entire life cycle  of generative AI: responsible development and release; open innovation and international collaboration; and  social progress. この要約では、生成的AIを人類の有意義な進歩に導くことを目的とした、30の行動指向の勧告を提示する。提言は、生成的AIのライフサイクル全体をカバーする3つの主要テーマ、すなわち、責任ある開発とリリース、オープンイノベーションと国際協力、そして社会的進歩に取り組んでいる。
By implementing these recommendations, stakeholders can navigate the complexities of AI development and harness its potential responsibly and ethically. Join us in shaping a more innovative, equitable and prosperous future that leverages the power of generative AI and mitigate its risks to benefit all. これらの提言を実施することで、ステークホルダーはAI開発の複雑さを乗り越え、責任と倫理を持ってその可能性を活用することができる。生成的AIの力を活用し、そのリスクを軽減してすべての人に利益をもたらす、より革新的で公平で豊かな未来を形作るために、私たちに参加してほしい。
Responsible Development  and Release of Generative AI 生成的AIの責任ある開発とリリース
This section critically assesses the necessity to protect our society from unforeseen outcomes induced by the swiftly developing generative AI systems, and accordingly advocates for responsible strategies concerning their development and deployment. These recommendations are intended for a broad spectrum of stakeholders - ranging from AI developers to policy-makers and users. The objective is to foster accountable and inclusive processes for AI development and deployment, thereby enhancing trust and transparency as generative AI systems continue to proliferate. このセクションでは、急速に発展する生成的AIがもたらす不測の事態から社会を守る必要性を批判的に評価し、その開発・展開に関する責任ある戦略を提唱する。この提言は、AI開発者から政策立案者、利用者に至るまで、幅広いステークホルダーを対象としている。その目的は、AIの開発と展開のための説明責任と包括的なプロセスを促進し、生成的AIシステムが普及し続ける中で信頼と透明性を高めることにある。
01 Establish precise and shared terminology 01 正確で共有された用語集を確立する
All stakeholders are called upon to use precise terminology when discussing the design, development, evaluation and measurement of generative AI models’ capabilities, limitations and issues. It is the responsibility of experts to define and standardize this language. As soon as a consensus is reached, consistent adoption of this terminology by all stakeholders is essential. This approach will boost clarity and promote effective communication, leading to a shared understanding among different parties. Ultimately, it will facilitate the establishment of strong, standards, guidelines and regulations for a range of generative AI applications. 生成的AIモデルの能力、限界、問題点の設計、開発、評価、測定について議論する際には、すべての関係者が正確な用語を使用することが求められる。この用語を定義し、標準化することは専門家の責任である。コンセンサスが得られ次第、すべてのステークホルダーがこの用語を一貫して採用することが重要である。このアプローチは、明確性を高め、効果的なコミュニケーションを促進し、異なる関係者の間で共通の理解を得ることにつながる。最終的には、生成的AIアプリケーションのための強力な、標準、ガイドライン、規制の確立を促進することになる。
02 Build public awareness of AI capabilities and their limitations  02 AIの能力とその限界に関する国民の意識を高める 
Public and private stakeholders should prioritize the task of enhancing public understanding. This includes making the terminology related to generative AI models understandable to the general public. Additionally, stakeholders should inform users about the probabilistic (meaning their outputs are not deterministic but based on probability) and stochastic (implying their operation involves a degree of random behavior) nature of generative AI models, while setting accurate expectations for their performance. 官民の関係者は、一般市民の理解を深める作業を優先すべきである。これには、生成的AIモデルに関連する用語を一般大衆が理解できるようにすることが含まれる。さらに、関係者は、生成的AIモデルの確率的(出力が決定論的ではなく、確率に基づくことを意味する)および確率的(その動作がある程度のランダムな動作を含むことを意味する)性質についてユーザーに伝え、その性能に対する正確な期待値を設定すべきである。
03 Focus on human values and preferences  03 人間の価値観や嗜好に注目する 
The challenge to align generative AI models with human values and preferences needs to be further acknowledged and addressed. Developers of AI systems should be engaged in discussions about normative values and preferences when designing AI models. 生成的AIモデルを人間の価値観や嗜好に合わせるという課題は、さらに認識され、対処される必要がある。AIシステムの開発者は、AIモデルを設計する際に、規範となる価値観や嗜好についての議論に参加する必要がある。
04 Encourage alignment and participation  04 調整と参加を奨励する 
Public and private sector stakeholders should recognize that AI systems necessitate quality feedback that is diverse and representative of the user base to be truly aligned. Policy-makers should promote the involvement of diverse stakeholders, including non-technical stakeholders, in AI research and development to ensure alignment with human values. AI developers should work to facilitate interactions and feedback from a broad range of participants to create a more inclusive and human-centric development process. 官民の関係者は、AIシステムが真に連携するためには、多様でユーザーを代表する質の高いフィードバックが必要であることを認識すべきである。政策立案者は、人間の価値観との整合性を確保するために、非技術的な利害関係者を含む多様な利害関係者のAI研究・開発への関与を促進すべきである。AI開発者は、より包括的で人間中心の開発プロセスを構築するために、幅広い参加者からの交流やフィードバックを促進するよう取り組むべきである。
05 Uphold AI accountability with rigorous benchmarknig and use  case-specific testing while exploring new metrics and standards   05 新しい指標と基準を模索しながら、厳密なベンチマークとユースケースに特化したテストによってAIの説明責任を強化する。 
AI developers should commit to the importance of not only holding models accountable against the highest established benchmarks, but also finding new metrics beyond traditional ones and towards other human-centric dimensions. Benchmarking should be complemented by application-specific and task-defined testing to ensure a comprehensive evaluation of generative AI models. AI開発者は、確立された最高のベンチマークに対してモデルの説明責任を果たすだけでなく、従来の指標を超え、他の人間中心の次元に向けた新しい指標を見出すことの重要性にコミットすべきである。ベンチマークは、生成的AIモデルの包括的な評価を確実にするために、アプリケーション固有のテストやタスク定義のテストで補完されるべきである。
06 Employ diverse red teams  06 多様なレッドチームを採用する 
Red teaming, a method of critically analysing perspective to identify potential weaknesses, vulnerabilities and areas for improvement, should be integral from model design to application and release. Diversity here implies incorporating members from varied genders, backgrounds, experiences and perspectives for a more comprehensive critique. The public and private sectors should implement frameworks and methodologies to facilitate thorough red teaming. レッドチームとは、潜在的な弱点、脆弱性、改善のための領域を特定するために視点を批判的に分析する手法であり、モデルの設計からアプリケーション、リリースまで不可欠であるべきである。ここでいう多様性とは、より包括的な批評を行うために、様々な性別、背景、経験、視点を持つメンバーを取り入れることを意味する。官民ともに、徹底したレッドチーム化を促進するための枠組みや方法論を導入する必要がある。
07 Adopt transparent release strategies  07 透明性の高いリリース戦略を採用する 
Producers of AI should be held accountable to release AI models responsibly, making them available to the public without compromising safety. Responsible release strategies should be initiated upstream during project ideation and product design to ensure that potential risks are identified and mitigated throughout the development process.   AIの生産者は、責任をもってAIモデルをリリースし、安全性を損なうことなく一般に利用できるようにする責任を負うべきである。責任あるリリース戦略は、開発プロセスを通じて潜在的なリスクが特定され、軽減されることを確実にするために、プロジェクトのアイデア出しや製品設計の上流で開始されるべきである。 
08 Enable user feedback   08 ユーザーからのフィードバックを可能にする  
Users should be empowered with robust controls that allow them to provide real-time feedback on model outputs. Additionally, it is relevant to enable users to have a comprehensive understanding of the limits and responsibilities associated with the generated content.  ユーザーは、モデルの出力に関するリアルタイムのフィードバックを提供することができる強固な管理機能を持つ権限を与えられるべきである。さらに、生成されたコンテンツに関連する制限と責任をユーザーが包括的に理解できるようにすることが適切である。
09 Embed model and system traceability  09 モデルとシステムのトレーサビリティを確立する 
Developers and policy-makers should align on the importance of creating formal evaluation and auditing  structures surrounding traceability throughout the entire AI life cycle, from data provenance to training scenarios and post-implementation. 開発者と政策立案者は、データの出所からトレーニングシナリオ、実装後まで、AIのライフサイクル全体を通じて、トレーサビリティを取り巻く正式な評価・監査構造を構築することの重要性について一致する必要がある。
10 Ensure content traceability  10 コンテンツのトレーサビリティを確保する 
To increase transparency and accountability, companies developing AI-generated content should be responsible for tracing how content is generated and documenting its provenance. This will help users discern the difference between human-generated and AI-generated content. 透明性と説明責任を高めるために、AI生成的コンテンツを開発する企業は、コンテンツの生成方法を追跡し、その出所を文書化する責任を負うべきである。これにより、ユーザーは人間が生成したコンテンツとAIが生成したコンテンツの違いを識別しやすくなる。
11 Disclose non-human interaction  11 人間以外のインタラクションを開示する 
In virtual environments, humans should know whether they are interacting with a human or a machine. AI providers should develop mechanisms to support this, for example, via watermarking. 仮想環境において、人間は、自分が人間や機械とインタラクションしているのかどうかを知るべきである。AIプロバイダーは、例えば電子透かしによって、これをサポートするメカニズムを開発する必要がある。
12 Build human-AI trust  12 人間とAIの信頼関係を構築する 
To build trust in AI systems, developers and companies should prioritize transparency, consistency, and meeting and managing user expectations. AI developers should be transparent in their processes and decision-making, providing users with an understanding of how they reach their results. By focusing on these aspects, AI developers can create systems that foster trust and facilitate positive human-AI interactions. AIシステムに対する信頼を築くために、開発者と企業は、透明性、一貫性、ユーザーの期待に応え、管理することを優先させるべきである。AI開発者は、そのプロセスや意思決定において透明性を保ち、どのように結果に至ったかをユーザーに理解させる必要がある。これらの点に着目することで、AI開発者は信頼を醸成し、人間とAIの良好な相互作用を促進するシステムを構築することができる。
13 Implement a step-by-step review process  13 段階的なレビュープロセスを導入する 
Policy-makers and businesses should create a step-by-step review process for AI models and products. This should be similar to the detailed checks used in clinical trials or car manufacturing, both before and after a product goes live. There should be an independent auditor or international agency to oversee this to ensure uniform evaluations and continuous monitoring. To help limit potential risks and negative impacts, certification, or licensing system could be used. 政策立案者と企業は、AIモデルや製品について、段階的なレビュープロセスを構築すべきである。これは、臨床試験や自動車製造に用いられる詳細なチェックと同様で、製品が稼働する前と後の両方で行われるべきである。これを監督する独立した監査人や国際機関を設け、均一な評価と継続的な監視を徹底させる必要がある。潜在的なリスクや悪影響を抑えるために、認証制度やライセンス制度を利用することも考えられる。
14 Develop comprehensive, multi-level measurement frameworks 14 包括的でマルチレベルの測定フレームワークを開発する
Policy-makers should emphasize ongoing efforts and incentivize developers and standardization bodies to focus on creating and employing measurement frameworks with an emphasis on socio-technical aspects rather than solely technical performance. 政策立案者は、技術的性能のみならず、社会技術的側面に重点を置いた測定フレームワークの作成と採用に注力するよう、開発者や標準化団体に継続的な取り組みを強調し、動機づけを行うべきである。
15 Adopt sandbox processes 15 サンドボックス・プロセスを採用する
AI developers, standard-setting bodies and regulators should cooperate on more flexible “sandbox” development environments along with new and associated processes of governance and oversight. Sandboxing could help build trust by demonstrating that AI systems have undergone rigorous testing and evaluation to ensure safety, reliability and compliance. AI開発者、標準化団体、規制当局は、ガバナンスと監視の新しい関連プロセスとともに、より柔軟な「サンドボックス」開発環境について協力する必要がある。サンドボックスは、AIシステムが安全性、信頼性、コンプライアンスを確保するための厳格なテストと評価を受けていることを示すことで、信頼を築くのに役立つだろう。
16  Adapt to the evolving landscape of creativity  and intellectual property  16 創造性と知的財産の進化する状況に適応する 
With generative AI impacting content creation, it is essential for policy-makers and legislators to re-examine and update copyright laws to enable appropriate attribution, and ethical and legal reuse of existing content. 生成的AIがコンテンツ作成に影響を与える中、政策立案者や立法者は、適切な帰属表示や既存コンテンツの倫理的・合法的な再利用を可能にするために、著作権法を再検討・更新することが不可欠である。
Open Innovation and International Collaboration オープンイノベーションと国際協力
This section focuses on the importance of sharing scientific knowledge and enhancing international collaboration. As frontier research capabilities tend to be concentrated in private sector companies in a select few countries, it is vital that academic researchers remain an integral part of the exploratory process, while countries worldwide participate and influence the governance of generative AI systems. These recommendations are designed for a range of stakeholders, including researchers, AI developers, standard-setting bodies and policy-makers. The overarching goal is to cultivate transparency, accountability and inclusivity in the development, implementation and governance of generative AI. このセクションでは、科学的知識の共有と国際協力の強化の重要性に焦点を当てる。フロンティア研究能力は一部の国の民間企業に集中する傾向があるため、学術研究者が探索プロセスに不可欠な存在であり続けるとともに、世界各国が参加し、生成的AIシステムのガバナンスに影響を与えることが重要である。これらの提言は、研究者、AI開発者、標準化団体、政策立案者など、さまざまなステークホルダーを対象としている。包括的な目標は、生成的AIの開発、実装、ガバナンスにおいて、透明性、説明責任、包括性を培うことである。
17 Incentivize public-private research coordination  17 官民の研究連携を促進させる 
Public and private stakeholders should actively work to design incentive structures that facilitate greater coordination between academic researchers and the private sector throughout the technology development lifecycle. Possible mechanisms to be considered include joint research programmes, data-sharing protocols and joint IP ownership. 官民のステークホルダーは、技術開発のライフサイクルを通じて、学術研究者と民間企業との連携を深めるためのインセンティブ構造を設計するために積極的に取り組むべきである。考えられるメカニズムとしては、共同研究プログラム、データ共有プロトコル、IPの共同所有などが挙げられる。
18 Build a common registry of models, tools, benchmarks  and best practices  18 モデル、ツール、ベンチマーク、ベストプラクティスの共通レジストリを構築する。
Producers and researchers of generative AI should contribute to a common and open registry of source codes, models, datasets, tools, benchmarks and best practice guidelines, to be shared within the research community, in order to have a platform for academic and private sector collaboration to build future models and systems that are transparent and accountable to the public.  生成的AIの生産者と研究者は、透明性が高く、公衆に説明できる将来のモデルとシステムを構築するための学術と民間の協力のためのプラットフォームを持つために、研究コミュニティ内で共有されるソースコード、モデル、データセット、ツール、ベンチマーク、ベストプラクティスのガイドラインの共通のオープンレジストリに貢献するべきである。
19 Support responsible open innovation and knowledge sharing  19 責任あるオープンイノベーションと知識の共有を支援する 
Policy-makers and AI providers should contribute to frameworks to democratize AI through responsible sharing of resources, including data, source code, models and research findings; also encourage the sharing certification processes, ensuring transparency and trust among stakeholders. A public-private long-term initiative could be developed to build public-facing platforms that provide open access to compute, data and pre-trained models.  This platform could be treated as a digital public good, and usage could be promoted across borders.  政策立案者とAIプロバイダーは、データ、ソースコード、モデル、研究成果などのリソースを責任を持って共有することで、AIの民主化を図る枠組みに貢献する必要がある。官民合同の長期的なイニシアティブを構築し、計算機、データ、事前訓練済みモデルへのオープンアクセスを提供する公衆向けプラットフォームを構築することができる。 このプラットフォームはデジタル公共財として扱われ、国境を越えて利用が促進される可能性がある。
20 Enhance international collaboration on AI standards  20 AI 標準に関する国際的な連携を強化する 
Standard bodies must foster international collaboration on AI standards, ensuring the participation of all AI stakeholders, including all geographical locations. 標準化機関は、AI標準に関する国際的な協力を促進し、すべての地理的な場所を含むすべてのAI関係者の参加を確保しなければならない。
21 Establish a global AI governance initiative  21 グローバルなAIガバナンスのイニシアチブを確立する 
To address the challenges and potential risks posed by AI technologies, policy-makers should consider devoting efforts towards creating a global AI governance initiative. This initiative should bring together experts from a wide array of fields. The key focus should be on promoting global understanding of responsible generative AI, ensuring broad inclusion, facilitating access to infrastructure, and fostering collaboration to harmonize response structures at  the national level against AI challenges and risks. AI技術がもたらす課題と潜在的なリスクに対処するため、政策立案者は、グローバルなAIガバナンス・イニシアチブの設立に向けた努力を傾けることを検討すべきである。このイニシアティブには、幅広い分野の専門家が参加することが望ましい。主な焦点は、責任ある生成的AIに関する世界的な理解の促進、広範な包摂の確保、インフラへのアクセスの促進、AIの課題とリスクに対する国レベルの対応構造を調和させるための協力の促進であるべきだ。
Social progress 社会の進歩
This section examines the hurdles tied to AI-driven transformations, spanning from workforce transitions to educational shifts, as well as the necessity of championing AI for societal benefit and advocating for equitable AI access in developing nations. The recommendations are intended for a broad array of stakeholders, including educational institutions, community organizations, corporations, individuals, policy-makers and governments.  The primary objective is to cultivate a society that is more informed, engaged and resilient in the face of these emerging changes. このセクションでは、労働力の転換から教育の転換に至るまで、AI主導の変革に関連するハードルを検証するとともに、社会的利益のためにAIを支持し、発展途上国における公平なAIアクセスを提唱することの必要性について検討する。この提言は、教育機関、コミュニティ組織、企業、個人、政策立案者、政府など、幅広いステークホルダーを対象としている。 主な目的は、このような新たな変化に直面して、より多くの情報を得、関与し、レジリエンスに富む社会を育成することである。
22 Prioritize social progress in generative AI development and adoption 22 生成的AIの開発と採用において、社会の進歩を優先する。
All stakeholders must ensure that the technology’s societal implications remain front and centre. This  involves a focus beyond technical proficiency towards the technology’s role in enhancing social progress.  Comprehensive support must be provided to communities and workers affected by the shift to an AI-enabled society, encompassing learning initiatives, guidance on surmounting generative AI-specific challenges and assistance in navigating the ethical, social and technical shifts inherent in an AI-influenced environment with an active participation of workers throughout the process. すべてのステークホルダーは、技術の社会的な影響が常に前面に出てくるようにしなければならない。これには、技術的な熟練度を超えて、社会的進歩を促進する技術の役割に焦点を当てることが含まれる。 学習イニシアティブ、生成的AI特有の課題を克服するためのガイダンス、AIに影響された環境に固有の倫理的、社会的、技術的なシフトをナビゲートするための支援を含む、包括的なサポートが、AI対応社会へのシフトによって影響を受けるコミュニティと労働者に提供されなければならず、プロセスを通じて労働者が積極的に参加する。
23 Drive AI literacy across society 23 社会全体のAIリテラシーを向上させる
Educational bodies and community institutions must take the initiative to increase AI literacy among the general public. A proactive approach is needed to demystify generative AI tools, outline their potential uses and discuss their ethical implications. This will empower individuals to better understand, interact with and contribute to the evolving landscape of AI, fostering a more informed and participative society. 教育機関やコミュニティ機関は、一般市民のAIリテラシーを向上させるためのイニシアチブを取る必要がある。生成的AIツールを神秘化し、その潜在的な用途を概説し、その倫理的意味を議論する積極的なアプローチが必要である。これにより、個人がAIの進化する状況をよりよく理解し、交流し、貢献できるようになり、より情報に基づいた参加型の社会が育まれる。
24 Foster holistic thought approaches in AI-driven environments 24 AI主導の環境において、全体的な思考アプローチを育成する。
Foster diverse modes of thinking – critical, computational and responsible – to better equip society for the generative AI era. Encourage these core competencies across sectors and communities to empower individuals to engage critically with AI-generated content, understand the underlying technology and make responsible decisions about its use. 生成的AI時代に向けて社会をよりよく装備するために、批判的、計算的、責任的といった多様な思考様式を育成する。生成的AIコンテンツに批判的に関与し、基礎となる技術を理解し、その使用について責任ある決定を下すことができるように、部門やコミュニティを越えてこれらのコアコンピテンシーを奨励する。
25 Steer generative AI’s transformative impact  25 生成的AIの変革的影響に舵を切る 
Address the transformative influence of generative AI on societal systems. Understand its effect on human interactions, knowledge dissemination and evaluation mechanisms. Proactively adapt to the evolving landscape, supporting roles that may transform due to generative AI, and explore innovative ways to evaluate its impacts within our rapidly evolving digital ecosystem, to harness its potential for driving positive societal transformation. 生成的AIが社会システムに与える変革的影響に対処する。人間の相互作用、知識の普及、評価メカニズムへの影響を理解する。進化する状況に積極的に適応し、生成的AIによって変化する可能性のある役割をサポートし、急速に進化するデジタルエコシステム内でその影響を評価する革新的な方法を模索し、社会のポジティブな変革を促進する潜在力を活用する。
26 Incentivize innovation for social good  26 ソーシャルグッドのためのイノベーションにインセンティブを与える 
Policy-makers should encourage the development and implementation of generative AI technologies that prioritize social good and address complex and unmet societal needs, such as in healthcare and climate change, to improve the overall quality of life.  政策立案者は、社会的利益を優先し、ヘルスケアや気候変動など、複雑で満たされていない社会的ニーズに対応し、生活の質全体を向上させる生成的AI技術の開発と実装を奨励するべきである。
27 Address resource and infrastructure disparities  27 資源とインフラの格差に対処する 
Policy-makers should increase public investment in national and international research infrastructure. That includes work to ensure greater access to computing resources for researchers, especially those from underrepresented regions and institutions. The private sector is encouraged to contribute to the development of datasets and support governments in making more resources available to researchers. 政策立案者は、国内および国際的な研究インフラへの公共投資を増加させるべきである。これには、研究者、特に代表的でない地域や機関の研究者がコンピューティングリソースをより多く利用できるようにするための取り組みも含まれる。民間部門は、データセットの開発に貢献し、研究者がより多くのリソースを利用できるようにするために政府を支援することが推奨される。
28 Promote generative AI expertise within governments  28 政府内で生成的 AI の専門知識を促進する。
Governments should invest in fostering AI expertise, ensuring an informed, effective and responsible approach to public policies and regulation of these transformative technologies. By leveraging mechanisms such as targeted incentives, private sector collaborations, and exchange programs, governments can nurture AI talent. This commitment while expanding in-house AI proficiency is crucial in securing a future where these technologies advance societal progress and serve the public interest effectively. 政府は、AIの専門知識の育成に投資し、これらの変革的な技術に関する公共政策や規制に対して、情報に基づいた効果的かつ責任あるアプローチを確保すべきである。政府は、対象を絞ったインセンティブ、民間企業との連携、交換プログラムなどのメカニズムを活用することで、AIの才能を育成することができる。社内のAI習熟度を高めながらこのような取り組みを行うことは、これらの技術が社会の進歩を促進し、公益に効果的に貢献する未来を確保する上で極めて重要である。
29 Increase equitable access to AI in developing countries  29 発展途上国におけるAIへの公平なアクセスを増加させる。
To ensure that the benefits of generative AI technology are accessible to all, public and private stakeholders should focus on establishing initiatives that can provide support and resources at scale, particularly in developing countries where there may be limited access to digital infrastructures. Efforts should focus on providing resources, training, and expertise to make AI more accessible and inclusive, fostering national and international partnerships across sectors to promote diversity and inclusion in the development and deployment of generative AI technology. 生成的AI技術の恩恵をすべての人が受けられるようにするため、官民のステークホルダーは、特にデジタルインフラへのアクセスが限られている発展途上国において、大規模な支援とリソースを提供できるイニシアティブの確立に注力すべきである。AIをより身近で包括的なものにするためのリソース、トレーニング、専門知識の提供に焦点を当て、生成的AI技術の開発と展開における多様性と包摂を促進するために、部門を超えた国内および国際的なパートナーシップを促進する取り組みが必要だ。
30 Preserve cultural heritage  30 文化遺産を保護する 
All stakeholders need to contribute to preserve cultural heritage. Public and private sector should invest in creating curated datasets and developing language models for underrepresented languages, leveraging the expertise of local communities and researchers and making them available. This will improve access to AI technologies to help preserve linguistic diversity and cultural heritage. すべてのステークホルダーは、文化遺産の保護に貢献する必要がある。官民は、地域コミュニティや研究者の専門知識を活用し、キュレーションデータセットの作成と代表的でない言語の言語モデルの開発に投資し、それらを利用できるようにすべきである。これにより、言語多様性と文化遺産の保護に役立つAI技術へのアクセスが向上する。

 

 

|

« 世界経済フォーラム (WEF) 暗号資産規制への道筋: グローバルアプローチ (2023.05.25) | Main | 個人情報保護委員会 「第3回G7データ保護・プライバシー機関ラウンドテーブル会合」共同コミュニケ、生成AIに関する生命、行動計画 »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 世界経済フォーラム (WEF) 暗号資産規制への道筋: グローバルアプローチ (2023.05.25) | Main | 個人情報保護委員会 「第3回G7データ保護・プライバシー機関ラウンドテーブル会合」共同コミュニケ、生成AIに関する生命、行動計画 »