« JNSA 2023セキュリティ十大ニュース ~日本のサイバー社会を支える安心構造に破綻の予兆かも~ (2023.12.26) | Main | 欧州委員会 デジタルサービス法に基づく独立監査に関する委任規則 (2023.10.20) »

2023.12.29

Partnership on AI 責任あるAIのすすめ:2023年のPAIリソーストップ4

こんにちは、丸山満彦です。

2016年に設立され、世界(といっても米国中心ですが...)から113組織が加盟している、AIの責任ある利用に取り組む非営利団体のPartnership on AI; PAI;  [wikipedia]  が2023年を振り返って、発表した内容で特筆すべきものとして4点挙げています。。。

参加組織は113あるわけですが、日本企業という意味では、SONY(だけ)が参加していますね。。。設立はAmazonFacebookGoogleDeepMindMicrosoftIBMで、その後Appleも加盟しています。。。中国からも1団体(学術)が参加しています。

その中でも2月に発表した合成メディアの倫理的な開発と利用を導くことを目的としたフレームワークは確かに重要なものですね。。。私は発表当時見逃していたけど..(^^;)

生成AIがいろいろと話題になった2023年でしたが、AIで自由に本物らしい画像や音声が作れるようになると、報道機関の役割というのがより高まるように思います。組織的に情報の質を検証して発表していくわけですから。。。

普段のおもしろ情報はSNSでもよいのですが、いろいろと意思決定をするときに使う情報というのは、報道機関等により情報の質を検証されたものであることになるでしょうね。。。(フェイクニュース等を検証する団体も重要性が高まるように思いますが、本来的には報道機関がちゃんとしてれば問題ないんですけどね。。。)

ということで、報道機関も生成AIを敵視せずに上手く利用しつつ、自分等の本質的な価値を高めていってほしいかなぁ。。

ということで、これからは報道機関の重要性がさらに高まっていくように思います。。。

 

また、合否や人事といった人の評価に関わることにAIが利用されることになれば、説明可能性が必要となってきますが、その分野もこれから重要となってくるでしょうね。。。(今の人事制度等でも評価者の頭の中はブラックボックスですが、評価をする際には、その一部でもコメントとして表にでてきていますから。。。)。ということで、根拠を示しながら結論を示すというAIというのが重要となってくる局面が増えるでしょうね。。。

 

Partnership on AI - blog

・2023.12.20 Responsible AI Recommendations: Top Four PAI Resources of 2023

 

Responsible AI Recommendations: Top Four PAI Resources of 2023 責任あるAIのすすめ: 2023年のPAIリソーストップ4
Despite what many sci-fi movies may lead us to believe, we are not destined to live in a world where AI harms society for the benefit of a select few. While the risks are real, no technological future is fixed. If technology is to work for the benefit of all of humanity, it will need to be designed and deployed in dialogue with all stakeholders — and not treat their differing needs as an afterthought. 多くのSF映画が私たちを信じ込ませているにもかかわらず、私たちは、AIが一部の人間の利益のために社会を害するような世界に住む運命にはない。リスクは現実に存在するが、テクノロジーの未来が決まっているわけではない。テクノロジーが人類全体の利益のために機能するためには、すべてのステークホルダーとの対話の中で設計され、展開される必要がある。
With multistakeholder collaboration and responsible policymaking, we can build an equitable future empowered by AI. In that spirit, Partnership on AI, develops tools, resources, and recommendations, to change industry practice and ensure advancements in AI benefit people and society. マルチステークホルダーの協力と責任ある政策立案によって、我々はAIによって力を与えられた公平な未来を築くことができる。その精神に基づき、Partnership on AIは、業界の慣行を変え、AIの進歩が人々と社会に利益をもたらすことを確実にするためのツール、リソース、提言を開発する。
Over the course of 2023, we published four sets of recommended practices towards the following goals: 2023年の間に、我々は以下の目標に向けた4つの推奨事項を発表した:
・responsible development, creation, and sharing of synthetic media ・合成メディアの責任ある開発、作成、共有
・safe deployment of foundation models ・基盤モデルの安全な展開
・AI development and deployment that truly works for workers ・労働者のために真に機能するAIの開発と導入
・responsible AI adoption by news organizations ・報道機関による責任あるAIの採用
Through a collaborative process with our partner community, including AI practitioners, civil society experts, and academic researchers, among others, our team identifies actionable recommendations that, if adopted at scale, can prevent AI’s potential harms and expand its benefits. AIの実務家、市民社会の専門家、学術研究者など、我々のパートナー・コミュニティとの共同プロセスを通じて、我々のチームは、大規模に採用されれば、AIの潜在的な危害を防止し、その利益を拡大することができる実行可能な勧告を特定する。
The PAI recommendations released in 2023 aimed to: 2023年に発表されたPAIの提言は、以下を目的としている:
Set Real Rules for “Fake” Media 「フェイク」メディアに真のルールを設定する
AI-generated content, once the product of experimental research in computer science labs, has become a major engine of digital content creation. In February 2023, we launched PAI’s Responsible Practices for Synthetic Media, a framework on how to responsibly develop, create, and share synthetic media: the audiovisual content often generated or modified by AI. The Framework is the culmination of a year of consultation with PAI partners and collaborators, and 18 organizations, from OpenAI to TikTok to WITNESS, have signed on as Framework supporters. AIによって生成されたコンテンツは、かつてはコンピューターサイエンスの研究室における実験的研究の産物であったが、今やデジタルコンテンツ制作の主要なエンジンとなっている。2023年2月、我々はPAIの「合成メディアのための責任ある行動規範」を発表した。これは、責任を持って合成メディア(AIによって生成または修正されることの多い視聴覚コンテンツ)を開発、作成、共有する方法に関するフレームワークである。このフレームワークは、PAIのパートナーや協力者との1年にわたる協議の集大成であり、OpenAIからTikTok、WITNESSまで、18の組織がフレームワークのサポーターとして署名している。
Provide Custom Guidance for Model Deployers モデル展開者にカスタムガイダンスを提供する
Given the potentially far-reaching impacts of foundation models, we collaborated with our global community to develop PAI’s Guidance for Safe Foundation Model Deployment. This is a framework for model providers to responsibly develop and deploy foundation models across a spectrum of current and emerging capabilities, helping anticipate and address risks. We are currently accepting public comments on the Guidance; please submit feedback by Jan. 15, 2024. 財団モデルの潜在的な影響が広範囲に及ぶ可能性があることから、私たちはグローバルコミュニティと協力して、PAIの「安全な財団モデル展開のためのガイダンス」を開発した。これは、モデルプロバイダーが責任を持って、現在および今後出現する様々な機能の基盤モデルを開発・展開するための枠組みであり、リスクの予測と対処を支援するものである。現在、このガイダンスに関するパブリックコメントを受け付けている。
Make AI Work for Workers and the Economy AIを労働者と経済のために働かせる
AI has the potential to radically disrupt people’s economic lives in both positive and negative ways. It remains to be determined which of these we’ll see more of. AI developers, AI users, policymakers, labor organizations, and workers can all help steer AI so its economic benefits are shared by all. Using PAI’s Shared Prosperity Guidelines, these stakeholders can minimize the chance that individual AI systems worsen shared prosperity-relevant outcomes. We continue to seek input on the Guidelines; please get in touch to share feedback
.
AIは、ポジティブな意味でもネガティブな意味でも、人々の経済生活を根本的に破壊する可能性を秘めている。私たちがどちらをより多く目にすることになるかは、まだ確定していない。AI開発者、AIユーザー、政策立案者、労働団体、そして労働者は皆、AIがもたらす経済的利益を皆で分かち合えるよう、舵取りを支援することができる。PAIのシェアード・プロスぺリティ・ガイドラインを使えば、これらのステークホルダーは、個々のAIシステムがシェアード・プロスぺリティに関連する成果を悪化させる可能性を最小限に抑えることができる。ガイドラインに関するご意見を引き続き募集している。
Help News Organizations Responsibly Adopt AI 報道機関が責任を持ってAIを導入できるよう支援する
AI is already changing the way news is being reported. While many AI tools can benefit journalists and streamline processes, their use can present many risks. From potentially spreading misinformation to making biased statements, the cost — both literally and figuratively — of misusing AI in journalism can be high. AI Adoption for Newsrooms: A 10-Step Guide provides a step-by-step roadmap to support newsrooms navigating the difficult questions posed by AI tool identification, procurement, and use
.
AIはすでにニュース報道のあり方を変えつつある。多くのAIツールはジャーナリストに利益をもたらし、プロセスを合理化する一方で、その使用には多くのリスクが伴う。誤った情報を広める可能性から偏った発言をする可能性まで、ジャーナリズムにおけるAIの誤用がもたらす代償は、文字通りの意味でも比喩的な意味でも、高くつく可能性がある。ニュースルームのためのAI導入: A 10-Step Guide』は、AIツールの識別、調達、使用によってもたらされる困難な問題に対処するニュースルームを支援するための、段階的なロードマップを提供する。
* * * * * *
In the past year, we’ve seen policymakers and regulators around the globe seek to implement AI policies to protect citizens from potential AI harms. PAI’s recommendations provide important examples of practical guidance created with input from stakeholders across the AI ecosystem. 昨年、世界中の政策立案者や規制当局が、AIの潜在的な害悪から市民を守るためにAI政策を実施しようとしているのを目にした。PAIの提言は、AIエコシステム全体の利害関係者の意見を取り入れて作成された実践的なガイダンスの重要な例を示している。
We look forward to working with our community to implement and refine these recommendations in 2024. 我々は、2024年にこれらの提言を実施し、洗練させるためにコミュニティと協力することを楽しみにしている。

 

合成メディアの責任ある開発、作成、共有<

・2023.02.27 PAI’s Responsible Practices for Synthetic Media - A Framework for Collective Action

・[PDF

20231229-74132

 

 

基盤モデルの安全な展開

PAI’s Guidance for Safe Foundation Model Deployment - A Framework for Collective Action

・[PDF

20231229-74635

 

 

労働者のために真に機能するAIの開発と導入

・2023.06.07 Guidelines for AI and Shared Prosperity

・[PDF

20231229-75056

 

報道機関による責任あるAIの採用

・2023.11.14 AI Adoption for Newsrooms: A 10-Step Guide - A step by step guide to the responsible adoption of AI tools in newsrooms

・[PDF

20231229-75318

 

 


 

● 

 

 

|

« JNSA 2023セキュリティ十大ニュース ~日本のサイバー社会を支える安心構造に破綻の予兆かも~ (2023.12.26) | Main | 欧州委員会 デジタルサービス法に基づく独立監査に関する委任規則 (2023.10.20) »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« JNSA 2023セキュリティ十大ニュース ~日本のサイバー社会を支える安心構造に破綻の予兆かも~ (2023.12.26) | Main | 欧州委員会 デジタルサービス法に基づく独立監査に関する委任規則 (2023.10.20) »