欧州 EU欧州対外活動庁 人工知能時代に事実を正しく伝えるために
こんにちは、丸山満彦です。
ChatGPTの登場により、AIについての注目がさらに集まるようになりましたね(期待も不安も含めて)。。。要は社会的にインパクトがあるものは、使い方しだいということだと思います。。。火薬、原子力、遺伝子操作も、、、まぁ技術というものはそういうものかもしれません。。。
イーロンマスク氏等が、世界中のAI研究所に対し、大規模なAIシステムの開発を一時停止するよう求める生命未来研究所 (Future of Life Institulte) の公開書簡に署名し、このソフトウェアがもたらす「社会と人類への重大なリスク」に対する懸念を表明し、話題になりましたよね。。。
さて、EU欧州対外活動庁が、人工知能時代に事実を正しく伝える(受け取る)ための留意点を公開していますね。。。
⚫︎ EU - EUROPEAN EXTERNAL ACTION SERVICE
・2023.04.02 Getting your facts straight in the era of Artificial Intelligence
Getting your facts straight in the era of Artificial Intelligence | 人工知能時代に事実を正しく伝えるために |
Artificial Intelligence promises to revolutionise the way we use the internet and digital services. But it also has a dark side we need to keep in check. | 人工知能は、我々のインターネットやデジタルサービスの使い方に革命をもたらすと期待されている。しかし、それは我々が抑えなければならない暗黒面も持っている。 |
The arrival of next-generation Artificial Intelligence (AI) technology services such as ChatGPT and Google Bard provide unprecedented opportunities as well as challenges. Amongst these is the risk of the misuse of AI for information manipulation. | ChatGPTやGoogle Bardのような次世代の人工知能(AI)技術サービスの登場は、前例のないチャンスと同時に、課題ももたらす。なかでも、AIが情報操作に悪用されるリスクは大きい。 |
In a world dominated by the overabundance of information, separating fact from fiction can be very challenging. The reach of ubiquitous social media platforms like Facebook, YouTube, TikTok and Instagram, to name a few, means the global information environment is increasingly complex. | 情報が氾濫する世界では、事実と虚構を区別することは非常に難しいことである。Facebook、YouTube、TikTok、Instagramなど、ユビキタスなソーシャルメディア・プラットフォームの普及により、世界の情報環境はますます複雑になっている。 |
Fact-checkers are now confronted with what is potentially the mass production of synthetic ‘facts’ generated by computers using AI software. A number of top tech entrepreneurs and leading AI researchers have gone so far as to call for a pause on the rush to launch large scale AI services until we understand more about its potential effects and before we have robust regulation in place. | ファクトチェッカーは今、AIソフトウェアを使ってコンピュータが生成した合成「事実」の大量生産に直面する可能性がある。多くのトップクラスの技術起業家や主要なAI研究者は、その潜在的な影響についてより理解し、強固な規制が整備される前に、大規模なAIサービスの開始を急ぐことを一時停止するよう呼びかけるまでに至っている。 |
A European approach to artificial intelligence | 人工知能に対するヨーロッパのアプローチ |
While Artificial Intelligence (AI) will be a great boost to research science and industry, Digital Services Act (DSA) and Digital Market Act (DMA) aims to protect the fundamental rights of all users for a trustworthy information environment. | 人工知能(AI)は科学や産業の研究を大きく後押しするものであるが、デジタルサービス法(DSA)とデジタル市場法(DMA)は、信頼できる情報環境のためにすべての利用者の基本的権利を保護することを目的としている。 |
The DSA will provide legal protections to ensure the internet remains a fair and open environment both for communication and for trade. The manipulation of information has a huge impact on our daily lives and will continue as digital services develop and grow. | DSAは、インターネットが通信と貿易の双方において公正でオープンな環境であり続けるための法的保護を提供す。情報操作は我々の日常生活に大きな影響を与え、デジタルサービスの発展や成長に伴って今後も続くであろう。 |
· Follow the link to learn more about creating a safer digital space with Digital Services Act | ・デジタルサービス法による安全なデジタル空間の構築について詳しくは、こちら。 |
· Follow the link to learn more about the European approach to artificial intelligence. | ・リンクをたどると人工知能に対するヨーロッパのアプローチについてさらに理解できる。 |
The current generation of AI technology has demonstrated the ability to produce seemingly plausible conversational content and well-written essays on a wide range of topics in just a few seconds. | 現世代のAI技術は、一見もっともらしい会話内容や、さまざまなトピックについてよく書かれたエッセイを、わずか数秒で作成する能力を実証している。 |
AI can also be used to fabricate images and videos that are engaging enough to go viral and spread rapidly on social media. Whether depicting a celebrity in unexpected situations or portraying a political leader as doing something provocative, for example, these computer-generated illusions easily distort our perceptions of reality. | また、AIは、ソーシャルメディア上で急速に拡散されるほど魅力的な画像や動画を捏造することも可能である。例えば、有名人が予期せぬ状況に陥っている様子を描いたり、政治家が挑発的なことをしているように描いたりする場合、こうしたコンピューターが作り出す幻影は、我々の現実認識を容易に歪めてしまう。 |
The large volume of content coming through social media platforms means it is very difficult to fact check everything. In contrast, providing reliable, factual information takes a lot more time and effort than spreading sensational claims or falsehoods. | ソーシャルメディアには大量のコンテンツが存在するため、すべてをファクトチェックすることは非常に困難である。一方、事実に基づいた信頼できる情報を提供することは、センセーショナルな主張や虚偽を広めることよりも多くの時間と労力を必要とす。 |
If used with malicious intent, AI has the potential to flood the information environment with false narratives generated on an industrial scale, overwhelming the public discourse. | 悪意を持って使用された場合、AIは産業規模で生成された偽の物語で情報環境を溢れさせ、公共の言論を圧倒する可能性がある。 |
AI can and will be used for good in countless ways, but only if we remain on guard for untruths generated by AI technology. | しかし、我々がAI技術によって生み出される真実でない情報に対して警戒を怠らなければ、AIは数え切れないほど良い方向に利用される可能性もある。 |
Things are moving incredibly fast and more and more fact-checking AIs are in the pipeline but, in the meantime, there are some techniques that are helpful to test the authenticity of all types of online information, including AI-generated or not. | 物事は信じられないほど速く進み、より多くのファクトチェックAIが登場しているが、それまでの間、AIが生成したものであるかどうかを含め、あらゆる種類のオンライン情報の真偽を検証するのに役立つテクニックがいくつかある。 |
Five ways to check online content | オンラインコンテンツのチェックに役立つ5つの方法 |
1. Breathe. Allow your fast-acting emotional response to pass. Take the time to engage your critical thinking skills. | 1. 深呼吸をする。即効性のある感情的な反応を通過させる。時間をかけて批判的思考力を働かせましょう。 |
2. Remember the rule of thumb that, if it’s too good (or bad) to be true, it’s probably not true. | 2. あまりにも良い(または悪い)ことが真実である場合、それはおそらく真実ではない、という経験則を思い出してください。 |
3. Seek a second source. Cross-reference using a reliable news provider. | 3. 第二の情報源を探す。信頼できるニュースプロバイダーを使って、相互参照する。 |
4. When in doubt, advanced searches are available on most search engines. For example, an image search will reveal if a picture was ever posted previously in another context. | 4. 疑わしい場合は、ほとんどの検索エンジンで高度な検索を行うことができる。例えば、画像検索を使えば、その写真が以前に別の文脈で投稿されたことがあるかどうかがわかる。 |
5. Use an AI fact-checking service. One way to catch an AI is to use another AI which looks for tell-tale patterns that indicate if the content was AI-generated. Services such as Deepware can be used to detect ‘deepfake’ videos. | 5. AIファクトチェック・サービスを利用する。AIを捕まえる方法の1つは、コンテンツがAIによって生成されたものであるかどうかを示す特徴的なパターンを探す別のAIを使用することである。Deepwareのようなサービスは、「ディープフェイク」ビデオを検出するために使用することができる。 |
例の署名....
日本時間 2023.04.03 09:51 現在で2,962名の署名があつまっていますね。。。
・2022.03.22 Pause Giant AI Experiments: An Open Letter
Pause Giant AI Experiments: An Open Letter | 巨大なAI実験を一時停止せよ: 公開書簡 |
We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. | 我々は、すべてのAIラボに対して、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止することを求める。 |
AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control. | 人間並みの知能を持つAIシステムは、社会と人類に重大なリスクをもたらす可能性があることは、広範な研究[1]で示され、トップAIラボが認めている[2]。 広く支持されているAsilomar AI Principlesにあるように、高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の注意とリソースをもって計画・管理されるべきです。しかし、残念ながら、このレベルの計画と管理は行われていません。ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、これまで以上に強力なデジタルマインドを開発し展開するための制御不能な競争に陥っています。 |
Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now. | 現代のAIシステムは、一般的なタスクにおいて人間並みの能力を発揮するようになりつつあり[3]、我々は自問自答しなければならない: 我々は、機械が我々の情報チャネルをプロパガンダや真実でないもので溢れさせるべきでしょうか? 充実した仕事も含めて、すべての仕事を自動化すべきなのか? 我々は、やがて我々よりも数が多く、賢く、時代遅れで、我々に取って代わるかもしれない非人間的な精神を開発すべきなのか? 我々は、文明のコントロールを失うリスクを冒すべきなのか?そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。 強力なAIシステムは、その効果がポジティブであり、リスクマネジメントが可能であると確信できる場合にのみ開発されるべきである。 この自信は十分に正当化されなければならず、システムの潜在的な影響の大きさに応じて増大するものでなければならない。OpenAIの人工一般知能に関する最近の声明では、「ある時点で、将来のシステムの訓練を開始する前に独立したレビューを受け、最も進んだ取り組みでは、新しいモデルの作成に使用する計算機の成長速度を制限することに合意することが重要かもしれない 。我々は同意する。それは今である。」 |
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium. | したがって、我々はすべてのAI研究所に対して、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止することを求める。この一時停止は、公開され、検証可能であり、すべての主要な関係者を含むものでなければならない。このような一時停止が迅速に実施できない場合は、政府が介入してモラトリアムを実施する必要がある。 |
AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities. | AI研究所と独立した専門家は、この休止期間を利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計・開発に関する一連の共有安全プロトコルを共同で開発・実施すべきである。これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならない[4]。これは、AI開発全般の休止を意味するものではなく、出現する能力を持つ予測不可能なブラックボックスモデルをますます大きくする危険な競争から一歩後退することを意味している。 |
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal. | AIの研究開発は、今日の強力な最先端システムを、より正確で安全、解釈可能、透明、堅牢、連携、信頼、忠実なものにすることに再注目されるべきである。 |
In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause. | これと並行して、AI開発者は政策立案者と協力して、強固なAIガバナンスシステムの開発を劇的に加速させなければならない。これには少なくとも、AIに特化した新しく有能な規制当局、高度な能力を持つAIシステムと大規模な計算能力のプールの監視と追跡、本物と合成を区別しモデルの流出を追跡するための証明と電子透かしシステム、堅牢な監査と認証エコシステム、AIによる被害に対する責任、AI安全技術研究に対する強固な公的資金、AIが引き起こす経済的・政治的混乱(特に民主主義の)に対処するための十分にリソースを確保した制度、などが含まれるはずである。 |
Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5] We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall. | 人類は、AIによって豊かな未来を享受できる。強力なAIシステムの創造に成功した今、我々は「AIの夏」を楽しむことができる。この夏、我々は報酬を受け取り、すべての人の明確な利益のためにこれらのシステムを設計し、社会に適応する機会を与えることができる。社会は、社会に壊滅的な影響を与える可能性のある他の技術に対して一時停止を行った[5]。 我々は、ここでそうすることができる。 準備不足のまま秋に突入するのではなく、長いAIの夏を楽しもう。 |
Notes and references | 注釈と参考文献 |
[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623). | [1] ベンダー,E. M., ゲブル,T., マクミラン=メジャー,A., & シュミッチェル,S. (2021, March). ストキャスティック・オウムの危険性について: 言語モデルは大きすぎることはないのか🦜. Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623). |
Bostrom, N. (2016). Superintelligence. Oxford University Press. | ボストロム、N. (2016). スーパーインテリジェンス』(Superintelligence).オックスフォード大学出版局。 |
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129). | Bucknall, B. S., & Dori-Hacohen, S. (2022, July). 潜在的な存在リスク要因としての現在および近未来のAI。 Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129). |
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353. | カールスミス、J. (2022). パワーシーク型AIは実存的リスクか...arXiv preprint arXiv:2206.13353. |
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company. | クリスチャン、B. (2020). アライメント問題:機械学習と人間の価値観. ノートン・アンド・カンパニー |
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293). | コーエン,M.ら(2022). 報酬の提供に介入する高度な人工エージェント. AI Magazine, 43(3) (pp. 282-293). |
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. | Eloundou, T., et al. (2023). GPTはGPTである: 大規模言語モデルの労働市場インパクトの可能性を早見表. |
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862. | ヘンドリクス、D.、&マゼイカ、M.(2022). AI研究のためのXリスク分析.arXiv preprint arXiv:2206.05862. |
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626. | Ngo, R. (2022). ディープラーニングの観点からのアライメント問題.arXiv preprint arXiv:2209.00626. |
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking. | ラッセル、S. (2019). ヒューマンコンパチブル: 人工知能と制御の問題(Artificial Intelligence and the Problem of Control). ヴァイキング |
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf. | テグマーク、M. (2017). ライフ3.0: 人工知能の時代における人間であること(Being Human in the Age of Artificial Intelligence). Knopf. |
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359. | Weidinger, L. et al (2021). 言語モデルによる危害の倫理的・社会的リスク. arXiv preprint arXiv:2112.04359. |
[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News. | [2] オルドネス,V.ら(2023年3月16日). OpenAI社CEOサム・アルトマン氏、AIが社会を再形成すると述べ、リスクを認める「少し怖い」。ABC ニュース. |
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time. | ペリゴ、B. (2023, January 12). DeepMind CEO Demis Hassabis、AIに注意喚起。Time. |
[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712. | [3] ブベック,S.他(2023). 人工一般知能の火花: GPT-4による初期実験. arXiv:2303.12712. |
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774. | OpenAI (2023). GPT-4 テクニカルレポート. arXiv:2303.08774. |
[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk". | [4] 例えば、広く採用されているOECDのAI原則は、AIシステムが「適切に機能し、不当な安全リスクをもたらさない」ことを求めている。 |
[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics. | [5] 例えば、ヒトクローン、ヒト生殖細胞系列改変、機能獲得研究、優生学などである。 |
« 米国 米サイバー軍 科学・技術・サイバースペースの未来に図らずも挑戦した女性たち | Main | ENISA 先見の明 2030年に向けたサイバーセキュリティの脅威 (2023.03.29) »
Comments