カナダ サイバーセキュリティセンター 人工知能 - ITSAP.00.040
こんにちは、丸山満彦です。
カナダのサイバーセキュリティセンターが、AIについてのガイダンス(啓発シリーズ)を作成していますね。。。
簡潔にまとまっていて、参考になりますね。。。
● Canada.ca - Canadian Centre for Cyber Security - Cyber security guidance
・2022.08.10 Artificial Intelligence - ITSAP.00.040
・[PDF]
Artificial Intelligence - ITSAP.00.040 | 人工知能 - ITSAP.00.040 |
Awareness series | 啓発シリーズ |
The world we live in is being transformed by Artificial Intelligence (AI). This developing technology uses intelligent computer programs (i.e. learning algorithms) to find complex patterns in data to make predictions or classifications. AI is used today to perform specific tasks, such as to use facial recognition to access your mobile device or ask your smart speaker for the weather forecast. Machine learning, a subset of artificial intelligence, uses instructions, known as algorithms, and data to understand languages to help the computer system learn and improve based on its own experience. Deep learning, a subset of machine learning that uses vast volumes of data and a layered structure of algorithms referred to artificial neural network algorithms to train a model to make intelligent decisions on its own. | 我々の住む世界は人工知能(AI)によって変貌しつつある。この発展途上のテクノロジーは、インテリジェントなコンピューター・プログラム(すなわち学習アルゴリズム)を使用して、データから複雑なパターンを見つけ出し、予測や分類を行う。AIは今日、顔認識を使ってモバイル・デバイスにアクセスしたり、スマート・スピーカーに天気予報を尋ねるなど、特定のタスクを実行するために使われている。人工知能のサブセットである機械学習は、アルゴリズムとして知られる命令とデータを使用して言語を理解し、コンピューターシステムが自身の経験に基づいて学習し改善するのを助ける。ディープラーニング(深層学習)は機械学習のサブセットで、膨大な量のデータと、人工ニューラルネットワークアルゴリズムと呼ばれるアルゴリズムの階層構造を用いて、モデルが自ら知的な判断を下すように訓練する。 |
What can AI do? | AIは何ができるのか? |
AI already plays a big role in our everyday lives. From search engines to online shopping to voice assistants on our mobile device or smart speaker, AI provides recommendations, information, answers to questions, and helps to organize our schedules. These daily applications create data and feedback for machine learning tools to learn and improve from. | AIはすでに私たちの日常生活で大きな役割を果たしている。検索エンジンからオンラインショッピング、携帯端末やスマートスピーカーの音声アシスタントに至るまで、AIは推奨事項や情報、質問への回答を提供し、スケジュールの整理を助けてくれる。これらの日常的なアプリケーションは、機械学習ツールが学習し改善するためのデータとフィードバックを生み出す。 |
What can’t AI do today? | 今日、AIは何ができないのか? |
A few fundamental limitations still exist for AI today. Using reasoning or common sense, and adapting to different situations, and understanding cause and effect are all quite difficult for AI. Humans, with their judgement and insight, are still better able to handle situations that require these types of problem solving and decision making skills. | 今日でもAIにはいくつかの基本的な限界が存在する。推論や常識を用いること、異なる状況に適応すること、原因と結果を理解することは、すべてAIにとって非常に難しいことだ。判断力や洞察力のある人間の方が、こうした問題解決や意思決定のスキルを必要とする状況に対処できる。 |
What are some of the ways in which organizations are using AI? | 組織がAIを活用する方法にはどのようなものがあるか? |
Facial recognition: A leading application of AI that looks at facial features in an image or video to identify or verify the individual. | 顔認識: 画像やビデオの顔の特徴を見て、個人を識別・確認するAIの代表的なアプリケーション。 |
Process optimization: A properly trained machine learning tool (one learning from accurate data) can use the data to give more accurate solutions and perform mundane tasks faster than a human can. | プロセスの最適化: 適切に訓練された機械学習ツール(正確なデータから学習するもの)は、データを使用してより正確なソリューションを提供し、人間よりも速く平凡なタスクを実行することができる。 |
Digital Assistants: Chat or voice bots can improve customer service and reduce support costs. Customers can receive help within seconds—24 hours a day, seven days a week. These services are often highly personalized and can be based on a user’s preferences and history with the organization. | デジタル・アシスタント: チャットや音声ボットは、顧客サービスを改善し、サポートコストを削減することができる。顧客は1日24時間、年中無休で、数秒以内にサポートを受けることができる。これらのサービスは高度にパーソナライズされていることが多く、ユーザーの好みや組織との取引履歴に基づくことができる。 |
Healthcare: In the medical industry, AI aids in patient diagnosis and treatment in a variety of ways, such as computer-aided diagnostic systems that assist in making a diagnosis. Machine learning in precision medicine is another highly useful tool and is used to help predict which treatments are most likely to succeed on a patient. | ヘルスケア: 医療業界では、AIは様々な方法で患者の診断と治療を支援している。例えば、診断を支援するコンピューター支援診断システムなどである。精密医療における機械学習も非常に有用なツールであり、どの治療法が患者にとって最も成功しやすいかを予測するのに役立てられている。 |
Fraud detection: Sophisticated machine learning tools can detect fraudulent emails faster than a human can. These tools sort through your inbox and move spam and phishing emails to your junk folder. | 不正検知: 洗練された機械学習ツールは、人間よりも早く詐欺メールを検知することができる。これらのツールは受信トレイを選別し、スパムやフィッシングメールを迷惑メールフォルダーに移動させる。 |
Data analysis: Using machine learning algorithms, AI is capable of analyzing large amounts of data and discover new patterns. This greatly reduces the processing time spent by a data analyst, known as automation, and improves business performance. | データ分析: 機械学習アルゴリズムを使用することで、AIは大量のデータを分析し、新しいパターンを発見することができる。これにより、自動化と呼ばれるデータアナリストの処理時間が大幅に短縮され、業績が改善される。 |
Cybersecurity: AI is useful in detecting new threats to organizations through automation. By using sophisticated algorithms, AI are able to automate threat detection such as malware, run pattern recognition to find relationships between different attack vectors and provides superior predictive intelligence. | サイバーセキュリティ: AIは自動化によって組織に対する新たな脅威を検知するのに役立つ。高度なアルゴリズムを使用することで、AIはマルウェアなどの脅威検知を自動化し、パターン認識を実行して異なる攻撃ベクトル間の関係を見つけ、優れた予測インテリジェンスを提供することができる。 |
What are the threats of AI tools? | AIツールの脅威とは何か? |
AI tools are often only as good as the data model they rely upon. The main threats to AI come from compromises to its data. Common methods of compromise include: | AIツールは多くの場合、依拠するデータモデルと同程度の性能しか持たない。AIに対する主な脅威は、データに対する侵害から来る。一般的な侵害方法には以下のようなものがある: |
Data poisoning attack: This type of attack occurs at a machine learning tool’s training phase. AI tools rely heavily on accurate data for training. When poisoned (inaccurate) data is injected into the training data set, the poisoned data can lead the learning system to make mistakes. | データポイズニング攻撃: この種の攻撃は、機械学習ツールの学習段階で発生する。AIツールは、学習のための正確なデータに大きく依存している。ポイズニングされた(不正確な)データがトレーニングデータセットに注入されると、ポイズニングされたデータによって学習システムがミスを犯す可能性がある。 |
Adversarial example: This type of attack occurs after the machine learning tool is trained. The tool is fooled into classifying inputs incorrectly. For example, in the case of autonomous vehicles, an adversarial example could be a slight modification of traffic signs in the physical world (subtle fading or stickers applied to a stop sign), causing the vehicle’s AI system to misclassify a stop sign as a speed-limit sign. This could seriously impact the safe operation of self-driving vehicles. | 敵対的な例: このタイプの攻撃は、機械学習ツールの学習後に発生する。機械学習ツールは騙されて入力を誤って分類してしまう。例えば、自律走行車の場合、敵対的な例として、物理世界における交通標識のわずかな修正(微妙な色あせや、一時停止標識に貼られたステッカー)により、車両のAIシステムが一時停止標識を速度制限標識と誤分類してしまうことが考えられる。これは自動運転車の安全運転に深刻な影響を与える可能性がある。 |
Model inversion and membership inference attacks: both of these scenarios occur when a threat actor queries your organization’s data model. A model inversion attack will reveal the underlying data set, allowing the threat actor to reproduce the training data. A membership inference attack confirms if a specific data file is part of the training data. Both model inversion and membership inference attacks could compromise the confidentiality and privacy of your training data and expose sensitive information. | モデル反転攻撃とメンバシップ推論攻撃:これらのシナリオはいずれも、脅威行為者が組織のデータモデルにクエリを発行する際に発生する。モデル反転攻撃は、基礎となるデータセットを明らかにし、脅威行為者が学習データを再現できるようにする。メンバーシップ推論攻撃は、特定のデータファイルがトレーニングデータの一部であるかどうかを確認する。モデル反転攻撃とメンバーシップ推論攻撃はどちらも、トレーニングデータの機密性とプライバシーを侵害し、機密情報を暴露する可能性がある。 |
What else should you know about AI? | AIについて他に知っておくべきことは? |
Machine learning tools can detect patterns in data. | 機械学習ツールはデータのパターンを検知することができる。 |
Machine learning tools need enough data to see the patterns at a high enough frequency. | 機械学習ツールは、十分な頻度でパターンを見るために十分なデータを必要とする。 |
Data used for training should be complete, diverse, and accurate. | トレーニングに使用するデータは、完全で、多様で、正確でなければならない。 |
・If there are blanks in the data, some patterns might not be discovered, and the patterns that are found might not be accurate. | ・データに空白があれば、いくつかのパターンが発見されないかもしれないし、発見されたパターンも正確ではないかもしれない。 |
・If the data used is not diverse, the tool will have a narrow scope. | ・使用するデータが多様でなければ、ツールの適用範囲は狭くなる。 |
・If the training data used is not accurate, the tool will provide unreliable results. | ・使用されるトレーニングデータが正確でなければ、ツールは信頼できない結果を提供することになる。 |
Data that is recorded and collected for “quality control” purposes can contain both sensitive and personal information. | 品質管理」目的で記録・収集されるデータには、機密情報や個人情報が含まれている可能性がある。 |
Many organizations are now using trustworthy AI policies to ensure that their use of AI tools minimize potential biases and unintended consequences, especially regarding the treatment of individuals. Policies may also assist in the development of appropriate protocols for the handling of sensitive and personal information An example of an AI policy is the Government of Canada’s recently adopted Directive on Automated Decision-Making. | 現在、多くの組織が信頼できるAIポリシーを使用して、AIツールの使用によって、特に個人の扱いに関する潜在的なバイアスや意図しない結果を最小限に抑えるようにしている。ポリシーはまた、機密情報や個人情報の取り扱いに関する適切なプロトコルの策定を支援することもある。AIポリシーの例としては、カナダ政府が最近採択した「自動意思決定に関する指令」がある。 |
If your organization intends to deploy AI, it should consider seeking legal advice to manage the many ethical, privacy, policy, and legal considerations that come from using AI. | あなたの組織がAIを導入するつもりなら、AIの使用から生じる多くの倫理的、プライバシー的、政策的、法的な考慮事項を管理するために、法的助言を求めることを検討すべきである。 |
« 英国 情報コミッショナーオフィスと国家サイバーセキュリティセンターが事務弁護士にランサムウェアの身代金の支払いに歯止めをかけるように依頼 (2022.07.07) | Main | 英国政府 データ倫理・イノベーションセンター「自動運転車における責任あるイノベーション」 »
Comments