« PCAOB + SEC After Roundtable | Main | IPA 情報システム等の脆弱性情報の取扱いに関する研究会報告書 »

2006.05.19

経済産業省 ロボット政策研究会報告書

 こんにちは、丸山満彦です。経済産業省から、「ロボット政策研究会 報告書」が公表されていますね。

■経済産業省
・2006.05.16 「ロボット政策研究会 報告書」の公表について
・・「ロボット政策研究会 報告書」の公表について(PDF形式:19KB)
・・ 「ロボット政策研究会 報告書」(PDF形式:1,850KB)
 
■目次です。
はじめに
第1章 ロボットに関する認識と検討の視点
 1-1 ロボット産業を巡る社会・経済環境~なぜ、いま、RT に注目するのか~
 1-2 ロボット産業、技術及び政策の現状
 1-3 本研究会における検討の視点
第2章 次世代ロボットの市場環境の整備
 2-1 メーカーとユーザーの連携による実用化に向けた取組み
 2-2 ロボット事業の関連事業者の取組み
 2-3 期待される地方自治体の取組み ~きめ細かい支援~
 2-4 ロボットに関わる人材の育成
第3章 次世代ロボットの安全性の確保
 3-1 ロボットの安全性確保の現行の取組み
 3-2 安全性確保方策の検討の視点
 3-3 人間と共存するロボットの安全性確保の在り方 ~ロボット導入に「効用」があることが前提~
第4章 ミッション指向型のRT システムの開発
 4-1 ミッション指向型プロジェクトの基本的な考え方
 4-2 技術開発対象の検討における視点
 4-3 ミッション指向型の技術開発の進め方~競争原理を導入~
 4-4 課題解決を狙う7つのキー・ミッション
第5章 今後に向けて
 ロボット政策研究会 委員名簿
 ロボット政策研究会 ワーキンググループ 委員名簿
 技術戦略マップ改定タスクフォース 委員名簿
 参考資料

 次世代ロボットの安全性の確保というところですね・・・

 愛知万博におけるサービスロボットの安全性確保の取組みについての内容が興味深いです。
=====
(前略)「愛知万博のロボット安全性ガイドライン調査専門委員会」が設けられ、同委員会において、メーカーが作成した「安全仕様書」の審査等が行われた。
 具体的には、メーカーに対して、「事前の責任」として、ロボットの設計において「本質安全設計」の考え方を求め、想定される危険源に対して、安全設計及び安全防護策により十分リスクが低減できているかを評価した。それでもなお残るリスク(残留リスク)については、当該リスクによって可能性の残る危険性を回避するために、スタッフによる監視業務が無理なく遂行できるかという評価を行った。このような取組みにより、ロボットの安全性を確保した上で、万博会場での実証実験を行った。
=====

 万博で認識された課題としては、
=====
①事故時や安全性評価に不備があった場合の関係者(メーカー(部品やソフトウェア・メーカーを含む。)、ユーザー、保険事業者等)間の責任分担の明確化、
②ロボットの安全性評価を行う有識者の育成及び確保、
③実導入事例や安全性に係るデータの蓄積等
が挙げられた。
=====

 万博後のサービスロボット・メーカーの取組みについては、
=====
メーカーは、万博での実証実験や、家電製品などロボット以外の既存製品の開発経験等を活用しつつ、
①危険源の同定とリスクアセスメント、
②本質安全設計によるリスクの低減、
③ロボットの安全確保に資する技術の開発(モーターの小型化、転倒防止、障害物検知・回避等)、
④実証実験、
⑤ユーザー向けの安全に関する説明資料の作成やデモ等
に取組んでいる。また、比較的出力が大きい大型ロボットや無線を利用するロボットについては、メーカー独自の安全講習や免許制度を設けているケースもある。
しかしながら、産業用以外のロボットの安全性の評価については、現時点では世界的にも確立された基準がないため、メーカーは、機械安全の専門家等によるアドバイスや実証実験を通じて、評価手法を模索しているところである。
=====
 なるほど・・・


|

« PCAOB + SEC After Roundtable | Main | IPA 情報システム等の脆弱性情報の取扱いに関する研究会報告書 »

Comments

丸山様

こんにちは。

人類絶滅まで急速にタイムスケジュールが進んでしまったようですね。

「安全性確保」では駄目で,世界的な規模での開発禁止にすべきなんでしょうね。とは言っても誰も止められない。私が1997年に刊行した『ネットワーク社会の文化と法』にも書いてあるとおり,映画『ターミネータ』と同じですよ。

世の中,なんでこんなに無思慮な人たちばかりいるんだろうと思うと,本当に情けなくなります。人類の知性及び脳機能は大幅かつ急激に低下しているようです。

ロボットによって人類が絶滅させられる日がくる前に,人間として楽しむべきことを大いに楽しみ,花鳥風月を愛でながら気楽に生き,自分の戒名でも考えながら過ごすことにします。

Posted by: 夏井高人 | 2006.05.19 09:57

夏井先生、コメントありがとうございます。

戦争の主役もこれからはロボットになるのでしょうね。テレビアニメのように・・・

アメリカでは、無人戦車、無人爆撃機、無人戦闘機などの開発を進めているように聞いたことがあります。

Posted by: 丸山満彦 | 2006.05.20 11:23

丸山 様

こんにちは。

この問題に興味をお持ちの方には,手塚治虫さんの鉄腕アトムの中のエピソードの一つである『ガデム』をお読みになることをお勧めします。TVアニメ版の鉄腕アトムを当時のマーブルチョコのコマーシャル入りで再放送してくれないかなァ・・・(笑)

なお,『ネットワーク社会の文化と法』の中ではアシモフの3原則をソフトウェアの中に組み込む必要性があることを強調しました。でも,軍事用のロボットは一切の感情を持たない人殺しのための道具なので,軍としてはアシモフの3原則をインストールすることなんてあり得ないことですね。おそらく,自軍に対しては攻撃をしないようにある種の仕組みが組み込まれているのでしょうけど,そのためのプログラムを造っているのは人間なので意図的にまたは過失で何らかのバグが入り込むでしょう。自軍を絶対に攻撃しない軍事用ロボットを造ることはある意味で最初から不可能なことだろうと思います。

だから,「ガデム」なんですよ。(苦笑)

Posted by: 夏井高人 | 2006.05.20 12:32

夏井先生、コメントありがとうございます。
 「人間を殺せ・・・あれっ、そういえば自分も人間だ・・・」
 そして、「ガデム」と「ムデガ」

 アトムに限らず、手塚治虫さんの作品はどれもこれも、深い何かを感じさせてくれます。

 そういえば最近息抜きに星新一のショートショートを読んでいるんです。これもまた、いろいろと考えさせられますね。

 
=====
Isaac Asimov's "Three Laws of Robotics" -

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
=====

Posted by: 丸山満彦 | 2006.05.20 13:31

ロボットというと、アンドロイドお雪を思い出しますね。平井和正の作品だったと思いますが、中学の時に読み、いろいろと考えてしまいました。

Posted by: koneko04 | 2006.05.20 15:19

koneko04さん、コメントありがとうございます。
アンドロイドお雪、読んだことないです。今度、読んでみよう・・・。
そういえば、ロボコップだったか映画の話ですが、ロボットを作った映画会社の人に危害を加えられないようにプログラミングされていたけど、役員解任決議が可決した瞬間に攻撃できるようになった・・・という話がありましたね・・・。

Posted by: 丸山満彦 | 2006.05.21 08:34

Post a comment



(Not displayed with comment.)




TrackBack


Listed below are links to weblogs that reference 経済産業省 ロボット政策研究会報告書:

« PCAOB + SEC After Roundtable | Main | IPA 情報システム等の脆弱性情報の取扱いに関する研究会報告書 »