<?xml version="1.0" encoding="utf-8" ?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
<channel>
<title>kattenayatsuraのブログ</title>
<link>https://ameblo.jp/kattenayatsura/</link>
<atom:link href="https://rssblog.ameba.jp/kattenayatsura/rss20.xml" rel="self" type="application/rss+xml" />
<atom:link rel="hub" href="http://pubsubhubbub.appspot.com" />
<description>ブログの説明を入力します。</description>
<language>ja</language>
<item>
<title>かfdヴァvd</title>
<description>
<![CDATA[ <p>dfヴァdvdf</p><p>&nbsp;</p><p>&nbsp;</p>
]]>
</description>
<link>https://ameblo.jp/kattenayatsura/entry-12401563245.html</link>
<pubDate>Fri, 31 Aug 2018 04:13:43 +0900</pubDate>
</item>
<item>
<title>猿と電球のハイブリット</title>
<description>
<![CDATA[ <p>あfdfdf</p>
]]>
</description>
<link>https://ameblo.jp/kattenayatsura/entry-12401563105.html</link>
<pubDate>Fri, 31 Aug 2018 04:09:01 +0900</pubDate>
</item>
<item>
<title>AIの規制　カッテなラム肉</title>
<description>
<![CDATA[ <p><b>AIに関する法的・倫理的規範策定の動向</b></p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p><b>各国・地域の動向の特徴</b></p><table cellpadding="0" cellspacing="0"><tbody><tr><td valign="top"><p>日本</p></td><td valign="top"><p>EU</p></td><td valign="top"><p>米国</p></td></tr><tr><td valign="top"><p>・公的機関</p><p>・国際的な共有を目指す</p><p>・ソフトロー</p></td><td valign="top"><p>・公的機関</p><p>・EU域内で統一基準</p><p>・ソフトローとハードロー</p><p>・ロボティクス中心の議論</p><p>・米IT企業を意識</p><p>&nbsp;</p></td><td valign="top"><p>・民間機関主導</p><p>・各々が基準</p><p>・ソフトロー</p><p>・中国を意識</p></td></tr></tbody></table><p><b>日本の場合</b></p><p>&nbsp;</p><p><b>動向まとめ</b></p><p>＜研究者側＞</p><p>2017年2月　人工知能学会：「人工知能学会　倫理指針」</p><p>＜政府側＞</p><p>2017年7月　AIネットワーク化社会推進会議：『報告書2017』</p><p>2018年7月　AIネットワーク化社会推進会議：『報告書2018』</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p><b>日本のAIに関する法規範・倫理規範策定の姿勢</b></p><p>　日本では、総務省のAIネットワーク化検討会議とその後継組織であるAIネットワーク社会推進会議でAIのもたらす社会的影響・リスクの評価、それに対する対応が議論されている。</p><p>　そこでは現在、非拘束的・非規制的なソフトローとしてガイドラインを策定し、それを国際的に共有しようという取り組みがなされている。</p><p>　その背景には、AIの開発・利活用はまだ始まったばかりであり、それを法律などのハードローで規制することは適切ではないこと、AIが及ぼす影響やリスクはネットワークを通じて世界的に広がるため一国で規制するには限界があること、といった事情がある。</p><p>　具体的な動向としては、目下「AI開発ガイドライン」「AI倫理ガイドライン」を策定することが目指されている。</p><p>&nbsp;</p><p><b>2016年　AIネットワーク化検討会議：『報告書2016』</b></p><p>　まず、目指すべき基本理念たる「智連社会」を提示した。AIネットワーク化の進展が「智連社会」の形成にどのような影響を与えるのか、その際の人間とAIネットワークとの関係に関する評価、及びAIネットワーク化が社会・経済にもたらすリスクの基礎的な検討を行った上で、今後の課題を整理した。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>2017年　AIネットワーク化社会推進会議：『報告書2017』</b></p><p>　『報告書2016』の成果を踏まえて、AIの開発において留意することが期待される事項をまとめた「AI開発ガイドライン案」を取りまとめた。</p><p>　さらに、AIシステムの具体的な利活用の場面を想定してAIネットワーク化のもたらす影響を検討し、今後の課題を整理した。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>AI開発ガイドライン案</b></p><p>＜目的＞</p><p>「AIネットワーク化の健全な進展を通じてAIシステムの便益増進とリスク抑制を図ることにより、利用者の利益を保護するとともにリスクの波及を抑止し、人間中心の智連社会を実現すること」</p><p>&nbsp;</p><p>＜特徴＞</p><p><b>○国際的なもの</b></p><p><b>　×国内法を目指すもの</b></p><p><b>○各国のステークホルダー間で価値観を共有するためのもの</b></p><p><b>　×AIの開発を規制するためのもの</b></p><p><b>○ソフトロー</b></p><p><b>　×ハードロー</b></p><p>　本ガイドライン案は、AIの研究開発についての国際的な議論のたたき台として作成された。つまり、日本の国内法のために作成されたものではなく、国際的な議論を通じて各国のステークホルダー間で価値観を共有することによって、上記目的を達成することを意図するものである。</p><p>　国際的な価値観の共有を目指す理由は、AIの研究開発がグローバルにすすみ、その影響やリスクもネットワークを通じて世界的に及び、一国で規制をどうするかを考えても限界があるからである。</p><p>　そして、国際的な価値観の共有を目指す以上、具体的な義務を定める「ハードロー」は適さない。そこで、本ガイドライン案は非規制的かつ非拘束的ないわゆる「ソフトロー」とされている。</p><p>&nbsp;</p><p><b>2018年　AIネットワーク化社会推進会議：『報告書2018』</b></p><p>　『報告書2017』の成果を踏まえて、引き続き、AIネットワーク化が社会・経済にもたらす影響を検討するとともに、AIの利活用において留意することが期待される事項についてまとめた「AI利活用原則案」をまとめた。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>AI利活用原則案</b></p><p>＜背景＞</p><p>　『報告書2017』で「AI開発ガイドライン案」が策定されたが、AIによって良い社会を目指すには、研究・開発者だけの取り組みでは不十分であり、AIの利用者の取り組みも重要である。</p><p>　例えば、制御可能性に関していえば、AIは利用者が利用していく間にも学習を続けて賢くなっていくが、これは裏返すと利用次第では開発者の予測を超えて変化していくことを意味する。</p><p>　セキュリティに関しても、自動運転車の利用者がソフトウェアのアップデートを怠ることによち事故が起こることも有りうる。</p><p>　また、利用者が安心してAIを利用するために、例えばAIが事故を起こして他人に損害をあたえた場合の賠償責任の所在についてなどの制度作りが必要である。</p><p>&nbsp;</p><p>＜目的・特徴＞</p><p>　「AIの利活用原則案」は、「AI開発ガイドライン案」と同様に、「AIネットワーク化の健全な進展を通じてAIシステムの便益増進とリスク抑制を図ることにより、利用者の利益を保護するとともにリスクの波及を抑止し、人間中心の智連社会を実現すること」を目的とし、国際的な議論のたたき台として、ソフトローとして作成された。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>今後進めていかなくてはならない法的・倫理的規範</b></p><p>＜AI開発ガイドラインの策定・AI利活用原則の策定＞</p><p>　現時点では、AIの開発や利活用は初期段階であり、法律などのハードローによる規制は適当ではなく、ベストプラクティスの共有や非規制的・非拘束的な指針などのソフトローにより、多様なステークホルダ間において国際的な合意形成を図ることが重要である。</p><p>　従って、ハードローの整備よりむしろ、ソフトローたる「AI開発ガイドライン」「AI倫理ガイドライン」を策定することが優先課題である。</p><p>&nbsp;</p><p>＜その他AIネットワーク化を推進するための具体的な法制度のあり方の検討＞</p><p>　また、現時点でAIについてのハードローの整備は適切ではないものの、AIネットワーク化の健全な進展に向けた環境整備のために、より具体的な事項の検討も今後行っていく必要がある。</p><p>　すなはち、政府としては以下の事項について法制度等の在り方を検討していく必要がある。</p><p>ア AIの事故等に関する法的責任の所在の在り方</p><p>イ 各分野におけるAIの利活用と業法等との関係の整理</p><p>ウ AIの学習等に用いられるデータ、AIにより作成されたモデル、AI創作物 等に関する知的財産制度上の保護と利活用の在り方</p><p>エ AIの利活用に関する個人情報の保護と利活用の在り方</p><p>オ AIネットワークに関する通信の秘密の保護(AI間の通信の秘密の保護の範囲及び程度など)の在り方</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p><b>EUの場合</b></p><p>&nbsp;</p><p><b>動向まとめ</b></p><p>＜現在までのAIに関する法規範・倫理規範＞</p><p>2014年9月　欧州委員会：「ロボティクス規制に関するガイドライン」</p><p>2017年1月　欧州議会：「ロボティクス憲章」</p><p>2017年2月　欧州議会：「ロボティクスにかかる民法規則に関する欧州委員会への提言」</p><p>2018年3月　欧州委員会：「EU条約・基本権憲章に含まれる価値に基づく倫理原則」</p><p>＜今後策定する予定のAIに関する法規範・倫理規範＞</p><p>～2018年末　　AI開発の倫理ガイドライン</p><p>～2019年半ば　製造物責任指令の解釈ガイドライン</p><p>～2030年　　　自動車の安全基準の統一のための指針</p><p>&nbsp;</p><p>&nbsp;</p><p><b>EUのAIに関する法規範・倫理規範策定に対する姿勢</b></p><p>①公的機関主導の策定</p><p>②EU内で統一的な法的・倫理規範の策定</p><p>③ソフトローに加えてハードローも</p><p>③米IT企業に対する警戒</p><p>④ロボティクスを中心とした議論</p><p>　①②EUはAIのもたらす問題について、欧州議会・欧州委員会といったEUの組織が包括的枠組みを制定しようと取り組んでいる。というのも、同じEU内で加盟国ごとに大幅に異なるルールを作られると、輸出入時の障壁となり事業展開に支障が出かねないという事情があり、従って、ある程度域内各国で足並みを揃えるものとしての統一ルールを策定する必要がある。そこで、欧州議会・欧州委員会などEU全体を統括する公的機関が中心となって議論を進めている。</p><p>　③EUでは非拘束的なソフトローの策定もある一方で、ハードローの策定も行っている。例えば、2018年に施行されたGDPR（一般データ保護規則）は、プロファイリングについて、自動処理のみに基づいて重要な決定を下されない権利や透明性の要請を定めているが、これはAIのもたらす問題に対応しようとするものである。国レベルでは、ドイツで自動運転車の実現に向けて、事故の場合の責任主体の明確化のために道路交通法が改正された。</p><p>　④EUの法的・倫理的規範において、米IT企業が念頭に置かれていることがある。ITジャイアントと呼ばれる米国の大企業がAI分野で圧倒している。それを踏まえて、米国IT企業からEU市民の個人情報を守ろうとしたり、米国の基準を強いられることのないようEUがAI・ロボティクス分野における規制の世界的な主導権を握ろうとしたりしている。</p><p>　⑤EUはこれまで、「ロボティクスに関するガイドライン」「ロボティクス憲章」「ロボティクスにかかる民放規則に関する欧州委員会への提言」と、AIも含んでいるもののロボットを主軸においた議論を進めてきた。これは、欧州（特にドイツ）の産業構造が影響している。ドイツは製造業に強みがあり、インダストリー4.0も製造業を中心とするICTの政策である。こうした事情もロボットについての規範作成の背景にある。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>2014年9月　欧州委員会：「ロボティクス規制に関するガイドライン」</b></p><p>＜概要＞</p><p>　欧州委員会の支援を受けた「RoboLaw プロジェクト」の成果として、本ガイドラインでは、ロボットと法を考える際の基本的な考え方がまとめられた。</p><p>　具体的には、自動運転車、手術支援システム、ロボット義肢、介護ロボットそれぞれについて倫理的。法的分析を行い、課題を明確化した。</p><p>＜そもそもロボットに関する規制は必要か＞</p><p>　本ガイドラインでは、冒頭で「なぜ規制が必要なのか」が検討されている。</p><p>　まず、厳格すぎる規制がイノベーションを抑圧する点が指摘された一方で、規制が不明確で誰がどのような責任を負うか等が曖昧であれば、これもまたイノベーションを阻害する可能性が指摘された。</p><p>　そこで、両視点を踏まえて、ロボティクスのイノベーションを促進できる枠組みの形成が必要であるとした。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>2017年2月　欧州議会：「ロボティクスに関する民法規則に関する欧州委員会への提言」採択</b></p><p>＜概要＞</p><p>　「RoboLaw プロジェクト」の成果を踏まえて、ロボットの進展によるリスクの分析・対応についての議論が進み、「ロボティクスに関する民法的規則に関する欧州委員会への提言」が報告書としてまとめられた。</p><p>　そこでは、ロボットやAIにおけるの様々な倫理的・法的課題についての提言がなされた。</p><p>＜電子人格に関する議論＞</p><p>　本提言では、将来的に自律的なロボティクスに法人のような人格を与えることによって、人工知能が損害を生じさせた場合に責任を課せるようにすることが提言された。</p><p>＜ロボット税に関する議論＞</p><p>　当初の案では、いわゆる「ロボット税」の導入が示されていたが、議会で可決された内容からは、「ロボット税」に関する記述は全て削除された。</p><p>　ロボット税とは、AIなどに搭載したロボットの登録を企業に義務付け、ロボットを所有する企業等に、ロボットの活用で得られた利益の一部を負担させるものである。AIの利活用により、雇用の喪失・税収の減少・社会保障制度への打撃という社会的な影響が予測されるが、そこで持続的な税制や社会保障制度のためにロボットに対して税を課そうという趣旨である。</p><p>　しかし、「ロボット密度」と雇用者数との間に正の相関関係がありロボットが雇用を奪うわけではないという意見や、ロボットを課税対象とすることにはロボットの普及を阻害するという意見が産業界から出され、欧州議会での採択対象とはならなかった。</p><p>　</p><p>&nbsp;</p><p><b>2017年1月　欧州議会：「ロボティクス憲章」</b></p><p>＜概要＞</p><p>　「ロボティクスに関する民法規則に関する欧州委員会への提言」と同時に、AIに関する抽象的な規範として、開発原則や利用指針などからなる「ロボティクス憲章」が提案された。</p><p>　ロボティクス憲章はⅰロボット開発者の倫理規範、ⅱ研究倫理委員会の規範、ⅲ設計者及び利用者のライセンス、で構成されている。</p><p>＜抽象的な規範をたてる意義＞</p><p>　ロボティクス憲章は抽象的な規範にとどまり、法的拘束力もない。しかし、ロボットやAIが利用される場面は様々であり、このような原則を検討せずに問題が生じるたびに個別の法改正や立法を行うと、場当たり的なルールの作成になりかねず、全体として整合性の取れない制度となってしまい、開発利用者の混乱や不平等を招く恐れがある。それを避けるためには、多様なロボット・AIの利用局面において、統一的な視点を持っておく必要がある。</p><p>　</p><p>&nbsp;</p><p><b>今後の予定</b></p><p>　欧州委員会は2018年4月、AIに関する3つの方針を示した。その3つの方針のうちの一つがAI</p><p>の関する倫理的・法的枠組みの確保である。</p><p>　具体的には、個人データ保護・透明性を考慮した「AI開発の倫理ガイドライン」を2018年末までに、AIが損害を生じさせた場合の賠償責任の所在に関して「製造物指令の解釈ガイドライン」を2019年半ばまでに策定する予定である。</p><p>&nbsp;</p><p><b>ドイツの場合</b></p><p>&nbsp;</p><p><b>自動運転車に関する法整備</b></p><p>　ドイツにはBMW、ベンツ、フォルクスワーゲン等、自動車会社が多くあり、これらの企業が自動運転車を開発・商品化するのを後押しする狙いがある。</p><p>&nbsp;</p><p><b>2017年６月　道路交通法改正</b></p><p>＜自動運転車の法的問題＞</p><p>①自動運転車のAIシステムがハッキングされる恐れ</p><p>②自動運転車のシステムが適切にアップデートされない場合、事故を起こす恐れ</p><p>③自動運転車が事故を起こした場合、責任の所在がシステムにあるのか人間にあるのか不明確になる恐れ</p><p>＜概要＞</p><p>　レベル3の自動運転車の今後の普及をにらみ、事故が起きた際の責任の所在の判断を可能にするものである。具体的には、車両に運転データを記録する機能を搭載することを義務付けることで、運転データを解析して責任の所在がシステム（を開発した製造者）にあるのか、運転手にあるのかを判断しやすくした。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>2017年8月　自動車とコネクテッドカーの倫理規則20項目</b></p><p>＜概要＞</p><p>　道路交通法改正は、レベル3の自動運転車に対応するものであるが、完全自動運転車(レベル4なし5)の走行に十分な法整備ではない。そこで、完全自動運転車を見据えた具体的な本ガイドラインが策定された。</p><p>＜自動運転とコネクテッドカーの倫理規則20項目の骨子＞</p><p>・自動運転のアルゴリズムは事故が避けられない場合に、物や動物よりも人間の保護を優先すること、そして人間は男性か女性かあるいは老人か子供かによって区別することなく平等に認識すること。</p><p>・責任の所在の判断をしやすくするために走行データの記録を義務付けること。</p><p>・運転者は運転をシステムに委ねるのか、自分で行うのかを自ら決定しなくてはならないこと。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>自動運転以外の分野におけるガイドラインの策定</b></p><p>　上述のように、ドイツでは自動運転に関するガイドラインや法律は整備されつつあるが、ほかの分野でのAI化に伴うガイドラインの策定も、行われていく予定である。</p><p>　データ・プライバシーや倫理的側面について、「データ倫理委員会」が今後一年かけて検討し、2020年までに報告を行い、ゆくゆくはガイドラインを策定していく予定である。</p><p>　また。民間企業レベルでは、ドイツテレコムやSAPが会社独自のガイドラインを策定している。</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p><b>フランスの場合</b></p><p>&nbsp;</p><p><b>フランスのAIに関する政策</b></p><p>　AIの開発の分野において米国・中国等に遅れを取ってしまったことに対する危機感から、マクロン大統領が2018年3月に新戦略を発表した。この新戦略は、フランスのAIエコシステムを発展させ、AIについての世界的リーダーとなることを目指すものである。この新戦略をまとめた報告書において、AIの倫理問題、公平性の問題、セキュリティの問題についても取り上げられている。</p><p>　AIの諸問題に対する法的・倫理的規範の策定については、今後取り組んでいく必要があると考えられる。</p><p>&nbsp;</p><p>&nbsp;</p><p><b>アメリカの場合</b></p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p>
]]>
</description>
<link>https://ameblo.jp/kattenayatsura/entry-12401562824.html</link>
<pubDate>Fri, 31 Aug 2018 03:59:14 +0900</pubDate>
</item>
<item>
<title>えbrgんsrんs</title>
<description>
<![CDATA[ <p>アイウエオ</p><p>化育系がkfびdfjhdfbfgdfbdsvんhstdghg</p><p>bdhdfghbgh</p><p>dssdgf bhgffg</p><p>&nbsp;</p><p>　sdfhdgsfhfgn</p>
]]>
</description>
<link>https://ameblo.jp/kattenayatsura/entry-12401496320.html</link>
<pubDate>Thu, 30 Aug 2018 20:49:41 +0900</pubDate>
</item>
</channel>
</rss>
