世界の未来 / AI(人工知能) / AI失業 / AGI(Artificial General Intelligence;汎用人工知能)

+ ニュースサーチ




★ 「ロボットの犯罪」裁けるか 米ロースクールの先進講義 ‐宮本和明 米ベンチャークレフ代表 「日本経済新聞(2015.5.20)」より
/
米シリコンバレーで人工知能の開発レースが過熱する一方、法理論の研究も進展している。高度に進化したロボットが罪を犯したとき、司法はどう裁くのかがテーマだ。

 例えば、自動運転車が犯罪に関与したら、誰が責任を負うのか。そもそもロボットに、人間のように罪を問えるのかも争点となっている。高度な人工知能の誕生に備えた、米スタンフォード大学ロースクールの取り組みをレポートする。

■スタンフォード大学が公開講座

 スタンフォード大学ロースクールで、人工知能と法律の関係について、公開講義が開かれた(下の写真)。コンピューター・サイエンス学部で客員教授を務めるJerry Kaplan氏が、高度に進化した人工知能を法律はどう解釈すべきかについて講義した。この講義は一般にも公開され、著者も学生に戻った気分で聴講した。

 講義は確定した法理論を教えるものでは無い。高度に進化した人工知能が社会に入ってきたとき、どんな問題が発生し、それを法律でどう規定すべきか、Kaplan教授が私見を述べた。

 現在、米国では大学を中心に「人工知能社会」に備えた法整備が進んでおり、その一つの考え方が示された。これはソフトウエアに例えるとプロトタイプであり、法理論コンセプトの“デモ”である。

 講義のエッセンスは、ロボットが運転する“ロボットタクシー”と銀行のクレジットカード審査に集約される。この事例を使って、高度に進化した人工知能が抱える問題と、それを裁く法律論が展開された。

■ロボットタクシーが犯罪に加担
+ 続き
 ロボットタクシーのケースでは、1990年に公開された映画「Total Recall(トータル・リコール)」が引用された。追われている主人公の男(アーノルド・シュワルツェネッガー)がロボットの運転するタクシーに逃げ込み、速く走るように指示した。映画ではロボットが制限速度を無視して速く走ると、乗客からチップをもらえる設定になっている。

 こうした映画のシーンが、近い将来、現実に起きても不思議でない状況となってきた。米Google(グーグル)と米Uber(ウーバー)がそれぞれ発表した、自動運転車による無人タクシーが銀行強盗に加担した場合、法律はどう対応すべきかが示された。

 覆面をして拳銃を持っている乗客が無人タクシーに乗り込んだという想定で、まず乗客は近くの銀行に行くように指示する。技術的な説明は無かったが、無人タクシーはコンピュータービジョン(画像認識)機能を搭載しており、乗客の様子を把握。無人タクシーは状況を判断し、この要求を拒否する。

 しかし何らかの理由で(期末で売上目標を達成するためなど)、強盗の要求に従って銀行へと案内し、犯罪につながるケースが出てくるかもしれない。

■ロボットタクシーを巡る裁判

 被害に遭った銀行は、無人タクシーを運用する会社を提訴する。無人タクシーは、犯罪を起こそうとする人を乗せるべきではないというのがその理由だ。

 一方、タクシー会社は自動運転車メーカーを訴える。タクシー会社はマニュアル通りに運用しただけであり、責任は自動車メーカーにあるという主張だ。

 自動車メーカーはこの訴えに対し、自動運転車は安全に運行しており、犯罪が起こることは予期できなかったと主張する。自動運転車の登場で何らかの問題が発生すると、このような訴訟が起こることが予想される。そのとき、今の法体系では結論が出せないこともあるだろう。

■善悪を判断できた

 ここでの新しい命題は「ロボット自身に責任を問えるか」である。法律用語では、ロボットは「Moral Agent(モラル・エージェント)」になりえるか、と表現することも学んだ。

 Moral Agentとは、行為に対する結果を認識できる存在を指す。善悪を判断できる能力がある存在のことで、人間はMoral Agentであるため、罪を犯すと裁判で裁かれる。

 今回のケースでは、ロボットは犯罪が起きることを予見でき、それを阻止できる状態にあった。技術的には、カメラが捉えたイメージから、オブジェクト(乗客)の意味(銀行強盗を企てる)を読み取ることができたという状態を指す。このためロボットはMoral Agentであり、司法の裁きを受けるという筋書きとなる。

■企業にMoral Agentを適用した過去の判例

 Kaplan教授が注目したのは、企業に対してMoral Agentを認めた過去の判例である。英国に本社を置く国際エネルギー企業のBPが運営する海底油田が、2010年にメキシコ湾で大規模な事故を起こし、11人が死亡した。

 米国連邦政府はBPに対して、民事訴訟ではなく刑事訴訟でその罪を弾劾した。社員ではなく企業に刑事罰が下されるという、歴史的な判例となった。Moral Agentは意識を持った生命体でなく、企業にも適用されるという解釈がなされたのだ。

 ロボットはこの延長線上にあり、Moral Agentと解釈するにやぶさかでない。ただ、企業と異なるのは、ロボットは自分で判断を下し行動できる点で、新たなコンセプトの導入が必要となる。ロボットや人工知能に罪を課すことは奇異にも思えるが、最新の議論はこの方向に向かっている。

■銀行の人工知能が問題の種に

 ロボットのように目に見えるものだけでなく、人工知能のようなソフトウエアについても議論が及んだ。ここでは銀行のクレジットカード審査が例として取り上げられた。

 現在、銀行のクレジットカード審査では、多くの場合、応募者の財政状況を評価するルールベースの審査を行っていない。人工知能の一手法である「機械学習(Machine Learning)」が使われている。

 機械学習では、応募者の様々なデータを過去の応募者の膨大なデータと比較して、合否を判定する。応募者と類似ケースを探し出し、その事例を参考に審査結果を判定するのだ。人工知能は大量のデータを解析し、経験則で判定するため、銀行には合否の理由は分からない。

 このために発生している問題がある。米国のある地方政府は、銀行に対して、クレジットカード発行を拒否した理由を明確にするよう義務付けている。クレジットカード審査が不合格になった場合、それが人種に起因しているかどうかを確認するためである。しかし、実際にはルールベースで判定しているわけではなく、銀行はこの質問に答えることができない。

■人工知能をどう再教育するか

 仮に将来、人工知能が犯罪に加担したと判断されるような事件が起きれば、ロボットのケースと同様、司法の場で裁きを受けることになる。ソフトウエアは“ツール”ではあるが、それを超えて知的判断を伴う行為をするMoral Agentと解釈されるからだ。

 裁判で有罪となった場合、人工知能は刑罰としてシステムの改良が求められる。例えば、特定の人種が不合格とならないようにするのだ。

 しかし、システムはルールベースではないので、ロジックを変更して要求を満たすという措置は取れない。ある方向に偏ったデータ(特定の人種が認められるデータ)を大量に読み込ませ、人工知能のシステムを再教育するしかない。ただし、システムの変更には、多大な労力を要することが予見される。

■大胆なロジックを堂々と展開

 前述の通り、講義は法曹界で確定した理論ではなく、来るべき社会に備えたブレーンストーミングの色彩が強い。高度に進化した人工知能やロボットの登場で、どんな事態が発生するかを予見したものである。

 ロボットが被告席に座る光景は映画の1シーンのようだが、既にロボットが人間と同じように、権利と義務を持てるかについて研究が始まっている。保守的な印象を持っていたロースクールだが、大胆なロジックを堂々と展開するところが極めて印象的であった。スタンフォード大学は科学技術で数々のイノベーションを生んでいるだけでなく、法律論理でも時代の先端を走っている。
ーーーーーーーーーーー
宮本和明(みやもと・かずあき)
米ベンチャークレフ代表 1955年広島県生まれ。1985年、富士通より米国アムダールに赴任。北米でのスーパーコンピューター事業を推進。2003年、シリコンバレーでベンチャークレフを設立。ベンチャー企業を中心とする、ソフトウエア先端技術の研究を行う。20年に及ぶシリコンバレーでのキャリアを背景に、ブログ「Emerging Technology Review」で技術トレンドをレポートしている。

■ <湯川鶴章>急速に進化する人工知能(AI)が人間社会にもたらす影響と未来 「東京IT新聞(2015.3.17)」より
/
........................................................................................
人工知能(AI)の領域が急速に進化し始めた。そのきっかけとなったのが「Deep Learning(ディープラーニング=深層学習)」と呼ばれる技術だ。人間の脳のなかにあるニューロン(神経細胞)ネットワークをコンピュータで模したものを何層にも重ねることで、人間に教わらなくてもコンピュータ自らが“概念”をつかむことができる。東京大学の松尾豊准教授によると、Deep Learningは、AI研究50年来のブレークスルー(革新)なのだという。
........................................................................................

AI研究者の国立情報学研究所・市瀬龍太郎氏に聞く

 このブレークスルーを受けて産業界も動き出した。米グーグルやフェイスブックをはじめ、大手IT企業はどこも人工知能(AI)ベンチャーを買いあさっているし、AIを搭載したデバイスやサービスを手がけるベンチャー企業も増えてきている。

 果たしてDeep Learningは本当にそれほどインパクトのあるブレークスルーなのだろうか。

 国立情報学研究所で人工知能の研究を携わってきた市瀬龍太郎准教授に話を聞いた。

――市瀬准教授は、Deep Learningをどう評価されますか

 今まで「ニューラルネットワーク(人工神経回路)」と人間の推論の間には乖離があったんです。人間は、思考するとき言葉を使います。しかし言葉を使わない思考の部分もあると考えられている。その差分、ギャップはどう埋まるのかが謎だったんです。

 つまり、耳や目などのセンサから入ってくる情報と、言語による思考の間で、何が行われているのか。それが謎だった。Deep Learningは、その分からなかった部分のギャップを埋めてくれる非常に重要な技術です。

――思考は言語で行われていて、人間はそれ自体に気づいている。つまり顕在意識上で作業している。しかし、目や耳から入った情報は、潜在意識で何か処理されているはずですよね。潜在意識なんで、どういう処理がされているのか、自分自身では分からない。分からないので、コンピュータで再現するのが難しかったということでしょうか

 そうですね。潜在意識では、ものをパターンか何かで認識しているんだと思います。それが顕在意識になると、言語という記号で認識する。パターンのレベルから記号のレベルへどうつながっているのか。それをつなるのがDeep Learningのアプローチ。そこを繋げられるようになったわけです。

 画素を1つずつ認識していき、それを記号の原始的なものの単位までつなげてくれる仕組みです。

(※mono.--以下詳細はサイト記事で)


★■ 人間は不要に? “人工知能社会”の行方 「NHK-クローズアップ現代(2015.3.3)」より
/
人工知能によって、6割以上の雇用が奪われるのではないか-今年1月に開かれたダボス会議で世界のリーダーの関心を集めたのは、いま急速に実用化が進む人工知能の、社会的なインパクトだった。開発の先頭を走るアメリカでは、人工知能が、新聞記者に代わってニュース原稿を作成。大学進学の適性試験でも、小論文の採点に人工知能が導入され、その是非をめぐり論争が続いている。そして各国が実用化に向けしのぎを削る、自動車の自動運転技術。欧州では、人命に関わりかねない判断をどこまで人工知能に委ねるべきか、国や自治体を巻き込んだ議論が始まっている。人工知能と社会は、どう折り合いをつければいいのか。最前線のルポから考える。


■ 汎用人工知能と技術的特異点 - 汎用人工知能の社会的影響 「AGI」より
/
他の技術と同様に、またそれ以上に汎用人工知能は人間の労働を代替します。
このことは、危険だったり過酷な労働から人間を開放するとともに、職を奪うという側面も持っています。
技術的特異点によって、理想的には人間は「食うため」の労働から開放されることになるはずですが、そこに至る道筋で負の影響をできるだけ防ぐ必要があります。
もちろん、汎用人工知能が悪用されたり、暴走したりすることも防がなければなりません。


★■ 人工知能は失業者を生む:中国のAI研究者が警鐘 「WIRED(2015.2.3)」より
/
人工知能の進歩が生み出す真の社会問題は、大量の失業だ。世界で最も有名なAI研究者のひとりである、「百度(バイドゥ)」のチーフサイエンティスト吳恩達(Andrew Ng)はそう懸念する。

人工知能(AI)が進化した未来については、多くの不安がある。有名な科学者スティーヴン・ホーキングや投資家イーロン・マスク、あるいはビル・ゲイツも、進化したAIを人間が制御できなくなる可能性について警告を発している(日本語版記事)。1月には、AIの先覚者たちでつくる団体も、プエルトリコで非公開の会議を開き、AIと倫理について議論を交わした。
しかし、世界で最も有名なAI(人工知能)研究者のひとりである吳恩達(Andrew Ng)によると、われわれが本当に心配しなければならないのは、人工知能が地球を支配する映画『ターミネーター』の世界よりも、「トラックを運転するロボット」なのだという。

(※mono.--以下略、詳細はサイト記事で)













.
最終更新:2025年07月20日 16:57