AdTest

2019年7月18日木曜日

技術者・SFファンに質問!AI・人工頭脳Iに倫理は必要か?【7/3NHK】



7/3(水) にNHKで
「超AI入門特別編 ロボットが正義を決める時?倫理に感情は禁物か?」
という番組が放映されていました。

「ロボットが正義を決める時?」という副題と、
(けど、そういうSF映画とかよくありそうじゃん??)
「AIに倫理が必要」という番組の内容に興味をもったので、
忘れる前にかるくメモすることにいたしました。

ちょっと余談ですが、

AI,つまり機械と「倫理」。というのはどういうことでしょう?
機械をつかうひとに「倫理」が必要というのは
わからないでもないです。

機械、つまり、PCと、倫理との関係とは何でしょ?


たしかに
数年前から、AIというものが盛んに言われるようになってきましたね。
AI、ロボット、アンドロイド、自動運転車両なんて、
今やSFの中だけの話ではなくなってきました。

とはいえ、
 AIなんてものは
人工的につくる機械のための「頭脳」なわけですし、
現代科学では
それを造る=プログラミングするのは
人間なわけですから、
当然、つくるヒトが好き勝手つくっても良いハズです。
とはいえ、
本当に「好き勝手」につくったら、
世の中が混沌とした、たいへんな世界になる可能性もあるわけで??

と、思いつつ番組の一部をメモしてみました。

・AIの倫理について
・「知性」とは何なのか?
・「道徳倫理」?「徳倫理学」??
・機械に「感情」や「共感」はうまれるのか?
・ロボットに「感受性」や「感情」はない
・「ロボット」の規範は「人間」が決める
・「倫理」を議論する必要性
・人間には「感受性」や「感情」がある


という内容で、抜粋をお送りします。

ほぼ箇条書きなのは御愛嬌ということで御容赦を。

AI開発に携わってみたい方にも、
SF小説・漫画を作成してみたい方にも、
人間の「倫理」とは何か、機械と比較して考察してみたい方にも、
「倫理」の概念について御一読いただければ。と思います。



・「AIの倫理」の定義

AIの倫理について
「コンピューターも何が道徳的に正しいのか学ばなければなりません」
と、倫理学者の「ウェンデル・ウォラック」が
番組内で提唱していました。


AIに
倫理的な判断ができるのか
道徳的な配慮ができるのか
AIのそういった選択と実行に
繊細な判断を組み込むことができるのか?

という事を、博士はテーマにしている。

例えば、
ロボット三原則のひとつに
「人を傷つけてはいけない」というものがある。

だが、
必要なのは厳重な安全装置なのか?
正当防衛はどうなのか?

様々なケースに対して
原則だけではうまくいくとは限らない。

その判断基準として、
鍵となるのはルールを逸脱する「道徳」であり
その土台が人間の倫理や価値観である。

AIの登場と同時に
人間もアップデートする必要があるのではないか?
と、博士は提唱する。

そもそも「知性」とは何か?

博士は

賢さ、繊細さ、意識の高さ

を挙げていました。

知性には更に社会的性質があり、
個別だけでなく、集合的なものもある。

我々人間は集合知でイノベーションを起こしてきている。

「知性」とは
「自己認識、知恵、理解できていることと
できていないことを知ること」である。

一番強調したいのは、
知性は集合的だということである。

文化に支えられ時間をかけて培われたものであり、
個人の中だけで育つものではない。

個人個人の知性のかけらを持っていたとしても、
それらをすべて集めない限り知性とは呼べないのです。
と、ウォラック氏は語る。

「集合知」とは世代を経て文化的に継承したものである。

人々は道徳的判断を、
宗教や社会的規範など、より高次の原則に基づく。

これらは成長する過程で
何が重要か、何に価値があるか、何に注意を払うかを学ぶ。

高いレベルでの原理が関わっているかどうかは別として
我々人間は善良な市民、
気配りのできる人間
道徳的に適切な行動を取れる人間に
なる方法をしることができる、

AIも人間との同じように
何が道徳的に正しいか学ぶ必要がある。

・「道徳倫理」と「徳倫理学」という考え方

ここで、
「道徳倫理」というものを挙げる。

「道徳理論」には大きく分けてふたつの立場がある

ひとつめは
社会の義務も守ることを良しとする
「義務論」Deontology(哲学用語)。

自分が属する社会定めたルールや義務も守ることが
道徳的だという考え方であり、
例として哲学者「カント」の考え方である。

ここで、疑問が出て来る。

ルールを守ることが大事なのは誰でもわかる。
だが、
良心に反する命令をされたらどうなるか?

これに対して、
もうひとつは
「ベンサム」や「ミル」たちが発展させた
「功利主義」や「帰結主義」と呼ばれる方法である。

行為の良しあしはルールではなく、
行為がもたらす結果や効果、影響によって判断される。

良い行為は社会全体の幸福や利益を最大化させたもの
「最大多数の最大幸福」を判断の根拠にするものである。

とはいえ、多数決がいつも正しいとは限らない。
少数意見が抹殺される場合がある。


これは、どちらの考えもある一つの推論だけに
基づいている考えかただといえる。

第三の意見として、
「徳倫理学」という考え方があります。

第三の説、「徳倫理学」は
性格のよい人が実現するものだ、と主張する方法。

(※この場合の「性格のよい人」というのは
世間一般でいう「善いひと」「人格者」などのことです)

最大多数の最大幸福のためでもなく、
義務のためでもない。
「頭で考える」のではなく、
「良い行為なら無心でできるはず」という説に基づくものであり、
「プラトン」や「アリストテレス」などの考え方にあたる。

これらの考え方から
「倫理」を「機械」に教えていけるのではないだろうか?

AIに倫理の論理を持たせることや
特定の文脈の中なら充分に機能するはず。


・機械に「感情」や「共感」はうまれるのか?

しかしすべてのコンテキストで満足に機能するかといたら
無理だろう。

機会に倫理の論理を持たせるだけでは不十分。
機会に性格をもたせ、ある文脈の中で
人間やほかの存在(動物や他の人工物)と
交流させる必要があります。

・ロボットに「感受性」や「感情」はない

AIはどのような倫理に基づいて判断させるのか?
人間は倫理をプログラミングできるのか?

という疑問は残ります。

それ以前に、
AIを使う人間のいう「倫理」とは何でしょうか?

また、
アンドロイドに子守をさせるのは倫理的か?
介護をさせるのは倫理的か?

AIを媒介とした人間同士の間でも倫理は見つめ直されるのか?

これらの疑問には
「とても難しい問題です。」と博士は述べます。

人間の尊厳をまもったり
生活を豊かにするための最適なケアとしては
ロボットを頼りにできるかは疑問である。

ロボットには感受性や感情がない。
ロボットは相手の気持ちを本当に理解できるわけではない。

逆に、
感受性や感情がないシステムには害になることがある。

とはいえ、
ロボットが役に立つこともたしかである。
人間が飽きるような作業を代わりに行うのは向いている。


新しい時代の倫理がどうあるべきか?
これは何よりもまず人間がやるべきである。

・「ロボット」の規範は「人間」が決める。

規範を造るのは人間。
規範を決められるのはロボット。

規範は「誰」がどう決める?

啓蒙思想が現代の隅々にまで浸透している。

神が中心の世界ではなく、個人が焦点の世界。
現代社会の解明啓蒙思想の功罪を考えることが大切だという。
しかし、数百年後も必要かは疑問が残る。

啓蒙思想の影の部分は
世界を精神と物質のふたつに分けて解釈してきたことである。
デカルト的な二元論では限界がある、という。

【倫理=不確実な人生の旅の案内役】。

倫理の本来の姿とは「パラメーター」のようなもの。
望まない状況に陥ることを気づかせるもの。

選択や行動をするとき、
パラメーターを使うと良い結果になりやすいというもの。
もし、パラメーターに背けば困難な状況が生まれる可能性がある。

社会的に必要な物は
より秩序のある世界か
より混沌とした破壊的で暴力的なな世界を選ぶか、
博士にとってはそれが倫理の役割だという。

人類のために必要なパラメーターに軌道の修正が問われるのである。

・「倫理」を議論する必要性

AIの開発倫理のために
倫理観を議論する必要がある。

我々が今直面している大事な倫理的問題は、
新たなテクノロジーが暮らしに影響をもたらすときである。

個人的に社会的に、どこまで許容できるのか?
パラメーターを設定するために
基本的な目標と価値観を打ち出すことが必要。

問題は我々がAIに何を期待するのか、
そもそも何をさせたいのか、
我々は自分を理解しているか、
我々が成熟することも必要である。

善悪の概念はひとによって異なるから
AIに正しい概念を教えることも不可能なのかもしれない。

・人間には感情がある

感情、共感、意識の能力が人間には備わっており、
人間は他の生き物と関わる社会的な生物が大前提である。

人間に似ている生物が何をするのが正しくて、
間違っているのか正しく判断することが必要。

AIやロボットを作るときには
感情、共感、意識はそなわっていない。
だから、誰かが構築する必要がある。
ひょっとしたら構築することはできないかもしれない。

感情、共感、意識のどれが必要か。

ウォラック氏は「感情」が必要だという。
感情こそが道徳の基礎になる。
AIが正義を決める時、感情が土台になってくる。
感情を学ばないことは、
判断のための必要な怒りや怖れから我々を遠ざけてしまう。

感情に邪魔されず判断できるのは人工物の利点だが、
適切な道徳的情操をもっていないことが問題となる。

そして我々は
感情的知性が必要になってきた。
感情を読み取る力が必要になってきた。

そのためにも
問いかけをし続けることが重要である。
善悪の概念を考え続けることになる。

AIやロボットの存在によって、
皆が自分自身の価値観を新たな角度で見つめ直すことが必要である。

AIは複雑な状況下では
シンプル(デジタル)な考え方から抜け出せない

西洋の二元論と東洋の一元論を超えて
AIが促す新時代の感情の探求は終わらない。


ちなみに複雑な状況下でも判断をつけられるとか
感情を持つ、複雑な考え方を持たせる云々の話になると、
コンピューターに自律性を持たせるという考え方になってくる
(AIも隠し事をしたり嘘をつくようになる?)
とのことなので、ここでは触れていません。
(別の回になります)



いかがですか?)

いやー、面白いですね。

AIの「倫理」ですか。

機械(アンドロイド)に「倫理」や「道徳」は必要か?

マッドサイエンティストの作成したものならともかく、
 大抵のSF作品などには、
倫理や道徳心あふれるやさしいロボットが出て来ることが
殆どですが、
当然その「やさしさ」を創っている(プログラミングで設定している)のは
人間(場合によっては、”マザー”ロボット的な何か)なわけでして。

そして、人間のコミュニティ同様、
人間と機械、機械同士がコミュニティをつくるうえでは
やはり、倫理感や秩序のようなモノが必要ではないか、と、
筆者も考えるところです。

あなたは、どうお考えですか?? (^▽^)


機械の倫理学や道徳なんてあまり考えたことありませんが、
たしかに、「機械」なんて【人工物】に
人間や生物のようなものを要求するのは
期待しすぎなのカモしれません。

しかし、「道徳」を機械に教えるために
まず、人間が「道徳」をアップグレードする必要がある。というのは
なかなか含蓄があり、なかなか難解なことだと思いました。

数百年後にはAI入りロボットの方が
人間よりも【道徳的】な考えを持っているかもしれません。
アンドロイドが人間をみて
「なんて野蛮な」とか絶句していたりする光景…
いや、笑えない…笑えない絵ですよ、これは…

今までの価値観以上に
【人間としての良識】が問われる時代も近いですね、こりゃ。





ちなみに
「パラレルワールドともう一人の自分に会えるかどうか?」 に
ついての番組は

こちらにメモしています。


「魂(死後の世界)」についての番組内容は

こちらにメモしています。

「死んだあとに黄泉返る方法」については

こちらにメモしています。


宇宙からの重力波発見に関する宇宙好きな方は
こちら

地球や太陽が消滅したあとの人類や宇宙航行がきになる方は
こちらどうぞ。



AdTest2