AI倫理 | |||
著者 | 西垣 通/河島 茂生 | ||
出版社 | 中央公論新社 | ||
サイズ | 新書 |
|
|
発売日 | 2019年09月09日頃 | ||
価格 | 946円(税込) | ||
ISBN | 9784121506672 |
AI技術の登場によって倫理的に浮上する諸点のなかで肝心なのはまず、AI信仰を克服した上で、AI活用の具体策を辛抱づよく議論していくことだろう。(224ページ)
概要
人間の倫理と違ってAI倫理は社会規範そのものであり、AIが自由意志を持つものではないことを常に意識しつつ、IA(Intelligence Amplifier=人知増幅機械)として活用していきたいと感じた。
レビュー
本書は冒頭で、「人間のつくったプログラム通りに作動するAIは所詮、他律型機械にすぎないから、自由意思とも責任とも無関係なはずなのである。それなのになぜ、AIは自律型機械のように見えるのか」(7ページ)という問題提起を行い、この問題を解き明かしていく体裁をとっている。
第1部ではまず、第1次から第3次までのAIブームを振り返る。
現在の第3次ブームは、ビッグデータをディープラーニング(深層学習)にかけることが主流になっている。統計的な処理に終始するから、それまでのブームとの異なり、論理的厳密性(正確性)を放棄しているともいえる。つまり、AIの判定は、「必ずしも正確無比で100パーセント信頼できるとは言えない」(29ページ)のだ。では、誤りの責任は誰が負ってくれるのだろうか――。
次に、近代的な正義をあらわす倫理思想として、功利主義、自由平等主義(リベラリズム)、自由至上主義(リバタリアニズム)、共同体主義の4つを取り上げ、それぞれの制約について考える。
ここまでの結論は、「『人格』という、道徳的判断をくだす主体が、近代倫理思想を組み立てる根幹をなしている」(53ページ)ということだ。では、AIは人格を持っているか。
次に、SF作家アイザック・アシモフが提唱した有名なロボット3原則を紹介する。
作者は、「3原則は、安全で(1)、便利で(2)、長持ちする(3)という、機械に求められる当たり前の特性にすぎない」(58ページ)として、「AI倫理を考察する上で、アシモフのロボット3原則はほとんど頼りにならない」(59ページ)と切って捨てる。
本書では、生物の定義としてネオ・サイバネティカルな定義を採用する。つまり、生物とはオートポイエティック(自己-創出的)な存在で、ロボットやAIは、人間が設計するアロポイエティック(他者-創出的)な存在だとする。そして、「ある存在がこれから実行する行為を、(推定できても)完全に予測できないことは、その存在が自由意思をもつことの必要条件」(65ページ)だとする。
「シンギュラリティというのは、一言でいえば、汎用AIの情報処理速度が、人間の情報処理速度を超えていく時点ということになる」(90ページ)としたうえで、カーツワイルの『ポスト・ヒューマン誕生』、ボストロムの『スーパーインテリジェンス』、ハラリの『ホモ・デウス』を引き合いに出し、シンギュラリティを否定してゆく。
さらに河島さんは、フロリディの提唱する情報倫理(IE:Information Ethics)を批判する。IEは、あらゆる事物をデジタル化できることを前提としており、「IEの情報圏は、神のような超越的・俯瞰的な視点から世界の万物を見わたしているときに出現するものだろう」(128ページ)と指摘する。
西垣さんは、AI倫理のラフスケッチとして、「まるで人間のように振る舞う無数の『AIエージェント』が組み込まれ作動している社会における、多様な倫理的諸問題を考察すること」(133ページ)というスコープを示す。
西垣さんは、「倫理とは、行動を選択するときの『正しさの基準』をあたえるもの」(145ページ)と定義したうえで、個人の道徳観は揺れ動いており、社会規範との緊張関係から選択されるものだが、AIエージェントは社会規範を厳格に遵守して作動するものだと指摘。よって、AI倫理とは、AIを主導してきた米国の近代的倫理思想――前述の功利主義、自由平等主義、自由至上主義、共同体主義の4つに絞り込まれるという。これらを組み合わせ、独自の N-LUC と名付けた。
そして、AIはIA(Intelligence Amplifier=人知増幅機械)だと指摘する。
第2部ではAI倫理の練習問題として、自動運転、監視選別社会、AIによる創作の3つのテーマを取り上げる。
まず自動運転だが、冒頭で話題にしたトロッコ問題のほか、サイバーテロについて考察する。西垣さんは、「各自動車メーカーやIT企業などが極端に自社の利益のみにこだわらなければ、自動運転はAI応用として比較的早く実現される可能性もある」(195ページ)という。
監視選別社会に潜む問題は、キャシー・オニールさんが『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』で指摘している内容と同じだ。「スコアが低い個人やスコアリングを拒否する個人がうける不利益は甚大」(206ページ)という。西垣さんは、「生得的特性が個人のデータに含まれる場合はとくに要注意だ」(215ページ)と警鐘を鳴らす。
AIによる創作については、実例を挙げながら、「AIが利用し処理するデータそのものは、コンピュータが創ったわけではない。これまでの人間の作品の蓄積」(230ページ)と指摘する。そして、「日々苦労しながら芸術活動をおこなっているアーチストたちが、AIロボットと対話したり、AIの創作物にふれたりすることで、おそろしく新鮮な刺激をうけることも十分ありうる」(242ページ)という楽観論を提示する。
最後に西垣さんは、「AI技術の登場によって倫理的に浮上する諸点のなかで肝心なのはまず、AI信仰を克服した上で、AI活用の具体策を辛抱づよく議論していくことだろう」(224ページ)とアドバイスする。
第1部ではまず、第1次から第3次までのAIブームを振り返る。
現在の第3次ブームは、ビッグデータをディープラーニング(深層学習)にかけることが主流になっている。統計的な処理に終始するから、それまでのブームとの異なり、論理的厳密性(正確性)を放棄しているともいえる。つまり、AIの判定は、「必ずしも正確無比で100パーセント信頼できるとは言えない」(29ページ)のだ。では、誤りの責任は誰が負ってくれるのだろうか――。
次に、近代的な正義をあらわす倫理思想として、功利主義、自由平等主義(リベラリズム)、自由至上主義(リバタリアニズム)、共同体主義の4つを取り上げ、それぞれの制約について考える。
ここまでの結論は、「『人格』という、道徳的判断をくだす主体が、近代倫理思想を組み立てる根幹をなしている」(53ページ)ということだ。では、AIは人格を持っているか。
次に、SF作家アイザック・アシモフが提唱した有名なロボット3原則を紹介する。
作者は、「3原則は、安全で(1)、便利で(2)、長持ちする(3)という、機械に求められる当たり前の特性にすぎない」(58ページ)として、「AI倫理を考察する上で、アシモフのロボット3原則はほとんど頼りにならない」(59ページ)と切って捨てる。
本書では、生物の定義としてネオ・サイバネティカルな定義を採用する。つまり、生物とはオートポイエティック(自己-創出的)な存在で、ロボットやAIは、人間が設計するアロポイエティック(他者-創出的)な存在だとする。そして、「ある存在がこれから実行する行為を、(推定できても)完全に予測できないことは、その存在が自由意思をもつことの必要条件」(65ページ)だとする。
「シンギュラリティというのは、一言でいえば、汎用AIの情報処理速度が、人間の情報処理速度を超えていく時点ということになる」(90ページ)としたうえで、カーツワイルの『ポスト・ヒューマン誕生』、ボストロムの『スーパーインテリジェンス』、ハラリの『ホモ・デウス』を引き合いに出し、シンギュラリティを否定してゆく。
さらに河島さんは、フロリディの提唱する情報倫理(IE:Information Ethics)を批判する。IEは、あらゆる事物をデジタル化できることを前提としており、「IEの情報圏は、神のような超越的・俯瞰的な視点から世界の万物を見わたしているときに出現するものだろう」(128ページ)と指摘する。
西垣さんは、AI倫理のラフスケッチとして、「まるで人間のように振る舞う無数の『AIエージェント』が組み込まれ作動している社会における、多様な倫理的諸問題を考察すること」(133ページ)というスコープを示す。
西垣さんは、「倫理とは、行動を選択するときの『正しさの基準』をあたえるもの」(145ページ)と定義したうえで、個人の道徳観は揺れ動いており、社会規範との緊張関係から選択されるものだが、AIエージェントは社会規範を厳格に遵守して作動するものだと指摘。よって、AI倫理とは、AIを主導してきた米国の近代的倫理思想――前述の功利主義、自由平等主義、自由至上主義、共同体主義の4つに絞り込まれるという。これらを組み合わせ、独自の N-LUC と名付けた。
そして、AIはIA(Intelligence Amplifier=人知増幅機械)だと指摘する。
第2部ではAI倫理の練習問題として、自動運転、監視選別社会、AIによる創作の3つのテーマを取り上げる。
まず自動運転だが、冒頭で話題にしたトロッコ問題のほか、サイバーテロについて考察する。西垣さんは、「各自動車メーカーやIT企業などが極端に自社の利益のみにこだわらなければ、自動運転はAI応用として比較的早く実現される可能性もある」(195ページ)という。
監視選別社会に潜む問題は、キャシー・オニールさんが『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』で指摘している内容と同じだ。「スコアが低い個人やスコアリングを拒否する個人がうける不利益は甚大」(206ページ)という。西垣さんは、「生得的特性が個人のデータに含まれる場合はとくに要注意だ」(215ページ)と警鐘を鳴らす。
AIによる創作については、実例を挙げながら、「AIが利用し処理するデータそのものは、コンピュータが創ったわけではない。これまでの人間の作品の蓄積」(230ページ)と指摘する。そして、「日々苦労しながら芸術活動をおこなっているアーチストたちが、AIロボットと対話したり、AIの創作物にふれたりすることで、おそろしく新鮮な刺激をうけることも十分ありうる」(242ページ)という楽観論を提示する。
最後に西垣さんは、「AI技術の登場によって倫理的に浮上する諸点のなかで肝心なのはまず、AI信仰を克服した上で、AI活用の具体策を辛抱づよく議論していくことだろう」(224ページ)とアドバイスする。
(2019年11月30日 読了)
AI倫理に関するローマの呼びかけ
2020年2月28日、ローマ・カトリック教会のフランシスコ教皇が、AIを倫理的に活用することなどを骨子とした文書「AI倫理に関するローマの呼びかけ」(Rome Call for AI Ethics)に署名した。
教皇のほか、Microsoftのブラッド・スミス社長、IBMのエグゼクティブ・ヴァイスプレジデントであるジョン・ケリー氏、欧州議会議長ダヴィド・サッソリ氏、イタリアのパオラ・ピサーノ技術革新担当相、国連食糧農業機関(FAO)の屈冬玉事務局長なども名を連ねてている。
この呼びかけでは、下記の6つの原則をうたっている。
教皇のほか、Microsoftのブラッド・スミス社長、IBMのエグゼクティブ・ヴァイスプレジデントであるジョン・ケリー氏、欧州議会議長ダヴィド・サッソリ氏、イタリアのパオラ・ピサーノ技術革新担当相、国連食糧農業機関(FAO)の屈冬玉事務局長なども名を連ねてている。
この呼びかけでは、下記の6つの原則をうたっている。
- 透明性:AIシステムは原則として説明可能でなければならない。
- 多様性:AIはすべての人のニーズを考慮し、すべての人が利益を享受できるものでなければならない。また、全ての個人がAIを通して自分自身を表現し、成長していく最高の条件を享受できるようなものでなければならない。
- 責任:AIを設計または使用する者は、責任と透明性を念頭に開発を進めていかなくてはならない。
- 公平性:AIに携わる者は、偏見に基づいた行動や開発を行ってはならず、公平さと人間の尊厳を守らなければならない。
- 信頼性:システムは確実に動作しなければならない。
- セキュリティとプライバシー:AIシステムは安全に動作し、ユーザーのプライバシーを尊重するものでなければならない。
参考サイト
- AI倫理:中央公論新社
- PHPで機械学習(その1):ツイートを取得しDB格納:ぱふぅ家のホームページ
- 『仮想空間計画』――ディープラーニングを予言:ぱふぅ家のホームページ
- 『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』:ぱふぅ家のホームページ
- 『AIが人間を殺す日』――人工知能は万能ではない:ぱふぅ家のホームページ
- 『AI vs.教科書が読めない子どもたち』――中高生の学力はAI並:ぱふぅ家のホームページ
- あなたを支配し、社会を破壊する、AI・ビッグデータの罠:ぱふぅ家のホームページ
- AI倫理に関するローマの呼びかけ(Rome Call for AI Ethics) 2020年2月28日
(この項おわり)