■ハーバード大学は、科学と倫理を同時に学べる「Embedded EthiCS」というカリキュラムを作成している
■専門分野だけを学ぶと、固定的な思考の型ができてしまい、問題に対して一方向からのアプローチしかできなくなる
AI技術の発展はめざましく、世の中は便利になる一方ですが、倫理的な問題にも直面しています。このまま技術だけが進歩して、「AIの道徳能力」が育たないままになると、それが返って社会的害悪となることも有りえます。しかし、AI自体に倫理的思考機能を実装するには、まだまだ問題が山積みなのです。
そこで重要なのは、AI開発に携わる科学者たち本人が、倫理的な判断を持つこと。こうした科学と倫理の両側面から問題にアプローチできる人材を育成するため、ハーバード大学は「Embedded EthiCS」という新たなカリキュラムを設立しました。
考案者である同大学のバーバラ・グロッツ氏による詳細な報告は、2018年に「Communications of the ACM 」上に掲載されています。
https://dash.harvard.edu/handle/1/37622301
グロッツ氏は、社会の中で正しく役立つAIをつくるには、「AIにどういうことができるか」ではなく、「なぜそのAIが必要なのか」を考慮する視点が必要になると指摘します。それに向けて設立された「Embedded EthiCS」は、コンピューター・サイエンス教育と並行して、哲学や倫理学の教授による道徳的議論にも取り組むことができるのです。
例えば、AIによる「マシンラーニング(機械学習)」の技術学習と並行して、その機能がもたらす社会的な利益や害悪を学生自身で発見し、話し合うというもの。こうした倫理的命題に取り組むことで、学生たちは、科学のように明確な答えのない問題に突き当たることになります。ただ、そうした不明瞭な問題に対しても、教授陣は、科学的思考と同様に厳密で論理的な思考で取り組むよう、学生たちに促しています。グロッツ氏は「そうすることで、倫理的思考が、科学の技術面を考慮する以上に労力を必要とすることを知ってほしい」と話します。
このカリキュラムは学内でたちまち話題を呼び、定員30名に対して今では140名の受講希望者がいる状態。さらには、学生たちだけでなく、学内の教師たちまで講義に参加したいという人が増えているのです。この反響を受けて同士は「このようなカリキュラムは、アメリカ国内の他大学でも実施される必要がある」と指摘。
というのも、一講義の中に科学と哲学を混合させる形態は珍しく、ほとんどの大学では、専門となる科目だけを学ぶ状況にあります。それによって、どうしても自分の専門分野に偏った思考の枠組みができてしまうのです。
技術開発により社会を発展させる科学がアクセルなら、その不利益・害悪を客観的に考慮し押しとどめる倫理はブレーキの役割を果たします。従来の文理独立では、どちらか一方に行き過ぎてしまうのは言うに及ばずです。しかし、AIが実際に社会の不利益となる可能性のある現代において、科学と倫理を兼ね備えたハイブリッド型の思考は必ず必要となってきます。
このまま技術だけが暴走すれば、ターミネーターのように人類に対して反旗を翻すAIが誕生…となるかはわかりませんが、予想外の害悪が発生することは有りえます。それを防ぐためにも、科学者が倫理的思考というブレーキングを磨くことは必須であり、反対に、倫理学者が科学的思考を養うことも必要となるのです。
reference: harvard.edu / written & text by くらのすけ