加盟大学専用サイト

アルカディア学報

No.763

大学教育は生成AIに前のめりでよいのか
―乖離する国際的動向と日本

研究員  羽田貴史(広島大学・東北大学名誉教授)

生成AI 人類の跳躍か混乱か

 生成AI(Generative Artificial Intelligence)の利活用は、直面している大学教育の最大課題の一つである。一方、欧米では、生成AIによるフェイク画像・情報がもたらす混乱など、その危険性を指摘する声が強い。2023年5月にSNSでアメリカ国防省爆発のフェイク画像が拡散され、NY株は100ドル以上下落した。12月には、ウクライナ大統領夫人の豪華な服装と旅行がネットに掲載された。ウクライナ国民の士気を削ぐためと推測された。組織・集団や政府が情報かく乱と誘導のためにAIを利用することもありうるし、すでに利用されている。
 人間が意図しなくても、AI自体が誤情報を発信することがある(ハルシネーションリスク、AIがでっちあげ、誤情報・根拠不明の情報を生成すること)。2023年7月にアメリカNY州の弁護士がChatGPTに頼って存在しない判例を記載した裁判資料を作成してしまった。ネット情報の信頼性を評価するアメリカ企業が、誤情報をもとにChatGPTに文章を作成させたところ、80%が誤情報を含んだ文章を作成したという(読売新聞オンライン、2023年2月14日記事)。

リスクとしての生成AI、警鐘と規制

 2023年には、関係者が警鐘を発するようになった。5月23日にAI基盤技術の開発者J・ヒントンは、グーグル退社後、危険性を指摘、5月30日にAI専門家300名が、パンデミック・核戦争とともにAIがサイバー攻撃、兵器などへ軍事利用される危険性(インフォミデック)を指摘し、「AIが人類に絶滅をもたらすリスクを考慮すべき共同声明」を発した(この中には、ChatGPT開発者のサム・アルトンがいる)。7月13日には、グーグルCEOがAIの生成するフェイク動画へ警鐘を鳴らし、AIの能力を拡大する前により多くの安全対策が必要と述べている。
  AIのリスクは多岐にわたる。利用者が情報入力する場合には、①機密情報の誤入力と情報流出、②各国のAI規制法を知らずに法令違反を犯す危険性、③サービス事業者の管理不備で、大学や個人の情報漏洩が想定、④AI作成コードに不正プログラム混入などが指摘されている。また、出力データのリスクとしては、⑤ハルシネーションリスク、⑥AIの収集した情報をそのまま使用することで、著作権など各種権利侵害を意図せず行ってしまうこと、⑦他者の機密情報を取得・拡散し、意図せず情報漏洩を行ってしまうこと、⑧未許可サービスを利用し、マルウェア感染する危険性、などが指摘されている(山口雅史「生成AIのセキュリティリスクと対応のあり方」、第361回NRIメディアフォーラム 2023年8月9日)。
  従って、国際的動向のポイントは、AIのもたらすリスクを軽減する方策であり、市場投入の規制である。G7共同声明(2023年9月7日広島プロセス)は、「民主主義の価値を損ない、表現の自由を抑圧し、人権の享受を脅かすようなAIの誤用・濫用に反対する。我々は、イノベーションを可能にする信頼できるAIのための国際標準と相互運用可能なツールの開発と導入を促進するというコミットメントを再確認する」ことが冒頭にあり、指針として、「AIライフサイクル全体にわたるリスクを特定、評価、軽減するために、高度なAIシステムの開発全体を通じて、その導入前及び市場投入前も含め、適切な措置を講じる」ことを述べている。つまり、安全性確保のための事前規制が眼目であり、すでに市場に登場し、利用されているAIを安全と見做していない。我々が市場で購入する食料・医薬品・自動車、玩具でさえ、JIS(日本産業規格)やJAS(日本農林規格)、医薬品承認審査などの審査を経ており、安全性を確保しようとしている。しかし、AIはこうした品質保証がなしに流通している。影響力の比は、他の商品と比べものにはならない。12月には欧州連合欧州委員会が、AI規制法案(AIAct)に合意し、2024年の施行を目指している(PWC「生成AIをめぐる米欧中の規制動向最前線 欧州『AI規則案』の解説」)。この法案は、AIをリスクベースで分類し、リスクに応じた規制を適用するもので、違反時には制裁金を課し、関係する日本企業も対象となる。分類は、生命・人権に直接脅威をもたらす「許容できないリスク」(禁止)、健康・安全、人権、社会的・経済的利益に影響を与える可能性のある「高リスク」、深刻なリスクはないが透明性の必要、コンテンツが対話型AIによって生成されたことを明らかにする必要のある「限定リスク」、AIを利用したビデオゲームなどごくわずかのリスク「最小リスク」の4段階であり、教育・職業訓練は「高リスク」に分類され、品質管理システム、適合性評価を受ける義務、自動生成ログの維持義務、是正措置・情報提供義務などが課せられることになっている。新聞報道でもその影響が指摘されており、今後大きくAIへのスタンスが変わるだろう。

教育へのAIの応用・利用は?

 教育への利活用には、Office of Educational Technology. 2023. Artificial Intelligence and the Future of Teaching and Learning:Insight and Recom mendations(米国教育省教育技術室「人工知能と教育と学習の未来」2023年5月)が参考になる。文献目録を含め、64ページに及ぶこの勧告は、2022年6月から8月にかけて4回の公聴会を開き、専門家・市民・教育者が参加してまとめたもので、AIの利用が障害のある生徒や多言語学習者の学習改善に寄与する可能性を重視する一方、提供する情報の不正確さやアルゴリズムよる差別の拡大(あるタイプの生徒集団に推奨される学習機会やリソースが組織的に不公平を生むこと)、AIによる指導の決定が自動化され、不完全なデータ、稚拙な理論に基づいて、一部の生徒にカリキュラムのペースを速め、学力格差を拡大する可能性を指摘し、こうしたリスクを起こさない政策を早急に必要としている。特に、レポートなどの作成物での盗用は、AIが行うと検出されないという懸念を表明している。求められる政策とは、「人間の意思決定と判断を守りながら自動化を活用して学習成果を高める」方策であり、「人間のチェック・アンド・バランスの提供や公平性を損なうAIシステムやツールの制限など、公平性を守り、向上させるための措置を講じる」ことを勧告している。
 現在の大学の対応だが、例えば、スタンフォード大学は、「コースの課題を完了するために許可されていないツールを使用することは名誉規範に反する」としている。コースによっては生成AIも禁止され、許可されない限り原則禁止である。あまり知られていないが、アメリカの大学教育では、ターム・ペーパー、レポートが学習成果と成績評価の重要な素材であり、学生はレポート作成に際し、教員の許可なしには同級生、友人、両親の協力もあってはならない。許可ない協力は、Unauthorized Co-llaborationと呼ばれ、不正行為である。iThenticateなど既存の剽窃検出ソフトは、生成AIによって作られたレポートを検出できない。危機感をもって規制するのも当然であろう。

リスクを軽視し前のめりな日本の大学

 これに対して日本のガイドライン類は異様なほどに前のめりである。「生成AIの利活用に関する国立大学協会会長コメント」(2023年5月29日)、文部科学省初等中等教育局長「「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」の作成について(通知)」事務連絡(7月4日)、高等教育局専門教育課大学教育・入試課「大学・高専における生成AIの教学面の取扱いについて(周知)」事務連絡(7月13日)、私立大学連盟「大学教育における生成AIの活用に向けたチェックリスト〔第1版〕」(7月24日)などがあるが、これらの文書には共通する特徴がある。
 第一に、欧米のガイドライン類は、流通しているAIにはリスクがあるので規制を通じて信頼性のあるAIを求めているが、日本の文書は信頼性のあるAIを作り出す課題には触れず、現在の利活用についてのみ述べている。最近、日本雑誌協会などが「生成AIに関する共同声明」(8月7日)を発し、著作権侵害のリスクなど、ようやく利活用以前の問題を指摘するようになった。
 第二に、利活用のリスクを具体的に検討して回避する方法を提示するのではなく、大学と教員個人に丸投げしている。例えば、AIで作成された盗用レポートを検出できないという深刻な状況について「国立大学協会長コメント」は、「各大学は研究不正の生じないような生成AIの利用に向けた注意喚起等に努めることが必要と考える」としているが、「注意喚起」で不正が抑制できると考えているとすれば実態に無知であり、本気で防止するつもりとは思えない。大学生のレポート不正問題のデータは少ないが、慶応・上智・法政大学学生600人が回答したコンピュータ利用教育学会の調査(2010)では、コピペレポートが35%にのぼり、(首都圏大学1年生217人が回答した教育システム情報学会の調査(2015)では、小論文課題でコピペをした学生41%であり、東京大学教養学部は2015年に後期課程学生の75%がコピペしたと告知した。現にある「危機」なのである。
 第三に、日本の文書はどれも、なぜその結論に至ったかが示されていない。ITや大学教育の専門家でもなく、個人見解か組織の見解かも不明な国大協会長コメントは論外だが、7月13日事務連絡も、有識者や中教審委員からの意見聴取を行って作成したと説明があるものの、文科省の責任で取りまとめられ、どのような意見が示され、それを踏まえた結論なのかが全く示されない。妥当性も合理性も検証・確認できないものが、学術世界で通用するのだろうか。

人間の主体性・自律性とAI

 より本質的な相違は、欧米は、AIが人間の自律的意思決定を歪め、統御できなくなる危機感があるのに、日本の諸見解は、新聞報道も曖昧なことである。それは単なる危惧ではない。2016年のアメリカ大統領選挙でのトランプ勝利、イギリスのEU離脱など国民投票による政策決定にデジタルテクノロジーが大きな役割を果たし、世論操作が行われてきた。ネットに偽情報が拡散され、ソーシャル・メディアでの「世論」を作るネットへの書き込みの4分の1は、人間ではなくアプリケーションの一種であるボットによるもので、ネット情報が人間の意思決定を左右するが、ソーシャル・メディアに慣れた若者は、情報源やその真偽を確かめないでうのみにする傾向があるという。「問題は、IT企業が世に放つテクノロジーに対して、もしそれがまったく予想されない方法で利用されたとしても、一般人にはそれがわからない、身を守るすべすら知らないことである。そういう意味では世の中のデジタル革命に対する用意が不足しているとしか思えない」(福田直子『デジタル・ポピュリズム 操作される世論と民主主義』集英社新書、2018年、p.214)。笹原和俊は、メディアリテラシー教育の必要性を訴えるが、それは、単なる利用方法だけでなく、ネットの情報の真偽を見破るスキルのためである(『フェイクニュースを科学する 拡散するデマ、陰謀論、プロバガンダのしくみ』化学同人、2021年、pp.142-145)。
 深刻なのは、AIを利用している何人かの大学教員と話をした時、彼らは、AIの危険性もある程度は承知しつつ、どう有効に利用するかに関心があり、社会全体にもたらす問題にほとんど関心を持たず、問題は誰かが解決すると思っていることにびっくりした。理系の研究者は情報技術には強いが、社会への影響を含めて技術を評価するマインドが乏しい。文系研究者には理系マインドが必要だが、理系研究者には社会への視点が必要である。メディアリテラシー教育が必要なのは、まず大学教員と大学執行部である。