欧州高等教育質保証協会(ENQA)は2025年12月、ウェブサイト上で、2025年6月11日~12日にエストニアのタリンで開催した「質保証機関における人工知能(AI)の責任ある活用」に関するワークショップの報告書を公開した。あわせて、同ワークショップの成果とその後のENQA正会員や加盟団体との協議を踏まえて策定した「質保証機関におけるAIの責任ある活用に関するガイドライン」も公表した。本記事では、ワークショップ報告書の概要とガイドラインで示された10の原則について紹介する。
■「質保証機関におけるAIの責任ある活用」に関するワークショップ報告書
ワークショップは、高等教育機関におけるAIの影響を把握し、外部質保証活動におけるAIの責任ある利用を検討するとともに、そのための原則を探求することを目的に開催された。報告書には、課題や優良事例となり得る事例等の、ワークショップでの議論の要点がまとめられている。また、質保証機関がAIを責任ある形で業務に統合するための原則案を策定する上で検討が必要となり得る領域についても提示されている。以下は、その概要である。
議論の要点
質保証機関は現在、AIが高等教育に与える影響を理解すると同時に、自らの業務においてAIをどのように責任ある形で活用し得るかを検討するという課題に直面している。
こうした状況の中で行われた議論からは、ワークショップ開催時点において、ほとんどの質保証機関が依然として業務におけるAIの活用の初期段階にあることが明らかとなった。また、国レベルの規制がないことや、AIが欧州高等教育圏(EHEA)の既存の質保証の方針やツールの使用・適用にどのような影響を与えるかが不明確であるとの指摘もなされた。
ワークショップで共有された優先事項
外部質保証におけるAIの活用について議論する中で、以下の共通の優先事項が明らかになった。
・倫理と透明性:
質保証におけるAIの活用は、倫理的で透明性があり、生成された成果物に対して説明責任を負わなければならない。
・包括性と公平性:
AIは既存の不平等の助長や、資源不足の機関や個々の教職員・学生の排除をするべきでない。
・人間による管理:
テクノロジーは人間による判断を支援するものであり、代替するものではない。
・連携と知識の共有:
EHEA全体で一貫したアプローチを確保するため、質保証機関間のより密接な協力が必要である。
■外部質保証におけるAIの責任ある活用に関するガイドライン
ワークショップ後、ENQA理事会での議論等を経て、ENQAは2025年11月に「外部質保証におけるAIの責任ある活用に関するガイドライン」を発表した。ガイドラインの目的は、質保証機関が AIを外部質保証手続きに統合する際に留意すべき主要な原則と検討事項について指針を示すことであり、拘束力はないとしている。
以下は、ガイドラインに掲載されている10の原則である。※当機構国際課による翻訳。
戦略的及び組織的統合(Strategic and Organisational Integration)
質保証機関は、AIそのものによる外部質保証活動を目的とするのではなく、外部質保証活動におけるツールとしての役割に焦点をあて、AIの活用に関する明確な組織全体の方針を策定し公表することが推奨される。
倫理的、包摂的、持続可能な活用(Ethical, Inclusive, and Sustainable Use)
質保証機関は、AIの活用が倫理基準、包摂性、環境の持続可能性、学術的自律性、そして関連する国内または地域の法令及び人権の枠組みに整合するよう努めるべきである。
透明性とコミュニケーション(Transparency and Communication)
質保証機関は、外部質保証におけるAIの活用方法について、活用の公開声明や利害関係者との透明性のあるプロセスを含め、積極的に情報を開示するべきである。
データ保護と同意(Data Protection and Consent)
AIの活用は、データ保護法を遵守しなければならない。評価対象の高等教育機関、関連する利害関係者、ならびにパネルメンバーから明示的な同意を得ない限り、個人情報やその他のセンシティブ情報を処理してはならない。
公平性とアクセス(Equity and Access)
質保証機関は、外部質保証に関わる者に対してAIへの公平なアクセスを支援し、質保証プロセスにおける既存の不平等を助長しないよう努めることが推奨される。
目的の整合性と継続的な評価(Fitness for Purpose and Continuous Evaluation)
質保証機関は、外部質保証活動においてAIツールを適切な場合にのみ使用し、その有効性、正確性、外部質保証活動の目的との整合性について、継続的に監視・評価・改善していくべきである。
人間による管理と説明責任(Human Oversight and Accountability)
AIは、人間による判断を支援するものであり、置き換えるものではない。最終的な決定は、「欧州高等教育圏における質保証の基準とガイドライン(ESG)」で定められたピアレビューの主要原則に沿って、人間の専門家が責任を負うべきであり、AIが生成したアウトプットについては批判的な評価を含めるべきである。
研修とAIリテラシー(Training and AI Literacy)
外部質保証に関わる全てのスタッフ及びレビューパネルは、責任ある、情報に基づいた利用を促進するために、AIツール、リスク、責任と信頼のある活用を促進する機会について定期的な研修を受けるべきである。
慎重な革新(Innovation with Caution)
質保証機関は、質と誠実性を確保するための明確なガイドラインを適用しつつ、AIを用いた実験や革新のための余地を設けるべきである。
定期的な見直しと適応(Regular Review and Adaptation)
AIの活用に関する質保証機関の原則及び戦略は、技術の発展や高等教育分野の変化を反映するために定期的に見直し、更新すべきである。
原典①:ENQA(英語)
原典②:ENQA Workshop Report: Responsible Use of Artificial Intelligence in Quality Assurance(英語)
原典③:Guidelines for the Responsible Use of AI in External QA(英語)
■関連記事まとめ■ (本サイト過去投稿記事より)
1.欧州共通の質保証基準の改訂に向けて:QA-FITプロジェクトが考慮すべき観点を検証 | 高等教育質保証の海外動向発信サイトQA UPDATES
(本サイト2025年3月24日)
2.EU理事会が「欧州の高等教育質保証及び資格の承認システムに関する勧告」を採択 | 高等教育質保証の海外動向発信サイトQA UPDATES
(本サイト2025年8月5日)
3.欧州:資格承認関係者による会議で高等教育資格の承認とAIについて議論
(本サイト2025年9月24日)
