2025年11月13日、米国高等教育アクレディテーション協議会(Council for Higher Education Accreditation: CHEA)のナッサー・H・ペイダー会長が、「人工知能(AI)を導入した未来においてもアクレディテーションは人間らしさを保てるか?(” Can Accreditation Stay Human in an AI-Driven Future?”)」と題した見解を公表した。 本記事では、この見解に加え、2025年2月に公表されたCHEAによる「アクレディテーションやアクレディテーション機関の認定におけるAIの活用に関する指針」も併せて参照し、CHEAのアクレディテーションにおけるAI活用への姿勢について紹介する。
CHEAによる、「アクレディテーションとアクレディテーション機関の認定におけるAIの活用に関する指針」
CHEAは2025年2月に、「アクレディテーションとアクレディテーション機関の認定におけるAIの活用に関する指針(CHEA Guiding Principles for Artificial Intelligence in Accreditation and Recognition)」を発表した。AIの技術革新の進展は、高等教育と質保証の分野において進歩とともに、課題を体現するものであるとして、アクレディテーション機関等による責任あるAIの利活用を支援し、アクレディテーションやアクレディテーション機関の認定の本来の目的を守るための推奨ガイダンスとして策定された。
指針は、次の5つのキーワードで構成されている。
➀Human control, absent bias, of the decision-making process(意思決定プロセスにおける人間のコントロールとバイアスの排除)
AIは人間による独立した意思決定プロセスを支援するために利用されるべきであり、AIによって人間の意思決定が代替されないようにしなければならない。
➁Deployment and documentation of authentic data(真正なデータの展開と文書化)
検証可能なデータと情報のみを事実としてアクレディテーションにおいて用いるべきである。
➂Adherence to ethical guidelines of transparency and accountability(透明性と説明責任に関する倫理的ガイドラインの重視)
アクレディテーション及び認定においてAIシステムまたはプラットフォームを使用する際に、(データの)明確性と透明性を重視すべきである。AIシステムまたはプラットフォームは、収集されたデータを操作または変更するために使用されてはならない。
➃Protection and security(保護とセキュリティ)
AIソフトウェアを使用する際には、センシティブなデータやコンテンツを保護し安全を確保する必要が常にある。
➄Reliability of AI systems(AIシステムの信頼性)
AIシステムの信頼性は、信頼できる情報源によって検討され、その情報を活用するアクレディテーション機関によって承認されるべきである。
AIを導入したアクレディテーションについてのCHEA会長の見解
CHEA会長のペイダー氏は、より根本的な問題として、教育におけるAI利用についても議論を展開した上で、アクレディテーションにおけるAI利用について考察している。
教育におけるAI利用について
AIの急速な普及によって、「どのようにすればテクノロジーが教育における人間的な側面を代替するのではなく、強化することにつながるのか」を熟考することが促されている。AIによって効率性と新たな視点がもたらされるが、同時に「教育の質」をどのように定義するのかが問われている。課題はAIの導入による変革に抵抗することではなく、この変革が学習、公平性、そしてアクレディテーション機関の使命を前進させることを確かにすることである。
アクレディテーションにおけるAI利用について
➀データは決定事項ではない
AIは情報の収集や分析に役に立つが、アクレディテーションは常に文脈や専門的な判断に依拠するものである。機械は情報を集めることはできるが、(情報から得られる)エビデンスから、理解を構築する過程を代替することはできない。
➁ピアレビューは依然としてアクレディテーションの基盤である
ピアレビューは、専門家同士がエビデンスや状況を解釈しあう対話で成り立っており、AIが高度化しても、人間同士の熟慮を伴うやり取りを置き換えるのではなく、あくまで支援する役割にとどまるべきである。
➂AIは教育とその評価を変化させている
適応型の学習プラットフォームによる指導の個別化や生成型AIツールは学習アクセスを広げているが、それは学習の評価の意味を曖昧にしている(例えば、AIチューターが学生のエッセイ作成を支援する場合、その成果は学生自身の学びを反映しているのか、それともAIの介入を含むものなのかという問題が生じる)。
AIの導入に透明性が伴わなければ、学習評価の信頼性と公平性は保たれない。
➃AIを導入する際には、倫理とガバナンスにより方向性を決定させる必要がある
AIには情報のバイアスや個人情報の漏洩、不明確な意思決定といった新たなリスクがある。効率性だけを質の指標にすることはできない。
こうした中でCHEAは、技術がより普及するにつれて、人間による監督、倫理的な利用、透明性が不可欠な安全策であるとし、「アクレディテーションとアクレディテーション機関の認定におけるAIの活用に関する指針」として明記しているのである。
➄アクレディテーション機関は方向性を示す責任を共有している
アクレディテーション機関は、AIを導入すると同時に、「AIはどのように使われるのか」「その監督は誰が担うのか」「どのように学生の学習を促進し、機関の使命を維持するのか」といった重要な問いを投げかけることで、信頼を築いていく必要がある。
➅テクノロジーはこれからも進化し続けるが、信頼はゆっくりと育まれる
大学やアクレディテーション機関はAIを、所定のチェック作業を早めるためではなく、学習、質、学生の成果についての共通の理解を深めることに役立てることが求められる。
ペイダー氏は見解の締めくくりに、「AIが高等教育の未来を決定するわけではなく、AI をどう使うかという私たちの選択が未来を決めるのである。テクノロジーによってアクレディテーションを単なるチェックリストに貶めることもできれば、あるいはそれを利用して、常に最も重要視されてきたもの—教育が社会の信頼に値する存在たらしめる人間の知性、対話、誠実さ—を強化することもできるのだ」と述べている。







