人間ならではの能力を評価する体験型評価

(B)使用を申告させる
 4象限の右下に位置するのが、AI使用を禁止するのではなく、使用した場合は正直に申告させるという方針だ。使用するツール名やプロンプト、使用範囲の明記を求め、一方で「隠れた使用」は不正とみなす。その意味では「使わせない」方針と重なる部分もあるが、一定の利用を認めるという点で異なる。

 たとえばNUS(シンガポール国立大学)は、2024年8月に発表した「教育・学習におけるAI利用に関する方針」において、学生向けのガイドラインとして「AIツールの助けを借りて課題を作成した場合は、常にその使用を申告する必要がある」と定めている

 またその際には、どのAIツールをどのプロセスで使用したか、どのようなプロンプトを入力したか、出力に対してどのような価値を付け加えたかといった詳細を報告させるだけでなく、必要に応じて、AIとのやり取りの全記録を付録として提出することを求めている。

 こうした情報を得ることは、大学側にとっても、今後の方針を定める上での重要な情報となるだろう。

(C)構造的に制限
 AI利用は制限するが、「とにかく使わせない」という単純な姿勢ではなく、構造的にAI利用を一定の枠にはめようというのが左上の象限だ。

「5. 評価方式の変更」は、AIが使われてしまうことを前提として、それが踏み込むことのできない領域で学生の能力を評価するという方針である。冒頭で紹介したように、AIができることは増える一方だが、それでも人間にしかできない領域はまだまだ残されている。ならばそれを評価する方法を導入しよう、というわけだ。

 たとえば「オーセンティック評価(Authentic Assessment)」は、現実の課題や状況に近い形で学習者の能力を評価する方法を指す。AIが得意とする一般的・抽象的なエッセイではなく、特定の地域社会や実在する組織の課題解決など、文脈依存性が高い課題を課すことで、批判的思考力や問題解決能力などを見るのが狙いだ。

 また「インタラクティブ・オーラル評価(IOA: Interactive Oral Assessment)」は、オーストラリアやアイルランドなどで推進されている評価手法で、学生に特定のトピックに関する質問にリアルタイムで回答させ、理解力や推論力、即興力、コミュニケーションスキル等を評価する「体験型評価」とされている。

 AIの普及がますます進む中で、こうした「人間ならでは」「人間にしかもたない」能力の評価方法の高度化と普及が進むだろう。