しずかなアンテナ

哲学の瓦礫片のための場所。

chatGPTと大学レポート

学生がchatGPTをレポート作成に使うことに、どう対応すべきか。

根本的には「内容が変だったら普通に減点する」「教員の側から質問をする」というのが答えになるのではと考えている。

 

前提の整理

まず、関係する前提を整理しておく。

すでに多くのひとが指摘しているように、現行のchatGPTには得手不得手がある。社会的に共有されている「一般論」を整理して提示することや、利用者が与えたデータを修正することは得意である。また、全く異質と思われる要素を組み合わせてそれなりに整合性のあるものを創り上げることも得意なようである(「浦島太郎とかぐや姫が大活躍する『桃太郎』のストーリーを作ってください」のような)。

一般論から一段深まった論を提示することは不得意なようである。とりわけ固有名詞、現実に存在する理論、歴史的出来事を正確に論じることができない。たとえば「ヘーゲルはマルクスにどのような影響を与えたか」と聞くと、「ヘーゲルはマルクスの『資本論』をよく読んでその概念を理解していました」と返ってくる。また、人間は自分が確信している知識、社会や学界でコンセンサスが得られている知識、そこまで自信が無い知識、不確定な知識を区別して書き分けることができるが(というか、それを書き分けることが学部生のトレーニングとして大切なのだが)、現状のchatGPTは確信の度合いを書き分けない。

学生が期末レポートにchatGPTを使うとき、こうした得手不得手を理解したうえで活用しているのか、レポートの問いをchatGPTに入力してその回答をそのままペーストしているのか、という点は区別する必要があるだろう。

 

第2に、ここまで「現状の」と何度も書いていることからわかるように、いまのchatGPTの得手不得手は2023年1月現在のものでしかない。OpenAIあるいは他プロジェクトの類似AIは近い将来にどんどん改善されてゆくだろう。だから現状のchatGPIの能力をベースに対応や基準を設定しても、翌学期にはそれがもはや当てはまらないという事態が十分かんがえられる。したがって教員や学部や大学がchatGPT利用に対する基準を設定する際、現状の能力に依存したものではなく、AIの本質(というものが存在するのかは別問題だが)を掴んだうえで設定する必要があるだろう。

 

第3に、学部・学界によってchatGPTの活用方法(悪用方法?)は大きく異ると思われるので、大学単位や文科省単位で一律に基準を設けることはほぼ不可能だろう。理工学分野と人文学分野では感覚が異なるだろう。自分が関わる分野で言うと、防災や復興に関しては世の中にかなり「一般論」のデータが蓄積されている。こちらとしてはそうした一般論から一歩足を踏み出したことを考えてほしいと思って授業をするので、chatGPTで一般論だけをまとめたレポートを量産されると困る。しかし活用法によってはうまく「ハマる」分野もあるだろうと想像する。

 

一律禁止は可能か、有益か

前提の整理だけで長くなってしまった。本論としてまず考えるべきは一律禁止にするか、部分的活用を認めるか、むしろ積極的に使用を推奨するか、という点であると考える。

一律禁止にするという選択肢は現実には困難である。その場合、chatGPTを使用したレポートは不合格とするという採点基準を設けることになるが、採点者がエビデンスを示してchatGPT使用を摘発することは難しい。AI能力の向上によって、この困難はさらに確実になるだろう。

類似の問題として、学生がchatGPTを叩いて得た回答を使うのがダメだとしても、chatGPTの出力を用いたウェブサイトを学生が閲覧し、それを引用したり参考にした場合はどうなるのか、ということがある。

chatGPTの利用をレポートの文面のみから一撃で確証する方法は無い。それを確証しようとするためにはAIに頼らねばならないが、AIを超えるAI、知能を超える知能は存在しない。chatGPT利用を確証する高性能AIは登場するだろうが、その高性能AIでレポートを書くことができてしまう。

安易な利用については、教員はかなりの確度でそれを見抜くことができるだろう。しかし採点に反映し、成績を付け、単位を認めないとするためには「見抜く」だけでは足りない。

 

すると部分的活用を認める、もしくは積極的活用を推奨する、という方向にならざるをえない。「使ったらダメと言うことはできない以上、うまく使ってね」ということである。ただその場合も、「うまい使い方」「うまくない使い方」の基準やガイドラインを考案し、それを授業内で指導もしくは提示する必要がある。たとえばレポートの粗筋をまずchatGPTに書かせてみたり、草稿を清書させるといった使い方はOK、あるいは推奨するというやり方である。

現実として、chatGPTやそれに類するAIサービスは今後社会の知的技術の一部になる。その活用能力を身につけることは学生の生きる力に直結する。だとしたら、chatGPTの得手不得手を理解する手段としてレポートで活用してもらうくらいの方が良い。この立場に立つなら一律禁止はむしろ有害である。

 

しかしこの場合も、上記の「一律禁止」の場合と同様に、「うまい使い方」と「うまくない使い方」を一撃で確証することができないという問題はやはり残る。

 

長い。結局おまえはどうするんや。

chatGPTの出力をレポートに用いる(参考にしたり、文章を流し込んだりする)とき、その内容が正しいかどうかを学生が判断して取捨選択・加減修正しているかどうか、がキーであろうとおもう。個人的にはそのように積極的に使ってほしいと言うぐらいでも良いと思っている。「知識を収集し、自分で考え、筋を練り上げて、議論のルールに従って表現する」という工程のなかにAIが入ることは良いことだろう。

chatGPTは言わば「嘘をついたと認めたら死ぬ病気にかかっている、アホみたいに物知りのオッサン」である(別にオッサンにする必要はないが、なんかそういうオッサンが駅の窓口や喫煙所にいて何でも答えてくれる風景を想像すると和んだのでそういうことにする)。GPTオッサンと雑談して来るのは良いが、レポートを書くのは学生自身の責任である。あなたはこれを正しいと思って書いているのだよね、ということでしかない。「chatGPTがそう答えので正しいと思いました」は許さないということである。

だからchatGPT利用の痕跡があろうが無かろうが、単純に、内容がおかしかったら減点するということで良いのではないかとおもう。

ただ問題は、表面上は正しいようだが、本当にこのひとは自分でこれを考えて、正しいと思っているのだろうか…?というグレーゾーン的レポートである。おそらくこういったものは一定度発生するだろう。この場合、レポートの内容について、出題者が追加でメールなり対面なりで提出者に問うということになるだろう。その場合、「ここ、chatGPT使ったんじゃないの?使ってたならアウトね」と聞くのではなく、「あなた自身はこの部分をどのように理解しているのか」と聞くということになるだろう。その回答にAIを使うのもアリだ。

 

追記。当人に聞いてみた。

いまいちな答えだった。もっと攻めて来てほしい。