自分の授業では、たとえば「課題80%、レポート20%: 課題の内訳は、ミニクイズ6回、授業内課題4回」というように、かなり具体的に成績評価基準を明示している。しかもすべてをほぼ客観的に採点している(多岐選択式のクイズや、レポートならチェックリストにそって)。
それにも関わらず、評価基準アンケートで「成績評価基準が明示されていた」と評価する受講生はこれまで10%くらい。低いんす。
授業で使っているスライドや配布資料も、そのほぼ100%を授業支援システムからダウンロードできるように提供している。
それにも関わらず、「教材・配布資料が適切だった」の評価もおよそ15%くらい。こっちも低い。
おかしいな、納得いかないぞと、今学期は、配布資料をすべて印刷して配ってみた。そして授業評価アンケートを配布するときに「成績評価基準が曖昧だと思う人は、どんなところが曖昧でどうすればもっと明確になるか書いて下さい」と教示するつもりだった。
そんでもって、さっきアンケートを配る前に確認したら、なんと!、これらの項目はそれぞれ独立して評価されているのではなく(例:「この授業の成績評価基準はどのくらい明確でしたか」に対して「まったく曖昧」から「とても具体的」までの5段階評価させるように)、13項目について「この授業についてお聞きします(複数回答可)」という、きわめて曖昧な質問によって丸付けされているだけなのであった。
が〜ん。知らなかった。
こんな質問の仕方をしたら、原理的には各項目を「あてはまる」「あてはまらない」の二者択一で回答させていると言えないこともないけれど、現実的にはこの授業に最もあてはまる数項目を選んでつけるのではないだろうか。
とたんにやる気喪失。
全資料を印刷配布したせいで、「教材・配布資料が適切だった」に丸をつける受講生が増えるぶん、これまで丸がついていた「教え方がわかりやすかった」とか「モチベーションを高める工夫がなされていた」が減るかもね。
データにもとづいて授業改善しているつもりだったが、そのデータの妥当性・信頼性をチェックしていなかった。初心者の過ちじゃねぇか。
やっぱり大学が用意している項目よりも、各授業で具体的な改善策について自由記述を求め、それを参考にした方が良さそうだ。