まとめ#
最終更新日:2026年2月16日
✅ 画像認識パートを担当しての感想#
本演習では,画像認識パートの担当として,以下のステップで進行しました.
環境構築(1週間) \(\rightarrow\) 座学(2週間) \(\rightarrow\) MNIST数字分類課題および発表(1週間) \(\rightarrow\) キャッサバ病害分類コンペおよび発表(4週間)
情報科学演習の導入部分ということもあって座学からはじめましたが,最初の座学2回よりも,各自に与えられた課題の精度向上に取り組む時間の方が学生たちは楽しそうに見えました.次回以降は,座学の時間を短縮するか,あるいは試行錯誤の要素を盛り込んだ実践的な座学形式にするべきだと感じました.
また,B3は「情報科学実験」も並行して進める必要があるため,本演習が疎かになる懸念もありましたが,実際にはそのようなことはありませんでした.むしろ学生たちの熱意を信頼し,次回以降はコンペの期間をさらに長く設定しても良いかもしれません.
病害分類コンペにおいては,以下の点が非常に印象的でした.
ラベルノイズへの着目:データセット内のラベルノイズが議論の対象となった点には感銘を受けました.私自身が学生として受講していた際には,そこまで意識が回りませんでした.
ツールの自作と共有:データクレンジングを効率化するためのツールを自作して公開し,B3内で更新し合うといった動きが見られました.最終的にクレンジング作業へ時間をかけすぎてしまった面もありましたが,「全体の効率化のために,まずツールを整備する」というエンジニアリング的なアプローチは高く評価したい点です.
さらに,今回はデータ分析,可視化,モデル訓練,検証を行うサンプルコードを配布しました.これにより,環境構築や実装の細部で詰まることなく,モデルの試行錯誤という本質的な作業に注力してもらえたため,この試みは成功だったと考えています.ただし,サンプルコードが単純なMLPとCNNのみであったため,今後はより多様なモデルの選択肢を含めても良いかもしれません.
⚠️ 実施してみて分かった注意点#
演習の運営を通して見えてきた課題です.
資料構成のトレードオフ:今回はGitHub Pagesでの見栄えを考慮し,パワーポイントの資料を画像としてNotebookに埋め込む形式をとりました.しかし,実際の講義では操作しづらさを感じました.学生にとっても,スライド資料とコードのNotebookは別ウィンドウで開けた方が参照しやすいはずです.来年以降は,「講義用資料(パワーポイントとNotebookを分離したもの)」と「配布用資料(パワーポイントをNotebookに埋め込んだもの)」の2種類を用意することを推奨します.
計算資源の確保:病害分類コンペにおいて,3060Ti搭載のPC1台を4人で共有してもらいましたが,流石に手狭すぎました.利用可能なPCがそれしかなかったという事情はありますが,計算資源の不足が試行錯誤の回数を制限してしまった点は反省材料です.次回以降は,研究室メンバーのPCに同居させてもらうなどの工夫が必要でしょう.
スケジュールの整合性:今回のコンペ期間は4週間でしたが,前年度は6週間確保されていました.同じテストデータを使用して過去の成果と比較する以上,前年度と同様の期間を確保できるようスケジュールを調整すべきでした.
最終テストの運用コスト:最終テストを「各学生がモデルを提出し,担当者が秘匿データを用いて検証する」形式にしましたが,実装方法が多岐にわたったため,モデルの動作を再現・検証する作業に多大な労力を要しました.
🛠️ 今後の改善点#
次年度以降に向けた具体的な改善案です.
カリキュラムの最適化:
座学部分は事前に「宿題」として学習してもらい,演習時間はハンズオン(手を動かす作業)に充てる形式への移行.
過去の記録との正当な比較を行うため,コンペ期間を前年度までの実績に合わせる.
環境の改善:B3の意欲は想定以上に高いため,可能な限り1人1台の計算環境を提供できるよう調整する.
サンプルコードの拡充:CNNだけでなく,Swin Transformer (SwinT) などのよりモダンな手法も選択肢として含める.
評価システムの自動化:担当者が手動で最終テストを行うのではなく,テストサーバーを構築し,学生が容易にスコアを確認できるリーダーボード形式のシステムを導入する.
2025年度 峰野研究室 M2 大沼理巧