2024年9月から2025年1月まで東京大学松尾・岩澤研究室が主催する大規模言語モデル講座2024(LLM講座2024)を受講しました。 本講座は学生:社会人の割合は6:4で、約4,000人が受講されたようです。
講義は全12回でLLMに関して体系的に基礎から応用まで学ぶことができます。 講義はZoomで行われ、基本的に座学講義とGoogle Colabのコードを使った演習で構成されていました。 演習では学んだ内容を具体的に動くサンプルコードを提供いただけるので、実際に手を動かして理解を深めることができました。
https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/
最終課題コンペでは、対話チューニングされていないオープンLLMモデルをベースに何らかの事後学習を行い、 ELYZA-tasks-100をベースとしたコンペオリジナルの評価データセットで予選は生成AIによる自動評価(LLM as a judge)、 決勝は人手による評価でスコアを競いました。
コンペの参加は講座の修了要件になっており、約1,300人が参加されていました。
llama.cpp
でQwen2.5-32B-itの量子化モデルを使って独自の合成データを作り、
GoogleのGemma2-9Bをベースに SFT対話学習やDPO強化学習を取り組むことで、
予選順位は14位、決勝順位は17位となり、優秀賞をいただくことができました。
予選では、リーダーボードの仕組みで、提出の度に生成AIにより自動評価され、順位がリアルタイムに上下するので、 スコアを上げるのが楽しくなってしまい、決勝の人間による評価の対策を怠ってしまいました。
生成AIによる評価だけにとらわれず、人間にとって大きな失点とならないように、DPOなどで回答言語の統制などをすれば良かったと思いました。
最後に
本講座では、講義を通じてLLMを体系的に学ぶことができました。 最終課題ではコンペ形式でのアウトプットの場も用意されているので、大規模言語モデルについて習熟したい方にはおすすめです。
最近はQwen2.5など、商用での合成データの生成が許可されている高性能な大規模言語モデルが公開されてきましたので、 ローカルLLMを特定タスク向けにチューニングし、自社サービスに使う特許データなどに活用していきたいと考えています。