大規模言語モデルのファインチューニング技術と評価
Fine-Tuning and Evaluation of Large Language Models (FT-LLM)

FT-LLM は、大規模言語モデル(LLM)のファインチューニング技術とその評価手法に焦点を当てたワークショップです。
実応用を見据え、利用目的やドメインに合わせた学習・評価のベストプラクティスを、コンペティションや講演・議論を通じて共有します。
最新の開催情報・参加方法は、上部メニューから各年のページをご確認ください。

最新ニュース

2025年9月26日

FT-LLM 2026のコンペティション情報が公開されました

第2回大規模言語モデルのファインチューニング技術と評価 (FT-LLM 2026) コンペティションの詳細情報を公開いたしました。今年度は昨年度実施した数学タスクに加え、新規に自由形タスクを導入し、さらなる技術革新を促進します。詳細については、コンペティションページをご確認ください。

2025年6月15日

FT-LLM 2025の開催報告が学会記事として公開されました

第1回大規模言語モデルのファインチューニング技術と評価コンペティションの開催報告を会誌「自然言語処理」の学会記事として公開いたしました。当該記事はこちらからご覧いただけます。

過去の実績

2025年度ワークショップ

第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップを成功裏に開催しました。200人以上の方にご参加いただき、活発な議論が行われました。

参加者数

2025年のコンペティションには17ものチームが参加し、最新のファインチューニング技術について競い合いました。