研究活動の成果・出版物・トーク・動画などをリストしてあります.
載せられていない研究成果が色々ある不完全なリストですが,暫定的に公開します (2025-11).

研究内容についての質問があれば,著者や発表者まで気軽にご連絡ください.
ラボメンバーの連絡先はこちらを参照ください:ラボメンバー一覧 (Members)

International Conferences

  1. Sasaki, M., Kamoda, G., Takahashi, R., Sato, K., Heinzerling, B., Sakaguchi, K., & Inui, K. (2025).
    Can Language Models Handle a Non-Gregorian Calendar?.
    In Proceedings of the 14th International Joint Conference on Natural Language Processing and the 4th Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics (IJCNLP-AACL 2025).
    [arXiv]
  2. Inaba, T., Kamoda, G., Inui, K., Isonuma, M., Miyao, Y., Oseki, Y., Takagi, Y., & Heinzerling, B. (2025).
    How a Bilingual LM Becomes Bilingual: Tracing Internal Representations with Sparse Autoencoders.
    In Findings of the Association for Computational Linguistics: EMNLP 2025.
    [ACL Anthology, arXiv]
  3. Takahashi, R., Kamoda, G., Heinzerling, B., Sakaguchi, K., & Inui, K. (2025).
    Understanding the Side Effects of Rank-One Knowledge Editing.
    In BlackboxNLP 2025: The 8th Workshop on Analyzing and Interpreting Neural Networks for NLP.
    [ACL Anthology, arXiv]
  4. Sakata, M., Heinzerling, B., Yokoi, S., Ito, T., & Inui, K. (2025).
    On Entity Identification in Language Models.
    In Findings of the 63rd Annual Meeting of the Association for Computational Linguistics. (ACL 2025 Findings), 16717–16741.
    [ACL Anthology]
  5. Shing, M., Misaki, K., Bao, H., Yokoi, S., & Akiba, T. (2025).
    TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models.
    In The Thirteenth International Conference on Learning Representations (ICLR 2025).
    [OpenReview]
  6. Deguchi, H., Kamoda, G., Matsushita, Y., Taguchi, C., Waga, M., Suenaga, K., & Yokoi, S. (2025).
    SoftMatcha: A Soft and Fast Pattern Matcher for Billion-Scale Corpus Searches.
    In The Thirteenth International Conference on Learning Representations (ICLR 2025).
    [OpenReview, Project Page]

Domestic Conferences

  1. 三原朋樹 , 石川勲 , 横井祥 (2025).
    p進数を用いた単語埋め込みについて.
    第28回情報論的学習理論ワークショップ (IBIS 2025).
  2. 石峯拓海 , 日野英逸 , 横井祥 (2025).
    言語モデルの最終隠れ状態のソフト分割可能な単体複体としての分析.
    第28回情報論的学習理論ワークショップ (IBIS 2025).
  3. 原知正 , 栗田宙人 , 今泉允聡 , 乾健太郎 , 横井祥 (2025).
    なぜ一次モーメント情報のみ残したテキスト埋め込みはうまく動くのか?:単語埋め込み集合における二次モーメント情報の崩壊の分析.
    第28回情報論的学習理論ワークショップ (IBIS 2025).
  4. 風間 正弘 , 横井祥 (2025).
    拡散言語モデルによる日本語縦読み文章生成.
    第20回言語処理若手シンポジウム (YANS).
  5. 鴨田豪 , 熊谷雄介 , 松井孝太 , 横井祥 (2025).
    密度比の直接推定に基づく言語モデルの出力較正.
    第20回言語処理若手シンポジウム (YANS).
  6. 原知正 , 栗田宙人 , 横井祥 , 今泉允聡 , 乾健太郎 (2025).
    文長による内容語率の変化が引き起こす文ベクトルの品質低下.
    2025年度人工知能学会全国大会 (第39回).
    [論文]
  7. 小林春斗 , 原知正 , 鴨田豪 , 横井祥 (2025).
    層の冗長性と層同士の独立性に基づく言語モデルの層交換の成否の特徴づけ.
    言語処理学会 第31回年次大会 発表論文集, pp. 1751-1756.
    若手奨励賞 (20/487)
    [予稿]
  8. 岸野稜 , 山際宏明 , 永田亮 , 横井祥 , 下平英寿 (2025).
    不均衡最適輸送を用いた意味変化検出.
    言語処理学会 第31回年次大会 発表論文集, pp. 1751-1756.
    [予稿]

Invited Talks

  1. 横井祥.
    「確率的なオウム」にできること,またそれがなぜできるのかについて.
    英語コーパス学会 (JAECS) 第51回大会 基調講演
    September 2025.
  2. Benhamin Heinzerling, 横井祥, 小林悟郎.
    言語モデルの内部機序:解析と解釈.
    言語処理学会 第31回年次大会 チュートリアル講演
    March 2025.
    [Slide]