牛山寛生

東京大学大学院情報理工学系研究科
数理情報学専攻 第3研究室 博士課程2年
Email: ushiyama-kansei074 (at) g.ecc.u-tokyo.ac.jp

研究分野

学歴

2023年3月
東京大学大学院 情報理工学系研究科 数理情報学専攻 修了
(指導教員:松尾 宇泰 教授)
修士論文:Exploiting Numerical Analytical Concepts for Continuous Optimization: Numerical Stability and Discrete Chain Rule(連続最適化のための数値解析学諸概念の活用:数値的安定性と離散連鎖律)

2021年3月
東京大学 工学部 計数工学科 卒業
(指導教員:泉田 勇輝 講師)
卒業論文:結合振動子系における無相関ノイズによる同期促進のメカニズムの研究

2017年3月
長野県長野高等学校 卒業

プレプリント

  1. Deriving Optimal Rates of Continuous-time Accelerated First-order Methods via Performance Estimation Problems
    [METR]
    K. Ushiyama, S. Sato, T. Matsuo, preprint.

査読付き論文誌・会議録

  1. Differentiable Pareto-Smoothed Weighting for High-Dimensional Heterogeneous Treatment Effect Estimation
    Y. Chikahara, K. Ushiyama, to appear in Proceedings of the Fortieth Conference on Uncertainty in Artificial Intelligence.

  2. Analysis of continuous dynamical system models with Hessians derived from optimization methods
    T. Kamijima, S. Sato, K. Ushiyama, T. Matsuo, K. Tanaka, to appear in JSIAM Letters.

  3. Properties and practicability of convergence-guaranteed optimization methods derived from weak discrete gradients
    [journal]
    K. Ushiyama, S. Sato, T. Matsuo, to appear in Numer. Algorithms.

  4. A unified discretization framework for differential equation approach with Lyapunov arguments for convex optimization
    [arXiv][proceeding]
    K. Ushiyama, S. Sato, T. Matsuo, NeurIPS 2023.

  5. Essential convergence rate of ordinary differential equations appearing in optimization
    [arXiv][journal]
    K. Ushiyama, S. Sato, T. Matsuo, JSIAM Letters, 14(2022), 119–122.

  6. Deriving efficient optimization methods based on stable explicit numerical methods
    [journal]
    K. Ushiyama, S. Sato, T. Matsuo, JSIAM Letters, 14(2022), 29–32.

講演

  1. 最適化手法の連続時間モデルに関する本質的な収束率の精緻化
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 日本応用数理学会 2024年度 年会, 京都, September 14–16, 2024.

  2. 非平滑強凸関数最小化問題に対する現状最速の加速近接勾配法
    牛山 寛生, 日本オペレーションズ・リサーチ学会 2024年秋季研究発表会, 愛知, September 9–11, 2024.
    予稿中アルゴリズムの修正版

  3. Convergence of optimisation methods and stability of numerical methods
    K. Ushiyama, T. Saegusa, S. Sato, T. Matsuo, Auckland Numerical Analysis WoRKshop, Auckland (New Zealand), March 25–29, 2024.

  4. 最適化手法の連続時間モデルに対する新しい収束率解析法
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 日本応用数理学会 第20回研究部会連合発表会, 新潟, March 4–-6, 2024.

  5. A Unified Discretization Framework for Differential Equation Approach with Lyapunov Arguments for Convex Optimization (poster)
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 第26回情報論的学習理論ワークショップ, 福岡, October 29–November 1, 2023.

  6. 最適化のためのRunge–Kutta–Chebyshev法における曲線探索法
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 数値解析シンポジウム 2023, 岩手, July 12–14, 2023.

  7. 最適化手法由来のヘッセ行列を伴う連続力学系モデルに対する数値解析学的アプローチ
    上島 智哉, 佐藤 峻, 牛山 寛生, 松尾 宇泰, 田中 健一郎, 日本応用数理学会 第19回研究部会連合発表会, 岡山, March 8–10, 2023.

  8. Extending discrete gradients for unified description and analysis of optimization methods
    K. Ushiyama, S. Sato, T. Matsuo, ANODE 2023, Auckland (New Zealand), February 20–24, 2023.

  9. 最適化手法記述のための弱い離散勾配について
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 2022年度応用数学合同研究集会, 滋賀, December 15–17, 2022.

  10. 勾配流に対する離散勾配を用いた最適化手法の統一的記述について
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 日本応用数理学会 2022年度 年会, 北海道, September 8–10, 2022.

  11. 最適化に現れる常微分方程式の本質的収束レート
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 日本応用数理学会 2021年度 年会, オンライン, September 7–9, 2021.

  12. 最適化に適した安定な数値解法について
    牛山 寛生, 佐藤 峻, 松尾 宇泰, 日本応用数理学会 2021年度 年会, オンライン, September 7–9, 2021.

受賞

2024年10月
日本オペレーションズ・リサーチ学会 2024年秋季研究発表会 学生優秀発表賞

2023年12月
第26回情報論的学習理論ワークショップ 学生優秀プレゼンテーション賞

2023年7月
日本応用数理学会 2023年度 JSIAM Letters 論文賞

2023年3月
東京大学大学院情報理工学系研究科長賞

2022年6月
日本応用数理学会 第18回 若手優秀講演賞

フェローシップ

2024年4月–2026年3月
日本学術振興会特別研究員 DC2

2023年4月–2026年3月
JST次世代研究者挑戦的研究プログラム(SPRING) 東京大学「グリーントランスフォーメーション(GX)を先導する高度人材育成(SPRING GX)」プロジェクト生