単語の意味の変化を検出するため,単語毎の文脈付き単語埋め込みの集合間に不均衡最適輸送を適用して意味が消失/出現した用例を特定する方法の発表を行い(発表者 岸野 稜),奨励賞を受賞しました.
不均衡最適輸送を用いた意味変化検出
◯ 岸野 稜 (京大), 山際 宏明 (京大), 永田 亮 (甲南大/理研), 横井 祥 (東北大/理研), 下平 英寿 (京大/理研)
単語の意味の変化を検出するため,単語毎の文脈付き単語埋め込みの集合間に不均衡最適輸送を適用して意味が消失/出現した用例を特定する方法の発表を行い(発表者 岸野 稜),奨励賞を受賞しました.
不均衡最適輸送を用いた意味変化検出
◯ 岸野 稜 (京大), 山際 宏明 (京大), 永田 亮 (甲南大/理研), 横井 祥 (東北大/理研), 下平 英寿 (京大/理研)
「大規模言語モデルにおける幻覚緩和のための単語確率の外挿」と題する発表を行い(発表者 何昀臻),リクルート賞を受賞しました.大規模言語モデルのニューラルネットで用いられるトランスフォーマーには多数の層があり,入力層から出力層にむけて単語の情報表現が変換されていきます.これを時系列と解釈して外挿し仮想的に層を追加したときの出力層を予測するアプローチを本研究で提案しました.素朴なアイデアですが言語モデルの性能が向上することを実験的に示しています.
大規模言語モデルにおける幻覚緩和のための単語確率の外挿
何昀臻, 高瀬侑亮, 石橋陽一 (京大), 下平英寿 (京大/理研)
言語処理学会のサイト https://www.anlp.jp/nlp2024/award.html
大規模言語モデルが内部でどのように情報を表現しているのか,とくにファインチューニング前後でどのように変化するのか,について「内部表現の幾何に基づく言語モデルの解釈」と題する発表を行い(発表者 大山百々勢 ),奨励賞を受賞しました.
「内部表現の幾何に基づく言語モデルの解釈」
◯大山百々勢 (京大/理研),山際宏明 (京大),石橋陽一 (京大),下平英寿 (京大/理研)
バンディット問題における敵対的設定・確率的設定という異なる報酬モデルに対して同時に最適性を達成する方策の研究について,D3土屋平が学生最優秀プレゼンテーション賞を受賞しました.受賞対象の研究「バンディット問題におけるBest-of-Both-Worlds方策の進展:構造的バンディットと分散依存リグレット」は,土屋平(京大,理研AIP),本多淳也(京大,理研AIP),伊藤伸志(NEC)の共同研究です.
IBIS2022のサイト https://ibisml.org/ibis2022/awards/
情報学研究科は2023年(令和5年)4月に改組され、現在の6専攻は統合されて7つのコースを擁する「情報学専攻」になります。現在の知能情報学専攻、社会情報学専攻、先端数理科学専攻、数理工学専攻、システム科学専攻、通信システム専攻は、それぞれ対応するコースに移行します。そして、データ科学コースが新設されます。
下平・本多研究室は、2つのコースに所属します。つぎのどちらの分野名も下平・本多研究室です。研究室内での主な活動に差はありませんが、大学院生が履修する授業科目はコースによって違いがあります。
論文の被引用数等をベースにした世界の研究者データが公開されています.そのデータからトップ研究者のリストを作成してみました.研究の各分野について,世界の上位20名と,日本の上位20名のリスト(PDFファイル)です.
こんな感じ.それぞれの研究者の分野は,メイン(分野1)とサブ(分野2)の両方で登録されているので,同じ人がリストに2回出てくることもあります.
研究者データでは,各研究者がどの分野で論文を書いているかの成分値が自動推定されて,その上位2分野が利用されています.成分値が低い研究者でも,他分野での被引用数が多い場合は上位に掲載されることがあります.そこで,成分値が15%以上となっている場合に限定したリストも作成しました.世界と日本で上位300名のリスト(エクセルファイル)です.
Baas, Jeroen; Boyack, Kevin; Ioannidis, John P.A. (2021), August 2021 data-update for “Updated science-wide author databases of standardized citation indicators”, Mendeley Data, V3, https://doi.org/10.17632/btchxktzyw.3
単語の意味をベクトルで表現する,という単語埋め込みの研究においてB4の大山百々勢が若手奨励賞(対象280件中12件)を受賞をしました.対象となった研究「単語ベクトルの長さは意味の強さを表す」は,大山百々勢 (京大,理研AIP),横井祥(東北大学,理研AIP),下平英寿(京都大学,理研AIP)の共同研究です.
言語処理学会のサイト https://www.anlp.jp/nlp2022/award.html
EPFL CIS-RIKEN AIP Joint Seminar #6 20211215
Date and Time: December 15th 6:00pm – 7:00pm(JST)
10:00am-11:00pm(CET)
Venue:Zoom webinar
Language: English
Speaker: Hidetoshi Shimodaira, RIKEN AIP
Title: Selection bias may be adjusted when the sample size is negative in hierarchical clustering, phylogeny, and variable selection
Abstract:
For computing p-values, you should specify hypotheses before looking at data. However, people tend to use datasets twice for hypothesis selection and evaluation, leading to inflated statistical significance and more false positives than expected. Recently, a new statistical method, called selective inference or post-selection inference, has been developed for adjusting this selection bias. On the other hand, we also face biased p-values in multiple testing, although it is a different type of selection bias. In this talk, I present a bootstrap resampling method with a “negative sample size” for adjusting these two types of selection bias. The theory is based on a geometric idea in the data space, which bridges Bayesian posterior probability to the frequentist p-value. Examples are shown for the confidence interval of regression coefficients after model selection and significance levels of trees and edges in hierarchical clustering and phylogenetic inference.
Bio:
Hidetoshi Shimodaira is a professor at Kyoto University and a team leader at RIKEN AIP. He has been working on theory and methods of statistics and machine learning. His multiscale bootstrap method is used in genomics for evaluating the statistical significance of trees and clusters. His “covariate shift” setting for transfer learning is popular in machine learning.