wantedly / machine-learning-round-table

Gather around the table, and have a discussion to catch up the latest trend of machine learning 🤖
https://www.wantedly.com/projects/391912
297 stars 2 forks source link

[2024/02/14]Machine Learning 輪講 #234

Open hakubishin3 opened 5 months ago

hakubishin3 commented 5 months ago

Why

Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。

prev. https://github.com/wantedly/machine-learning-round-table/issues/232

What

話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!

KKaichi commented 4 months ago

CONFIT: Improving Resume-Job Matching using Data Augmentation and Contrastive Learning

学会名

なし(だと思われる) コロンビア大学の人とIntellipro Group Inc.(🇺🇸の人材会社)所属の人らが執筆。

概要

手法について

pythonista-blitz commented 4 months ago

Enhanced Gradient Boosting for Zero-Inflated Insurance Claims and Comparative Analysis of CatBoost, XGBoost, and LightGBM

概要

財産・傷害(P&C)保険業界が請求の予測モデルを作成する際に、しばしば対象が過剰なゼロを持つ右に偏った分布を持つことがある。この問題を解決するため、従来のカウントモデルとバイナリモデルを組み合わせた「ゼロインフレーション」モデルを採用した。

手法

モデル

この論文では、保険請求データ(特にゼロインフレーション・テレマティクスデータを含む)を処理するためにブースティングアルゴリズムを使用し、保険請求の頻度モデルを調査。具体的には、XGBoost、LightGBM、CatBoostという3つのメジャーなGBDTライブラリを評価、比較した。

データセット

2種類の車載データセットを使用。

結果

予測性能からCatBoostがモデルを開発する際に最適なライブラリであることが明らかになった。 さらに、新しいゼロインフレーション・ポアソン・ブースティングツリーモデル(ZIPBT)が提案され、データの特性に応じて他のモデルよりも優れた性能を示すことが分かった。

キーワード,参考URL

ZIP: ゼロ箇条ポワソンモデルのこと。主にゼロと打ち切りのない分布の混合分布に、打ち切りのない分布としてポワソンモデルを仮定したモデルのこと。似たモデルとしてハードルモデルがあるが、こちらはゼロ打ち切りの分布を仮定する点が異なる。参考記事 telematics: telecommunication + infomaticsの造語。自動車などの移動体に通信システムをつけてリアルタイムにデータを提供するサービスなどを指す。参考記事

感想

GBDTは特徴量の操作などでゼロデータ周辺の境界を学習できそうだが...。

hakubishin3 commented 4 months ago

Fairness in Ranking under Uncertainty

Ashudeep Singh, David Kempe, and Thorsten Joachims In Neural Information Processing Systems (NeurIPS), 2021.

前提

公平性の信条とは? →エージェントBがAよりも資源に対して強いメリット^2がない場合、BはAよりも多くの資源を得るべきではない[^1] →一般化すると Axiom 1. If A has merit greater than or equal to B with probability at least ρ, then a fair policy should treat A at least as well as B with probability at least ρ.

[^1]: 本論文での Agent とは、アイテムや個人のことを指す

抱えている課題

エージェントのメリットが完全に観測可能であれば公平性は担保できる

ただし、現実では不完全な観測結果をもとにメリットを推定し、メリットの期待値をもとにランク付けして推薦することになる。本来は不確実性があるにも関わらず、その不確実性を考慮しないことで不公平を引き起こしていると主張

例えば、GPA3.9の求職者AとGPA3.8の求職者Bがいたとする。決定論的に常にA>Bで推薦することは公平だろうか

Fair なランキングポリシーとは?

スクリーンショット 2024-02-14 11 32 22

φはなんのパラメータ? →公平性に関する制約の強さを表す。公平さを強くするほど期待される効用が低下するので、公平性と期待される効用のトレードオフを調整できるようにする

ランキングポリシーの種類

効用と公平性のトレードオフの最適化

実験

スクリーンショット 2024-02-14 12 02 22

スクリーンショット 2024-02-14 12 03 52

感想

chimuichimu commented 4 months ago

When Newer is Not Better: Does Deep Learning Really Benefit Recommendation From Implicit Feedback?

Yushun Dong, Jundong Li, and Tobias Schnabel. 2023. In Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (Taipei, Taiwan) (SIGIR ’23).

概要

Implicitな嗜好データに基づく推薦タスクにおいて、深層学習モデルと従来型のモデルの性能比較を行った論文。精度(=HitRate)の観点では深層学習モデルは従来型モデルに劣る結果が得られたが、推薦アイテムの多様性など、深層学習モデルが勝る観点もあった。

実験設定

結果

nogawanogawa commented 4 months ago

RAPTOR: RECURSIVE ABSTRACTIVE PROCESSING FOR TREE-ORGANIZED RETRIEVAL

論文URL

https://arxiv.org/abs/2401.18059

著者

Parth Sarthi, Salman Abdullah, Aditi Tuli, Shubh Khanna, Anna Goldie, Christopher D. Manning

会議

ICLR 2024

背景

大規模な言語モデルであっても、特定のタスクに対するドメイン固有の知識が不足するが、fine tuningで世界に追従するのは難しい。 こうした状況に対して、LAGが採用されることが非常に多い。検索補強(retrieval augmentation)は有効ではあるが、既存手法は短い連続したチャンクを数個検索するのが現状である。

「シンデレラはどうやってハッピーエンドにたどり着いたのか」という質問にこうした手法では検索された数個のチャンクの情報では不十分であり、対応することができない。

目的

異なるレベルの質問に効果的かつ効率的に答えることができる検索手法の開発

アプローチ

image

memo

https://github.com/nogawanogawa/paper_memo/issues/104