Open hakubishin3 opened 5 months ago
なし(だと思われる) コロンビア大学の人とIntellipro Group Inc.(🇺🇸の人材会社)所属の人らが執筆。
データ拡張 - 人物・求人適合データセットの構造: 履歴書と求人をノードとするスパースな二部グラフとして考えられ,各ノード間(履歴書と求人のペア)のエッジは,「受け入れる」または「拒否する」というラベルによって定義される. - 履歴書のデータ拡張: 特定のセクション(例えば「経験」)の言い換えによって,元の履歴書から意味的に類似した拡張履歴書を生成する.この拡張履歴書は,元の履歴書と同じエッジ(ラベル)を継承する. - 求人のデータ拡張: 履歴書と同様に,求人に対しても同じ拡張プロセスを行い,意味的に類似した拡張求人を生成する.これらの拡張求人も,元の求人と同じエッジを継承する. - ラベル付きペアの増加: 履歴書と求人をそれぞれ一度拡張することで,データセット内のラベル付きペアの数が実質的に倍増する - EDA拡張: テキストのランダムな置換,削除,入れ替え,挿入を行い,意味的に類似したパラフレーズ版テキストを作成する方法.意味的に類似したテキストを簡単かつ迅速に生成する方法として有効. - ChatGPT拡張: EDAに加えて,ChatGPTを使用したパラフレーズも行う.指定されたテキストのパラフレーズをChatGPTに頼む.
対照学習 - トレーニングインスタンスの構築: 各トレーニングインスタンスは,一致する履歴書-求人のペア(正のペア)と,その求人に不適切な複数の履歴書およびその履歴書に不適切な複数の求人(負のペア)を含む. - 損失関数の最適化: 正のペアに対して高いスコアを,負のペアに対しては低いスコアを割り当てることによって,クロスエントロピー損失を最適化する. - バッチ内ネガティブ: トレーニング中のミニバッチ内の正のペアに対して,その他のB-1の求人または履歴書を負のサンプルとして使用.各バッチでB^2の履歴書-求人ペアに対して学習が行われ,計算効率が向上. - ハードネガティブ: 各バッチに対して最大2×B_hardのハードネガティブサンプルをサンプリングする.これらは,特定の求人に対して明示的に拒否された履歴書,または特定の履歴書に対して拒否された求人である.これにより,トレーニングペアの数が増加し、モデルの性能が向上する.
データ拡張と対照学習の組み合わせ方 - 人物-求人適合データセットのラベルの希薄さの問題に対処するため,CONFITはまずデータセットを拡張する - 対照学習を使用して,エンコーダーネットワークE_θを訓練する.推論中に履歴書と求人広告が与えられた場合,CONFITはまずエンコーダーE_θを使用して,各履歴書Rと求人Jの密な表現を得る. - その後,CONFITは内積を使用して,⟨R, J⟩ペア間のマッチングスコアs_θを生成する.
採用担当者や求職者が履歴書や求人を選択する際の個人的な好みや主観的な選択が考慮されていない. - エラー分析では,誤ってランク付けされた履歴書や求人のペアの大部分が,採用担当者の主観的な選択や特定の職位に対する競争の激しい候補者プールによるものであることが示されている - 採用担当者や求職者の過去の好みを追加でモデル化すること,他の候補者を考慮に入れたスコアリングメトリックを開発することが有益であると考えている.
財産・傷害(P&C)保険業界が請求の予測モデルを作成する際に、しばしば対象が過剰なゼロを持つ右に偏った分布を持つことがある。この問題を解決するため、従来のカウントモデルとバイナリモデルを組み合わせた「ゼロインフレーション」モデルを採用した。
この論文では、保険請求データ(特にゼロインフレーション・テレマティクスデータを含む)を処理するためにブースティングアルゴリズムを使用し、保険請求の頻度モデルを調査。具体的には、XGBoost、LightGBM、CatBoostという3つのメジャーなGBDTライブラリを評価、比較した。
2種類の車載データセットを使用。
予測性能からCatBoostがモデルを開発する際に最適なライブラリであることが明らかになった。 さらに、新しいゼロインフレーション・ポアソン・ブースティングツリーモデル(ZIPBT)が提案され、データの特性に応じて他のモデルよりも優れた性能を示すことが分かった。
ZIP: ゼロ箇条ポワソンモデルのこと。主にゼロと打ち切りのない分布の混合分布に、打ち切りのない分布としてポワソンモデルを仮定したモデルのこと。似たモデルとしてハードルモデルがあるが、こちらはゼロ打ち切りの分布を仮定する点が異なる。参考記事 telematics: telecommunication + infomaticsの造語。自動車などの移動体に通信システムをつけてリアルタイムにデータを提供するサービスなどを指す。参考記事
GBDTは特徴量の操作などでゼロデータ周辺の境界を学習できそうだが...。
Ashudeep Singh, David Kempe, and Thorsten Joachims In Neural Information Processing Systems (NeurIPS), 2021.
公平性の信条とは?
→エージェントBがAよりも資源に対して強いメリット^2がない場合、BはAよりも多くの資源を得るべきではない[^1]
→一般化すると Axiom 1. If A has merit greater than or equal to B with probability at least ρ, then a fair policy should treat A at least as well as B with probability at least ρ.
[^1]: 本論文での Agent とは、アイテムや個人のことを指す
エージェントのメリットが完全に観測可能であれば公平性は担保できる
ただし、現実では不完全な観測結果をもとにメリットを推定し、メリットの期待値をもとにランク付けして推薦することになる。本来は不確実性があるにも関わらず、その不確実性を考慮しないことで不公平を引き起こしていると主張
例えば、GPA3.9の求職者AとGPA3.8の求職者Bがいたとする。決定論的に常にA>Bで推薦することは公平だろうか
φはなんのパラメータ? →公平性に関する制約の強さを表す。公平さを強くするほど期待される効用が低下するので、公平性と期待される効用のトレードオフを調整できるようにする
Yushun Dong, Jundong Li, and Tobias Schnabel. 2023. In Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (Taipei, Taiwan) (SIGIR ’23).
Implicitな嗜好データに基づく推薦タスクにおいて、深層学習モデルと従来型のモデルの性能比較を行った論文。精度(=HitRate)の観点では深層学習モデルは従来型モデルに劣る結果が得られたが、推薦アイテムの多様性など、深層学習モデルが勝る観点もあった。
https://arxiv.org/abs/2401.18059
Parth Sarthi, Salman Abdullah, Aditi Tuli, Shubh Khanna, Anna Goldie, Christopher D. Manning
ICLR 2024
大規模な言語モデルであっても、特定のタスクに対するドメイン固有の知識が不足するが、fine tuningで世界に追従するのは難しい。 こうした状況に対して、LAGが採用されることが非常に多い。検索補強(retrieval augmentation)は有効ではあるが、既存手法は短い連続したチャンクを数個検索するのが現状である。
「シンデレラはどうやってハッピーエンドにたどり着いたのか」という質問にこうした手法では検索された数個のチャンクの情報では不十分であり、対応することができない。
異なるレベルの質問に効果的かつ効率的に答えることができる検索手法の開発
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev. https://github.com/wantedly/machine-learning-round-table/issues/232
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!