issues
search
llm-jp
/
experiments
Issue-Only Pretrain Task Management Repository
0
stars
0
forks
source link
issues
Newest
Newest
Most commented
Recently updated
Oldest
Least commented
Least recently updated
[事前学習] - moe abci test
#86
cr-liu
opened
1 day ago
0
[事前学習] - Moving model averaging
#85
odashi
opened
2 days ago
0
[コーパス] - instruction pretraining のデータ準備
#84
Taka008
opened
2 days ago
0
[評価] - 13b & 172b eval on Open LLM leaderboard 2
#83
yiyunya
opened
2 days ago
0
[評価] - llm-jp-3 事前学習モデル MT-bench
#82
Taka008
opened
4 days ago
0
[マルチモーダルWG] - Mamba VLMモデル学習
#81
daichi1207
opened
5 days ago
0
[事前学習] - MoE
#80
Taishi-N324
opened
1 week ago
0
[コーパス] -SIP3 comprehensiveからテキスト抽出
#79
ZhishenYang
opened
1 week ago
0
[事前学習] - 高度化WG12 Attention Checkpoint Tokenの検証
#78
gojiteji
opened
1 week ago
0
[マルチモーダルWG] - マルチモーダルモデル学習 ドキュメント系のデータセットを使用
#77
ssgw-keito
opened
1 week ago
0
[コーパス] -医学文献からテキスト抽出
#76
ZhishenYang
closed
1 week ago
1
[評価] - LLM-jp-3 172B の推論サーバーのホスティング
#75
hkiyomaru
opened
2 weeks ago
0
[コーパス] - 日本語におけるCosmopedia手法の生成文評価-69続き
#74
YusukeNakamura69
opened
2 weeks ago
0
[事前学習] - v3コーパスを使用したBERTの事前学習
#73
k141303
opened
3 weeks ago
0
[事前学習] - MoE Baseline2
#72
Taishi-N324
opened
3 weeks ago
0
[事前学習] - MoE Baseline1
#71
Taishi-N324
opened
3 weeks ago
0
[チューニング] - llm-jp-3-172b-beta2-instruct の学習
#70
Taka008
opened
3 weeks ago
0
[コーパス] - 日本語におけるCosmopedia手法の生成文評価
#69
YusukeNakamura69
opened
4 weeks ago
2
[事前学習] (ドメイン適応WG)拡張データを用いた事前学習実験と評価 (BY xzhao)
#68
xzhao-tkl
opened
4 weeks ago
0
[事前学習] - Loss spikeの分析
#67
speed1313
opened
4 weeks ago
0
[事前学習] - 継続事前学習の学習率スケジューリング検討 (LLM-jp-3 13B)
#66
odashi
opened
1 month ago
0
[事前学習] (ドメイン適応WG)拡張データを用いた事前学習実験
#65
YumaTsuta
opened
1 month ago
1
[コーパス] - LLM-jp-3 172B の訓練データのダンプ
#64
hkiyomaru
opened
1 month ago
0
[転送] - TSUBAMEのデータの転送
#63
Taishi-N324
opened
1 month ago
0
[事前学習] - Megatron-LMを用いたBERTの学習の練習
#62
speed1313
opened
1 month ago
0
[事前学習] - MoE Baseline2
#61
Taishi-N324
closed
3 weeks ago
1
[評価] - llm-jp-eval 1.4.1による統合評価
#60
odashi
opened
1 month ago
1
[事前学習] - MoE Baseline1
#59
Taishi-N324
closed
3 weeks ago
1
[マルチモーダルWG] - VLMモデルの評価
#58
speed1313
closed
1 month ago
0
[マルチモーダルWG] - PDFからテキスト抽出
#57
ZhishenYang
opened
1 month ago
0
[マルチモーダルWG] - マルチモーダルモデル学習 ablation
#56
ssgw-keito
opened
1 month ago
0
[評価] - MoE btx 8x1.56B
#55
cr-liu
opened
1 month ago
0
[事前学習] - 172B-exp1 checkpointのHugging Face形式への変換
#54
k141303
opened
1 month ago
0
[評価] - v3 172B exp2 ベースモデル評価
#53
k141303
opened
1 month ago
0
[マルチモーダルWG] - PDFからテキスト抽出
#52
ZhishenYang
closed
1 month ago
0
[マルチモーダルWG] - マルチモーダルモデル学習 追加実験
#51
ssgw-keito
opened
1 month ago
0
[マルチモーダルWG] - マルチモーダルモデル学習 (VILA step-2)
#50
ssgw-keito
opened
1 month ago
0
[チューニング] - チューニング用インストラクションデータ開発
#49
Taka008
opened
1 month ago
0
[マルチモーダルWG] - CLIPの学習
#48
speed1313
opened
1 month ago
0
[チューニング] - チューニングデータ検証
#47
k141303
opened
1 month ago
0
[マルチモーダルWG] - 医学文献からテキスト抽出
#46
ZhishenYang
closed
1 month ago
0
[マルチモーダルWG] - relaion-2b-en-research-safeのgemmaによる翻訳
#45
speed1313
closed
1 month ago
2
[転送] - TSUBAMEで学習を行った70Bモデルの転送
#44
Taishi-N324
closed
1 month ago
2
[マルチモーダルWG] - マルチモーダルモデル学習 (VILA step-1)
#43
ssgw-keito
opened
1 month ago
0
[チューニング] - 1.7B, 3.8B, 13B の公開用モデルチューニング
#42
Taka008
opened
2 months ago
0
[評価] - v3 7.3B exp1 ベースモデル評価
#41
odashi
closed
3 weeks ago
0
[事前学習] - v3 7.3B ベースモデルのHF形式への変換
#40
odashi
closed
3 weeks ago
0
[事前学習] - MoE Branch train mix 1.56bx8
#39
cr-liu
opened
2 months ago
0
[事前学習] - 継続事前学習の学習率スケジューリング検討(v3 1.7B exp2ベース)
#38
Taka008
opened
2 months ago
0
[事前学習] - v3 7.3B exp1
#37
odashi
closed
3 weeks ago
0
Next