Closed Candicepan closed 7 months ago
Stale issue message. Please comment to remove stale tag. Otherwise this issue will be closed soon.
Mingbo-Lee Give it to me
设计思路: 基于https://keras.io/examples/generative/vae/#variational-autoencoder为例改写成隐语的联邦学习教程,体现隐语对 keras example的兼容,充分展现隐语的易用性和兼容性 数据分割:按照参与方均匀分割 模型: Variational AutoEncoder 数据集:MNIST digits 联邦策略:充分对齐隐语现有API,只要隐语支持的,理论上都可以支持
设计思路: 基于https://tensorflow.google.cn/tutorials/audio/music_generation?hl=zh-cn为例改写成隐语的联邦学习教程,体现隐语对 keras example的兼容,充分展现隐语的易用性和兼容性 数据分割:按照参与方均匀分割 模型: RNN 数据集:MAESTRO 数据集 联邦策略:充分对齐隐语现有API,只要隐语支持的,理论上都可以支持
设计思路: 基于https://tensorflow.google.cn/tutorials/audio/music_generation?hl=zh-cn为例改写成隐语的联邦学习教程,体现隐语对 keras example的兼容,充分展现隐语的易用性和兼容性 数据分割:按照参与方均匀分割 模型: RNN 数据集:MAESTRO 数据集 联邦策略:充分对齐隐语现有API,只要隐语支持的,理论上都可以支持
感谢认领~可以在下方的子 issue 中再次认领,将把该任务的该种实现方式 assign 给你哈~ https://github.com/secretflow/secretflow/issues/913
设计思路: 基于 https://github.com/pytorch/examples/tree/main/vae 为例改写成隐语的联邦学习教程,体现隐语对 PyTorch example的兼容,充分展现隐语的易用性和兼容性 数据分割:按照参与方均匀分割 模型: Variational AutoEncoder 数据集:MNIST digits 联邦策略:充分对齐隐语现有API,只要隐语支持的,理论上都可以支持
设计思路: 基于https://keras.io/examples/generative/vae/#variational-autoencoder为例改写成隐语的联邦学习教程,体现隐语对 keras example的兼容,充分展现隐语的易用性和兼容性 数据分割:按照参与方均匀分割 模型: Variational AutoEncoder 数据集:MNIST digits 联邦策略:充分对齐隐语现有API,只要隐语支持的,理论上都可以支持
感谢认领~可以在下方的子 issue 中再次认领,将把该任务的该种实现方式 assign 给你哈~ https://github.com/secretflow/secretflow/issues/958
设计思路: 基于 https://github.com/pytorch/examples/tree/main/vae 为例改写成隐语的联邦学习教程,体现隐语对 PyTorch example的兼容,充分展现隐语的易用性和兼容性 数据分割:按照参与方均匀分割 模型: Variational AutoEncoder 数据集:MNIST digits 联邦策略:充分对齐隐语现有API,只要隐语支持的,理论上都可以支持
感谢认领,该实现方式的实现可以直接关联这个 issue 哈~
目前遇到的问题是,VAE在PyTorch的损失函数会用到一个 混合损失函数,但是目前感觉Ray 对它的识别有一定的问题,可能需要封装一下?
这个函数warp一层,目前支持的loss fn 的输入时pred_y 和target_y,其他参数通过partical_func传进来试试
任务介绍
详细要求
能力要求
操作说明
认领说明
本任务可有多种实现方式,故支持有多位开发者进行认领,请在认领任务后,在本 issue 下 comment 你的具体设计思路。
设计思路需要包括以下内容: