Closed kobakos closed 1 week ago
@kobakos 下記のモデルもONNXに変換可能でしょうか?
processor = ClapProcessor.from_pretrained("laion/clap-htsat-fused")
下記はAI推論しておらず、BertJapaneseTokenizerそのままのようなので、ONNXに変換は不要と考えています。
tokenizer = AutoTokenizer.from_pretrained("ku-nlp/deberta-v2-large-japanese-char-wwm")
https://huggingface.co/ku-nlp/deberta-v2-large-japanese-char-wwm/tree/main
Tokenizerと同じで必要ないと思ってました🙇🙇 後でSlackにアップロードします
@kobakos ClapProcessorの置き換えについて、意図としては、下記のfeature_extractorをONNXに変換いただいて、transformersを使用せずに推論できるようにしたいと考えています。
if audios is not None:
audio_features = self.feature_extractor(
audios, sampling_rate=sampling_rate, return_tensors=return_tensors, **kwargs
)
ClapProcessor内のfeature_extractorはnn.Moduleではなかったようなのですが、torchの関数が使われていたのでlibrosaメインに書き換えて対応しました。
@kobakos 実装、ありがとうございました!
ailia Tokenizer
{'input_ids': array([[ 1, 1887, 1558, 18, 1360, 13, 41, 14, 2]]), 'attention_mask': array([[1, 1, 1, 1, 1, 1, 1, 1, 1]]), 'token_type_ids': array([[0, 0, 0, 0, 0, 0, 0, 0, 0]])}
{'input_ids': array([[ 0, 36714, 6248, 10172, 48549, 47780, 48576, 48281, 48241,
48885, 42393, 11582, 23171, 47918, 47780, 48190, 48735, 2]]), 'attention_mask': array([[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]])}
Transformer
{'input_ids': array([[ 1, 1887, 1558, 18, 1360, 13, 41, 14, 2]]), 'token_type_ids': array([[0, 0, 0, 0, 0, 0, 0, 0, 0]]), 'attention_mask': array([[1, 1, 1, 1, 1, 1, 1, 1, 1]])}
{'input_ids': array([[ 0, 36714, 6248, 10172, 48549, 47780, 48576, 48281, 48241,
48885, 42393, 11582, 23171, 47918, 47780, 48190, 48735, 2]]), 'attention_mask': array([[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]])}
https://github.com/axinc-ai/ailia-models/issues/1336