Closed zhongbin1 closed 4 years ago
你好~感谢你的第一个issue
service-streamer是一个中间件,适用于TensorFlow/PyTorch和不同web server之间的组合。与tf-serving比的话,变量太多,不太有说服力。不过我们晚点会拿同一个BERT模型,做一下benchmark,仅供参考
ok,先学习一波源码。
你好~感谢你的第一个issue
service-streamer是一个中间件,适用于TensorFlow/PyTorch和不同web server之间的组合。与tf-serving比的话,变量太多,不太有说服力。不过我们晚点会拿同一个BERT模型,做一下benchmark,仅供参考
🙏,还想问下性能测试用的模型的max_seq_len是多少呢
@nlp4whp 你好,我们用的max_seq_len=64,bert-base做的benchmark
请问一下像tensorflow 如果用这种预测方式是否就没法直接用您这个包了 pred_ids_result = self.sess.run([self.pred_ids], feed_dict)
nice work! 不知道有没有与tensorflow serving batching做过性能对比?