-
环境windows, x86, cpu, paddle2.6.1, paddlenlp2.6.1, fastdeploy-python 1.07
我想在本地部署三个模型脚本,其中两个只依赖fastdeploy,第三个fastdeploy示例里没有因此用的是paddlenlp的Taskflow。
首先感谢fastdeploy团队,大大加速我的模型在cpu上的推理速度。但是现在遇到三个问题…
-
### 软件环境
```Markdown
- paddlepaddle:
- paddlepaddle-gpu:
- paddlenlp:
```
### 详细描述
```Markdown
这个文档里,predict时加载了两次模型参数,第一次是原始模型,第二次是训练后的参数,按理说,只需要加载训练后的参数即可,是不是可以再完善一下
```
-
python3.8和python3.9 win11x64都试了全报错,
pip install paddlepaddle-gpu==2.5.1
pip install paddlehub==2.4.0
````pythonimport paddlehub as hub
import cv2
import sys
import os
if __name__ == '__main…
-
### one_hot related issue
I was using the parent abstract class- 'Task' of Docprompt to convert the model to ONNX using '_prepare_onnx_mode' . I just tried using the module call. I got this error:
…
-
### 需求描述 Feature Description
任务目标(请描述你正在做的项目是什么,如模型、论文、项目是什么?); 需求场景(请描述你的项目中为什么需要用此功能); 功能描述(请简单描述或设计这个功能)
### 替代实现 Alternatives
希望能出一个paddle的Mamba,最近新模型很多都是基于Mamba的,没有Paddle-Mamba,只能用torch,非常不…
-
### bug描述 Describe the Bug
### 其他补充信息 Additional Supplementary Information
环境:paddle2onnx 1.2.7
paddlefsl 1.1.0
paddlenlp 3.0.0b0
paddlepaddle 3.0.0b1
-
from collections import deque
import paddlehub as hub
model = hub.Module(name='plato-mini', version='1.0.0')
model._interactive_mode = True
model.max_turn = 10
model.context = deque(maxlen=model.…
-
哥们,这几天很受你这个项目的启发,之前苦于寻找支持中文的对话意图识别方案,到你这算是解决问题了!
最近百度飞桨新发布了了Ernie3.0 (https://github.com/PaddlePaddle/PaddleNLP)
但我试了下,基于Ernie3.0做tokenizer的机制发生了很大变化,需要升级到Paddlenlp 2.3,(或者替换/paddlenlp/transform…
-
欢迎您反馈PaddleNLP使用问题,非常感谢您对PaddleNLP的贡献!
在留下您的问题时,辛苦您同步提供如下信息:
- 版本、环境信息
1)PaddleNLP和PaddlePaddle版本:请提供您的PaddleNLP和PaddlePaddle版本号,例如PaddleNLP 2.0.4,PaddlePaddle2.1.1
2)系统环境:请您描述系统类型,例如Linux/Windows…
-
>>> ### model = hub.Module(name='plato-mini')
[2021-08-17 11:30:13,858] [ INFO] - Already cached C:\Users\Administrator\.paddlenlp\models\plato-mini\plato-mini.pdparams
Traceback (most recent cal…
fdsuf updated
3 years ago