-
使用以下方法导入map_fn:
```python
with read_base():
from .my_map_fn import my_map_fn
```
运行process_untokenized_datasets,导出数据后,报错:
```python
Processed dataset has been saved to /mnt/home/xxxxxxx/l…
-
### 问题描述
1. 需要部署internlm2-7b而内置模型中仅有intern2-chat,因此选择了自定义部署
2. 在部署成功后(部署流程见下文),对模型进行问答测试,因为需要结合 `LangChain` 使用,所以使用了 `langchain_community.llms.xinference` 下的 `Xinference`
3. 使用了如下的测试代码,
```python
…
-
首先,感谢上海人工智能实验室及其成员对书生模型、代码框架、技术经验的分享!
请问,internlm2_20b_qlora_msagent_react_e3_gpu8训练时如何添加自己的词汇表呢?
比如:breed_name、area_name等,当做一个token。
谢谢!
-
总算使用 internvl- v1.5 做完微调了,非常感谢你们的工作!现在想问下怎么使用微调后的模型呀?使用 transformers 的 AutoModel.from_pretrained 函数加载时报错缺少很多配置文件,我要从 internvl-1.5 那里复制过来吗?怎么确认自己是否使用的是微调后的模型参数呀?
期待好心人的解答~
-
### 📚 The doc issue
### Code部分:
```
def generate_QA():
server_addr = "..."
client = APIClient(server_addr, api_key=None)
model_name = client.available_models[0]
req = "你是一位善于总…
-
### Describe the question.
请问 Internevo是否支持tied_embedding?有的话怎么使用呢?
-
### Prerequisites
- [X] I am running the latest code. Mention the version if possible as well.
- [X] I carefully followed the [README.md](https://github.com/ggerganov/llama.cpp/blob/master/README.md)…
-
Hi, thanks for your great work!
I 'm planning to verify the performance on internlm2 based mllms, I noticed that the integration of internlm is TBD, just wondering any plans to support internlm2, and…
-
### Reminder
- [X] I have read the README and searched the existing issues.
### Reproduction
CUDA_VISIBLE_DEVICES=1 llamafactory-cli example/......
below is the yaml file:
# model
model_name_or_…
-
多次尝试,甚至换了不同的机器也是这样的。
我严格按照教程步骤:
cd ~/autodl-tmp/
git clone -b v0.1.18 https://github.com/InternLM/XTuner
cd XTuner
pip install -e .
或者:
git clone -b v0.1.14 https://github.com/InternLM/xtuner…