Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

微调后没起作用 #26

Open
MrLuer opened this issue Jun 9, 2024 · 3 comments
Open

微调后没起作用 #26

MrLuer opened this issue Jun 9, 2024 · 3 comments

Comments

@MrLuer
Copy link

MrLuer commented Jun 9, 2024

hi,我用默认的lora微调脚本微调2400step后,使用gui部署。向他提问“你是谁”,回答是清华大学的聊天机器人。而使用仓库预训练的lora模型则回答是嬛嬛。这看上去是训练没起到作用?

@MrLuer MrLuer changed the title 微调后不起作用 微调后没起作用 Jun 9, 2024
@navono
Copy link

navono commented Jul 9, 2024

我也遇到了同样的问题。
我用的是西游记的文本。

@YANGCHEN205
Copy link

hi,我用默认的lora微调脚本微调2400step后,使用gui部署。向他提问“你是谁”,回答是清华大学的聊天机器人。而使用仓库预训练的lora模型则回答是嬛嬛。这看上去是训练没起到作用?

你好,1的问题解决了,我也遇到了这种问题,chatglm1的效果比2要好一点

@brucewayne798
Copy link

我也遇到了同样的问题。 我用的是西游记的文本。

里面的数据集我觉得是有问题。西游记的文本有很多剧情提取,有的output都不是孙悟空的回答,这样练出来不会有太大作用,甚至会让模型变呆,很多通用能力会变得很差。你可以试下他们在openlab上部署的服务,回答效果我觉得不太行。所以需要在数据集上动动心思。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants