Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

ResponseBatch 返回结果不正确 #429

Open
Liufeiran123 opened this issue Mar 4, 2024 · 5 comments
Open

ResponseBatch 返回结果不正确 #429

Liufeiran123 opened this issue Mar 4, 2024 · 5 comments

Comments

@Liufeiran123
Copy link

同一batch中的prompt,有的prompt返回正确,有的prompt返回不正确,检查后发现是padding 的问题,代码中并没有padding mask的相关实现啊。

@TylunasLi
Copy link
Contributor

您好,您是否可以提供一个复现的例子呢?据我观察代码''FillLLMInputs方法似乎没有做前向的padding。

@Liufeiran123
Copy link
Author

您好,您是否可以提供一个复现的例子呢?据我观察代码''FillLLMInputs方法似乎没有做前向的padding。

是的,没实现padding。所以batch输出结果不正确。

@TylunasLi
Copy link
Contributor

您好,您是否可以提供一个复现的例子呢?据我观察代码''FillLLMInputs方法似乎没有做前向的padding。

是的,没实现padding。所以batch输出结果不正确。

看了一下代码,

  • ChatGLMModel实现了FillLLMInputsBatch()方法,是默认值0做的前向padding;attention mask做了处理;
  • LlamaModel没实现FillLLMInputsBatch()方法,在ResponseBatch()中,默认值0做前向padding(应该用pad_token_id);attention mask做了处理;
  • QWenModel实现了FillLLMInputsBatch()方法,但没有做前向padding。

@Liufeiran123
Copy link
Author

@ztxz16 有计划增加qwen的 batch推理 padding支持吗。

@Liufeiran123
Copy link
Author

经过测试 baichuan2的 batch推理是正常的。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants