BAAI
/

这个模型真的有16K上下文长度吗?

#2
by jiyintor - opened

如题,我测试了一个9K的上文输入,输出的提示是:Token indices sequence length is longer than the specified maximum sequence length for this model (4049 > 2048)。
这个2048是输出的最长长度?

Beijing Academy of Artificial Intelligence org

这个是因为16k用的tokenizer和常规版本的tokenizer是一样的,处理文本时会有提示输出,实际使用如果报了可以忽略,不影响模型处理长文本的效果。

Sign up or log in to comment