Toybrick

楼主: jefferyzhang

本地和开发板部署 DeepSeek-R1 和 Janus-Pro

erquren

中级会员

积分
258
11#
发表于 2025-2-6 14:43:11 | 只看该作者
erquren 发表于 2025-2-6 14:30
text = PROMPT_TEXT_PREFIX + input_str + PROMPT_TEXT_POSTFIX;  就这个改成
text = input_str; 其他没 ...

发现提示词在llm.cpp里也有,去掉了,现在好很多
回复

使用道具 举报

jefferyzhang

版主

积分
14376
12#
 楼主| 发表于 2025-2-6 15:00:13 | 只看该作者
erquren 发表于 2025-2-6 14:30
text = PROMPT_TEXT_PREFIX + input_str + PROMPT_TEXT_POSTFIX;  就这个改成
text = input_str; 其他没 ...

当然没有,你可以用我刚更新的代码去测试,自己代码走读一遍,开头就喂了场景提示词,除了注释掉这里还有开头的。
回复

使用道具 举报

python_packe

新手上路

积分
12
13#
发表于 2025-2-8 23:00:22 | 只看该作者
请问,param.max_context_len = 128000; 这个是设置上下文长度的么?官方的git上显示都是320个tokens?所以上下文最终能支持到多少?另外,有支持返回词嵌入后的向量结果么?这样用来搜索知识库会有很多的玩法
回复

使用道具 举报

jefferyzhang

版主

积分
14376
14#
 楼主| 发表于 2025-2-10 08:49:42 | 只看该作者
python_packe 发表于 2025-2-8 23:00
请问,param.max_context_len = 128000; 这个是设置上下文长度的么?官方的git上显示都是320个tokens?所以 ...

官网不是写 128K 么?
回复

使用道具 举报

erquren

中级会员

积分
258
15#
发表于 2025-2-10 11:08:09 | 只看该作者
测试用的QWEN1.5B ,换了几种量化数据集都喜欢胡言乱语,我的问题短的话,他会自动补一段,然后回答那一段的数据
https://gist.github.com/erquren/3c895e030e82b7a5ff672cb44af3aa1b
回复

使用道具 举报

jefferyzhang

版主

积分
14376
16#
 楼主| 发表于 2025-2-10 14:55:32 | 只看该作者
本帖最后由 jefferyzhang 于 2025-2-11 14:38 编辑
erquren 发表于 2025-2-10 11:08
测试用的QWEN1.5B ,换了几种量化数据集都喜欢胡言乱语,我的问题短的话,他会自动补一段,然后回答那一段 ...

1. 对比原始模型1.5b和量化后1.5b运行结果。
如果不一致,说明就是量化失效,你应该把有问题的数据放进量化脚本里一起量化。
2. 按llama新增角色提示词,效果会好很多。本文教程已经更新过了,你可以按新的试试
回复

使用道具 举报

python_packe

新手上路

积分
12
17#
发表于 2025-2-10 16:28:39 | 只看该作者
jefferyzhang 发表于 2025-2-10 08:49
官网不是写 128K 么?

感谢回复,这下我知道了
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表