• Gemini 2.5 Flash 和Pro稳定版上线,和之前版本相比,在性能和应用场景上有哪些提升?
  • 你捡过最大的漏是什么?
  • 如何评价极目新闻批判《捞女游戏》,认为靠性别对立捞流量?
  • 国产手机AI「好用」的背后,是技术差距还是文化差异?
  • 亚克力鱼缸这么容易模糊吗?

诚信为本,市场在变,诚信永远不变...        

0896-98589990
新闻资讯
您的当前位置: 首页 > 新闻资讯

如何设计一条 prompt 让 LLM 陷入死循环?

发布时间:2025-06-27 14:00:19

分享到:

核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。

然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。

它的特征就是:Prompt的输出又是一条指令。

也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。

如何设计一条 prompt 让 LLM 陷入死循环?

上一篇 : 有人说x86是条必沉的船,苹果早就跳船了,微软也有弃船的意图,你怎么看?

下一篇 : Web后端开发,用Python还是Go呢?