LLM中的温度,清晰解释! 温度是LLM推理中的一个关键采样参数。今天我将向你展示它的含义以及它是如何工作的。 让我们先用低温值两次提示OpenAI GPT-3.5。 我们观察到它从LLM中产生了相同的响应。 看看这个👇 现在,让我们用高温值提示它。 这次,它产生了无意义的输出。请查看下面的输出。 这里发生了什么?🤔 让我们深入探讨一下!...👇 文本生成的LLM就像是具有覆盖整个词汇表的输出层的分类模型。 然而,它们并不是选择得分最高的标记,而是从预测中进行“采样”。 这种采样由温度参数控制,它调整softmax函数。 看看这个👇 温度控制概率分布的行为。 ❗️在低温下,概率变得尖锐集中,使得采样几乎是贪婪的;得分最高的标记几乎总是被选择。 ...