M

MrLittleDog

V1

2023/05/07阅读:23主题:绿意

未命名文章吴恩达ChatGPT pROMPTKECHENG BIJI

  1. model:表示使用的模型类型,例如:gpt-3.5-turbo。
  2. prompt:表示你输入的提示词。
  3. temperature:表示生成的回答的多样性程度,取值范围为0到2,通常设置在0.7到1.0之间。将温度设置为较低的值将导致输出更可预测和重复(如果希望有固定的结果可以将值设为0),而较高的温度会导致更随机和不可预测的输出。
  4. top_p:表示从概率分布中选择可能结果的阈值大小,取值范围0到1,通常设置在0.1到1.0之间。建议不要同时使用temperature和top_p。利用了核采样技术,设置为0.1意味着输出对前10%概率的token采样。
  5. presence_penalty:作用是惩罚文本中已经出现的单词,提升讨论新主题的可能性。取值范围-2.0到2.> 0。值越大,惩罚越大,通常设置在0.3到0.9之间。
  6. frequency_penalty:作用类似于presence_penalty,减少总体上(包括未在已有文本中出现的)使用频率较高的单词/短语的概率,增加使用频率较低的单词/短语的可能性。取值范围-2.0到2.0,设置为-2时可能会出现这样的效果:今天气温气温气温气温气温气温气温为15~27摄氏度。
  7. max_tokens:用于限制要生成的最多单词/标记数。它通常用于生成摘要或短文本场景,在这些场景中,输出需要有特定的长度限制。如果模型生成的句子超过了指定的最大标记数,则模型将停止生成句子,返回已生成的文本。
  8. n:生成的回复数量,通常设置为1。
  9. stop:用于控制停止的单词或短语列表(最多4个),当模型生成包含这些单词/短语的文本时,它将停止生成并返回结果。
  10. stream:是否以流的形式返回结果。若设置为true,那么回答会一个字一个字的蹦出来,类似打字的过程,否则就是一次性显示回答。
  11. logit_bias:修改指定标记出现在回答中的可能性。接受一个token(由GPT分词器中的token ID指定)映射到从-100到100的偏差值的json对象。可以使用官方提供的分词器工具(适用于GPT-2和GPT-3)将文本转换为tokenID。从数学上讲,在采样之前,偏差被添加到模型生成的logits中,人为改变一些token的概率。具体效果将因模型而异,但值在-1和1之间会减少或增加选择的可能性;值如-100或100会导致相关标记被禁止独占生成
  12. best_of:在多次生成中选择最佳结果。当使用best_of参数时,用户可以指定需要生成的次数,模型将返回这些次数中得分最高的结果作为最终输出。可以通过这种方法获取更准确的回答。

分类:

人工智能

标签:

机器学习

作者介绍

M
MrLittleDog
V1