视频里几个不明白的点

视频里几个不明白的点

1、当中有讲到的上下文长度这个是指什么呢?有点不是很了解
2、当中有讲到gpt3有16k的token这个16k的k单位是什么呢?
3、当中有讲到词向量这个,词向量具体是指什么呢?然后又是怎么转成词向量概率跟词表里面的概率相比较呢?(PS:词表里面不都是token对应的一系列索引嘛,这个又是怎么转换成一个个的概率值呢)
以上是观看视频碰到的问题,麻烦老师帮忙解答下。谢谢

正在回答

登陆购买课程后可参与讨论,去登陆

1回答
  1. 上下文长度表示模型可以处理的最大上下文长度,这里的上下文指在一次对话/任务中,模型可以处理的最大token数量(涵盖了输入+输出等所有传递给LLM的信息),可以将其类比为资源(如金钱或时间)的总量,你只能在总量内分配这些资源。对于大模型来说,这意味着输入的信息越多,留给输出的空间就越少,反之亦然。

  2. 16k 里的 k 其实就是千,在英文内 kilo 是表示千的词根,所以单个字母 K/k 常用于表达千的含义。

  3. 词向量和词表不是一个概念,词向量是想办法把一段文本转换成长度固定的一组数据,这样不同长度的文本之间就可以通过词向量来对比相似性。

  4. 转换成概率表的逻辑是先将文本转换成 token 列表,然后使用这组列表和 LLM 的参数进行一系列的计算,得到一个等同于词长度的列表,列表里的每一项就是对应 token 出现的概率,然后找到概率最大的 token 作为下一次的输出(这是简化的流程,实际的流程会更加复杂)。

  • 黔芯 提问者 #1

    第三点还有个模糊的点是:假设肚子饿了转成了[1,2,3],然后再根据词表转换出来的数据如[1,2,3,4]、[1,2,3,5]这样去比较两者之间的一个相似性找出概率最大的那一个嘛

    2024-09-30 11:00:32
  • 泽辉呀 回复 提问者 黔芯 #2

    比如“肚子饿了”转换出来时[1, 2, 3],则 LLM 会拿 [1, 2, 3] 与参数进行计算,假设词表长度是 20w,计算会得到一个长度为 20w 的列表,例如 [0.00015, 0.0004, 0.0003, 0.00014, ...],这个列表的求和为 1,然后从中取出概率最大的位置,并且拿到位置从词表中取出对应的词,这个词就是 LLM 觉得下一个最优可能得词,以此类推(简化版流程)。

    2024-09-30 11:24:18
问题已解决,确定采纳
还有疑问,暂不采纳

恭喜解决一个难题,获得1积分~

来为老师/同学的回答评分吧

0 星
AI Agent 全栈开发工程师
  • 参与学习       543    人
  • 解答问题       417    个

全流程打造你自己的(Coze/Dify)低代码智能体开发平台;2025年入行正当时,企业急需,人才稀缺,竞争小;无论入行还是转行,首选口碑好课,门槛低、成长高

了解课程
请稍等 ...
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师