About 5,530,000 results
Open links in new tab
  1. 机器学习中的encoder,decoder和embedding都有什么区别? - 知乎

    以transformer为例,最原始的结构有6层encoder,6层decoder,而embedding在encoder、decoder之前都会做一次,目的是将词转化为向量,也即word2vec,有许多方法能做到这一点,转化为向量之后还会加一个position encoding,之后便会送入encoder或者decoder进行处理,至于encoder、decoder ...

  2. 带你一分钟了解编码器基础知识 - 知乎

    Mar 8, 2024 · 绝对位置可通过输出信号的幅值或光栅的物理编码刻度鉴别,前者称旋转变压器 (Rotating Transformer);后者称绝对值编码器 (Absolute-value Encoder)。

  3. Create a YouTube live stream with an encoder - YouTube Help

    Learn how to set up a YouTube live stream using an encoder. Using an encoder, you can broadcast your gameplay, use external cameras and mics, and more.

  4. 机器学习11 -- 无监督学习之Auto-Encoder - 知乎

    Apr 6, 2024 · 1 什么是Auto-Encoder 自编码器Auto-Encoder是无监督学习的一种方式,可以用来做降维、特征提取等。它包括两部分

  5. 一文了解Transformer全貌(图解Transformer)

    Jan 21, 2025 · 1. Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成另一种语言,如果把Transformer看成一个黑盒,那么其结构如下图所示: 将法语翻译成英语 那么拆开这个黑盒,那么可以看到Transformer由若干个编码器和解码器组成,如下图所示: 继续将Encoder和Decoder拆开,可以看到完整的结构,如下 ...

  6. Encoder-decoder 架构适合什么任务?为什么分类任务不用 …

    Jan 27, 2022 · Encoder-decoder 很适合像图像分割这种输出结果保留原尺寸的 pixel-wise 分类 任务,像 U-Net 就是图像领域一个很常见的 encoder-decoder. 普通分类也可以灵活运用 encoder-decoder 来完成,无监督时特别给力: 如果时分类的话可以直接要求输出等于输入来训练一个 encoder-decoder,然后拿 encoder 提取的特征做分类 ...

  7. 求通俗解释深度学习里的encoder–decoder是怎么回事? - 知乎

    准确的说,Encoder-Decoder并不是一个具体的模型,而是一类框架。Encoder和Decoder部分可以是任意的文字,语音,图像,视频数据,模型可以采用CNN,RNN,BiRNN、LSTM、GRU等等。所以基于Encoder-Decoder,我们可以设计出各种各样的应用算法。 Encoder-Decoder框架有一个最显著的特征就是它是一个End-to-End学习的 ...

  8. 哪位大神讲解一下Transformer的Decoder的输入输出都是什么?能 …

    每一个 Encoder block 输出的 矩阵维度 与 输入 完全一致。 第三步:将 Encoder 输出的编码信息矩阵 C传递到 Decoder 中 Decoder 依次会根据 当前已经翻译过的单词 i(I) 翻译下一个单词 i+1(have),如下图所示。

  9. Troubleshoot your YouTube live stream - YouTube Help - Google …

    A live stream encoder is the app, program, or tool you can use to capture and compress your live stream. You can use the steps below to troubleshoot some problems that may occur with your encoder.

  10. 为什么现在的LLM都是Decoder only的架构? - 知乎

    半年前差点被这个问题挂在面试现场的我 现在想来,这个回答既不全面(没有主动提到T5那样的encoder-decoder架构,也忘了GLM、XLNET、PrefixLM等等其他架构),也没涉及到问题的科学本质:都知道decoder-only好,为啥好呢? 这个没有统一答案、却又对LLM的发展极其重要的问题,在24届算法岗面试热度颇高 ...