7. Transformer 模型和 BERT 模型
- 本课程向您介绍 Transformer 架构和来自 Transformers (BERT) 模型的双向编码器表示。您将了解 Transformer 架构的主要组件,例如自注意力机制,以及如何使用它来构建 BERT 模型。您还将了解 BERT 可用于的不同任务,例如文本分类、问答和自然语言推理。https://www.cloudskillsboost.google/course_templates/538
- 在本模块中,您将了解 Transformer 架构的主要组件,例如自注意力机制,以及如何使用它来构建 BERT 模型。您还将了解 BERT 可用于的不同任务,例 如文本分类、问答和自然语言推理。
- 视频学习:https://youtu.be/sUCiDU8GhMA
引言
你好。我是 Sanjana Reddy,是 Google 高级解决方案实验室的机器学习工程师。生成式 AI 和所有新的进步,包括即将出现的新顶点 AI 功能,令人兴奋不已。例如 Gen AI Studio、Model Garden、Gen AI API。我们在这个简短的会议中的目标是让您在一些基本概念上打下坚实的基础。
语言建模的进展
语言建模已经发展了多年。过去十年的最新突破包括使用神经网络用于表示文本的方法,例如 2013 年的 Word2Vec 和 N-grams。2014 年,序列到序列模型(例如 RNN 和 LSTM)的开发帮助提高了 ML 模型在 NLP 任务上的性能,比如翻译和文本分类。
注意力机制的兴起
2015 年,注意力机制和基于它构建的模型令人兴奋,例如 Transformers 和 Bert 模型。今天要讲的是 Transformer 模型。