引言

我从2016年开始接触matlab看别人做语音识别,再接触tensorflow的神经网络,2017年接触语音合成,2020年做落地的医院手写数字识别。到2020年接触pytorch做了计算机视觉图像分类,到2021年做了目标检测,2022年做了文本实体抽取,2023年做了Agent。收获了很多奖项,感觉一直在人工智能新技术上探索,但总是浮于表面,要借这次机会好好学一学LLM,不能再让Transformer还只停留在Attention和QKV上,争取从底层实现一把。
说起来,到底多大才算大语言模型最开始挺有争议的,现在0.3B的模型也开始出现了(如文心开源的 ERNIE-4.5-0.3B-PT),我的感觉是用了一定参数量的语言模型就能叫LLM,有用效果好就行。

人工智能发展历程

感觉主要是这么一个发展流程,RNN主要走文本类,CNN主要走图像类。(还有一些GAN、扩散模型等和图片生成有关的,3D卷积等和视频有关的,RL等游戏智能体相关的,ViT等Transformer和视觉结合的,图里先不表现)

统计模型
RNN
LSTM
Transformer
Encoder-Only
BERT
Encoder-Decoder
T1
Decoder-Only
GPT
CNN
ResNet
YOLO

0.3B: 0.3 Bilion, 参数量为3亿的模型
LLM: Large Language Model, 大语言模型
RNN: Recurrent Neural Network, 循环神经网络,用于文本或语音
CNN: Convolutional Neural Network, 卷积神经网络,用于视觉
GAN: Generative AdversarialNetwork, 生成对抗网络,用于图片生成
Vit: Vision Transformer, 用于视觉的Transformer
RL: Reinforcement Learning, 强化学习
LSTM: Long Short-Term Memory, 长短期记忆网络
ResNet: 残差网络, 用于层数加深时信息的传递
YOLO: You Only Look Once, 用于目标检测
Transformer: 用于增加注意力机制
BERT: Bidirectional Encoder Representations from Transformers, 用于文本分类、实体抽取
T5: Text-to-Text Transfer Transformer, 用于翻译
GPT: Generative Pre-trained Transformer, 用于对话

章节概览

Happy-LLM
基础知识
NLP 基础概念
Transformer架构
预训练语言模型
大语言模型
实战应用
动手搭建大模型
大模型训练实践
大模型应用

参考资料

1、happy-llm/docs/前言.md

Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐