2019/2020年及以后-BIG语言模型 , 自监督学习?
整个深度学习历史上最明显的趋势也许就是惨痛的教训 。更好的并行化(=更多数据)和更多模型参数的算法进步一次又一次地赢得了“更智能的技术” 。这种趋势似乎延续到2020 , 其中GPT-3 , 通过OpenAI一个巨大的175十亿参数语言模型 , 显示了出乎意料的良好的泛化能力 , 尽管它的简单训练目标和标准架构 。
同样的趋势是诸如对比自监督学习(例如SimCLR)之类的方法 , 它们可以更好地利用未标记的数据 。随着模型变得越来越大 , 训练起来越来越快 , 可以有效利用Web上大量未标记数据并学习可以转移到其他任务的通用知识的技术变得越来越有价值并被广泛采用 。
推荐阅读
- VMware 安装运行 deepin 虚拟机
- 适用于少量数据的深度学习结构
- 一文让你读懂JAVA.IO、字符编码、URL和Spring.Resource
- 一文读懂神经网络的奥妙
- Java线程池深度揭秘
- 一文看懂网上支付系统架构
- 华为|7大家族产品齐飞!一文看懂华为终端商用产品线
- 蛟龙号目前潜水深度达到多少米 蛟龙号下潜最深是多少米
- 2020年顶级深度学习框架:PyTorch与TensorFlow
- 经典红茶正山小种,武夷红茶正山小种大小赤甘分类历史回顾
