1. 书生·浦语大模型全链路开源开放体系

    上海人工智能实验室重磅推出书生·浦语大模型实战营,为广大开发者搭建大模型学习和实践开发的平台,两周时间带你玩转大模型微调、部署与评测全链路。

    2024/01/04 大模型 书生·浦语

  2. docker食用openpose1.6.0教程

    2023/04/20 docker,openpose

  3. 3.Bigtable解读

    Bigtable 要解决什么问题?

    2022/06/21 大数据论文解读

  4. 2.MapReduce解读

    MapReduce:一个分布式的 Bash

    2022/06/20 大数据论文解读

  5. 1.GFS解读

    GFS 的设计决策

    2022/06/13 大数据论文解读

  6. 0.建立大数据知识网络

    Google的三驾马车

    2022/06/13 大数据论文解读

  7. 在家如何访问内网机器?内网穿透教程

    前言

    2022/02/13 其他

  8. 0.注意力机制

    什么是注意力机制? Transformer、BERT等模型在NLP领域取得了突破,其模型主要依赖了注意力机制(Attention Mechanism)。注意力Attention机制被应用到越来越多的地方,那么注意力Attention机制的原理和本质到底是什么?

    2022/01/27 深度学习

  9. numpy常用命令总结

    concatenate

    2022/01/27 数据分析

  10. 5.队列基础

    前言 我们知道,CPU 资源是有限的,任务的处理速度与线程个数并不是线性正相关。相反,过多的线程反而会导致 CPU 频繁切换,处理性能下降。所以,线程池的大小一般都是综合考虑要处理任务的特点和硬件环境,来事先设置的。当我们向固定大小的线程池中请求一个线程时,如果线程池中没有空闲资源了,这个时候线程池如何处理这个请求?是拒绝请求还是排队请求?各种处理策略又是怎么实现的呢?实际上,这些问题并不复杂,其底层的数据结构就是我们今天要学的内容,队列 (queue)。

    2022/01/25 数据结构与算法之美