#计算机科学#59 篇深度学习论文的实现,并带有详细注释。包括 transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, ...), gans(cyclegan, stylegan2, ...), 🎮 强化学习 (ppo, dqn), capsnet, distillation, ... 🧠
OpenAI Whisper语音识别模型,C++移植版本。
#大语言模型#A high-throughput and memory-efficient inference and serving engine for LLMs
#计算机科学#《李宏毅深度学习教程》(李宏毅老师推荐👍,苹果书🍎),PDF下载地址:https://github.com/datawhalechina/leedl-tutorial/releases
#计算机科学#pix2tex: Using a ViT to convert images of equations into LaTeX code.
翻译 - pix2tex:使用 ViT 将方程图像转换为 LaTeX 代码。
#计算机科学#Faster Whisper transcription with CTranslate2
PaddleSpeech 是基于飞桨 PaddlePaddle 的语音方向的开源模型库,用于语音和音频中的各种关键任务的开发,典型的应用包括:语音识别、语音翻译、语音合成等
#自然语言处理#Large Language Model Text Generation Inference
PaddleSeg是基于飞桨PaddlePaddle开发的端到端图像分割开发套件,涵盖了高精度和轻量级等不同方向的大量高质量分割模型。通过模块化的设计,提供了配置化驱动和API调用两种应用方式,帮助开发者更便捷地完成从训练到部署的全流程图像分割应用。
MMSegmentation 是一个基于 PyTorch 的语义分割开源工具箱。它是 OpenMMLab 项目的一部分。
#大语言模型#An Extensible Toolkit for Finetuning and Inference of Large Foundation Models. Large Models for All.
#计算机科学#Trax — Deep Learning with Clear Code and Speed
翻译 - Trax –您进阶深度学习的道路
Code for the paper "Jukebox: A Generative Model for Music"
翻译 - 论文代码“自动点唱机:音乐的生成模型”
#自然语言处理#Chinese version of GPT2 training code, using BERT tokenizer.
翻译 - 使用BERT标记程序的中文版GPT2培训代码。
A framework for few-shot evaluation of language models.
#自然语言处理#BertViz: Visualize Attention in NLP Models (BERT, GPT2, BART, etc.)
翻译 - 可视化Transformer模型中的注意力的工具(BERT,GPT-2,Albert,XLNet,RoBERTa,CTRL等)
#大语言模型#SGLang is a fast serving framework for large language models and vision language models.