#计算机科学#59 篇深度学习论文的实现,并带有详细注释。包括 transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, ...), gans(cyclegan, stylegan2, ...), 🎮 强化学习 (ppo, dqn), capsnet, distillation, ... 🧠
#大语言模型#Unified Efficient Fine-Tuning of 100+ LLMs (ACL 2024)
Implementation of Vision Transformer, a simple way to achieve SOTA in vision classification with only a single transformer encoder, in Pytorch
翻译 - 在Pytorch中实现视觉变压器,这是仅使用一个变压器编码器即可在视觉分类中实现SOTA的简单方法
#自然语言处理#Haystack 是一个开源 NLP 框架,利用预训练的 Transformer 模型。 帮组开发者能快速实现一个生产级的语义搜索、问答、摘要和文档排名的NLP应用
#大语言模型#🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.
#自然语言处理#DocsGPT 是一个用于“文档”的基于GPT聊天助手,能快速检索项目文档,帮助开发人员轻松地提出与项目相关的问题,并获得准确的答案
State-of-the-art Machine Learning for the web. Run 🤗 Transformers directly in your browser, with no need for a server!
#搜索#PaddleNLP 2.0是飞桨生态的文本领域核心库,具备易用的文本领域API,多场景的应用示例、和高性能分布式训练三大特点,旨在提升开发者文本领域的开发效率,并提供基于飞桨2.0核心框架的NLP任务最佳实践。
#大语言模型#Machine Learning Engineering Open Book
Ongoing research training transformer models at scale
翻译 - 正在进行的大规模研究转换语言模型的研究,包括:BERT&GPT-2
This repository contains demos I made with the Transformers library by HuggingFace.
翻译 - 这个存储库包含我用 HuggingFace 的 Transformers 库制作的演示。
#自然语言处理#💥 Fast State-of-the-Art Tokenizers optimized for Research and Production
翻译 - optimized针对研究和生产进行了优化的快速最先进的分词器
An implementation of model parallel GPT-2 and GPT-3-style models using the mesh-tensorflow library.
翻译 - 使用Mesh-tensorflow库,可并行执行模型GPT2和类似GPT3的模型,并能够扩展到完整的GPT3尺寸(甚至可能更多!)。
#计算机科学#Implementation of RLHF (Reinforcement Learning with Human Feedback) on top of the PaLM architecture. Basically ChatGPT but with PaLM
#自然语言处理#OpenVINO™ is an open-source toolkit for optimizing and deploying AI inference
翻译 - OpenVINO™工具包存储库
An implementation of model parallel autoregressive transformers on GPUs, based on the Megatron and DeepSpeed libraries
翻译 - 基于DeepSpeed库的GPU上类似于GPT-3的模型并行模型的实现。设计为能够训练成千上亿个参数或更大参数的模型。
#安卓#Open source real-time translation app for Android that runs locally
#大语言模型#Accelerate local LLM inference and finetuning (LLaMA, Mistral, ChatGLM, Qwen, Mixtral, Gemma, Phi, MiniCPM, Qwen-VL, MiniCPM-V, etc.) on Intel XPU (e.g., local PC with iGPU and NPU, discrete GPU such ...
[NeurIPS 2024 Oral][GPT beats diffusion🔥] [scaling laws in visual generation📈] Official impl. of "Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction". An *ultra-simp...
#自然语言处理#Leveraging BERT and c-TF-IDF to create easily interpretable topics.
翻译 - 利用BERT和基于类的TF-IDF创建易于理解的主题。