#自然语言处理#BertViz: Visualize Attention in NLP Models (BERT, GPT2, BART, etc.)
翻译 - 可视化Transformer模型中的注意力的工具(BERT,GPT-2,Albert,XLNet,RoBERTa,CTRL等)
#自然语言处理#中文nlp解决方案(大模型、数据、模型、训练、推理)
#自然语言处理#GPT2 for Chinese chitchat/用于中文闲聊的GPT2模型(实现了DialoGPT的MMI思想)
RoBERTa中文预训练模型: RoBERTa for Chinese
#自然语言处理#a fast and user-friendly runtime for transformer inference (Bert, Albert, GPT2, Decoders, etc) on CPU and GPU.
翻译 - 一个快速且用户友好的工具,用于在CPU和GPU上进行变压器推断
#自然语言处理#Chinese NewsTitle Generation Project by GPT2.带有超级详细注释的中文GPT2新闻标题生成项目。
#自然语言处理#Simple Text-Generator with OpenAI gpt-2 Pytorch Implementation
翻译 - 具有OpenAI gpt-2 Pytorch实现的简单文本生成器
#计算机科学#Adan: Adaptive Nesterov Momentum Algorithm for Faster Optimizing Deep Models
Pre-trained Transformers for Arabic Language Understanding and Generation (Arabic BERT, Arabic GPT2, Arabic ELECTRA)
#计算机科学#A PyTorch implementation of "Graph Wavelet Neural Network" (ICLR 2019)
#自然语言处理#NLP 领域常见任务的实现,包括新词发现、以及基于pytorch的词向量、中文文本分类、实体识别、摘要文本生成、句子相似度判断、三元组抽取、预训练模型等。
#自然语言处理#MindSpore online courses: Step into LLM
Guide: Finetune GPT2-XL (1.5 Billion Parameters) and finetune GPT-NEO (2.7 B) on a single GPU with Huggingface Transformers using DeepSpeed
#自然语言处理#1. Use BERT, ALBERT and GPT2 as tensorflow2.0's layer. 2. Implement GCN, GAN, GIN and GraphSAGE based on message passing.
#自然语言处理#PyTorch Implementation of OpenAI GPT-2