#自然语言处理#Haystack 是一个开源 NLP 框架,利用预训练的 Transformer 模型。 帮组开发者能快速实现一个生产级的语义搜索、问答、摘要和文档排名的NLP应用
#计算机科学#🏄 Scalable embedding, reasoning, ranking for images and sentences with CLIP
翻译 - 使用BERT模型将可变长度句子映射到固定长度向量
#搜索#PaddleNLP 2.0是飞桨生态的文本领域核心库,具备易用的文本领域API,多场景的应用示例、和高性能分布式训练三大特点,旨在提升开发者文本领域的开发效率,并提供基于飞桨2.0核心框架的NLP任务最佳实践。
#自然语言处理#Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)
This repository contains demos I made with the Transformers library by HuggingFace.
翻译 - 这个存储库包含我用 HuggingFace 的 Transformers 库制作的演示。
#自然语言处理#大规模中文自然语言处理语料 Large Scale Chinese Corpus for NLP
#自然语言处理#💥 Fast State-of-the-Art Tokenizers optimized for Research and Production
翻译 - optimized针对研究和生产进行了优化的快速最先进的分词器
#自然语言处理#BertViz: Visualize Attention in NLP Models (BERT, GPT2, BART, etc.)
翻译 - 可视化Transformer模型中的注意力的工具(BERT,GPT-2,Albert,XLNet,RoBERTa,CTRL等)
#自然语言处理#Official implementations for various pre-training models of ERNIE-family, covering topics of Language Understanding & Generation, Multimodal Understanding & Generation, and beyond.
翻译 - ERNIE的语言理解实现(包括预训练模型和微调工具)
#自然语言处理#Leveraging BERT and c-TF-IDF to create easily interpretable topics.
翻译 - 利用BERT和基于类的TF-IDF创建易于理解的主题。
Transformer related optimization, including BERT, GPT
#自然语言处理#Awesome Pretrained Chinese NLP Models,高质量中文预训练模型&大模型&多模态模型&大语言模型集合
Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning And private Server services
翻译 - NER任务的Tensorflow解决方案将BiLSTM-CRF模型与Google BERT微调和私有服务器服务结合使用
A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS, 海量中文预训练ALBERT模型
该仓库主要记录 NLP 算法工程师相关的顶会论文研读笔记