#大语言模型#ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
#自然语言处理#C++ implementation of ChatGLM-6B & ChatGLM2-6B & ChatGLM3 & GLM4(V)
ChatGLM2-6B 全参数微调,支持多轮对话的高效微调。
Colab for chatglm2-6b
chatglm2 6b finetuning and alpaca finetuning
run ChatGLM2-6B in BM1684X
ChatGLM2-6B微调, SFT/LoRA, instruction finetune
使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。
ChatGLM2-6B-Explained
Colab for ChatGLM2-6B
(1)弹性区间标准化的旋转位置词嵌入编码器+peft LORA量化训练,提高万级tokens性能支持。(2)证据理论解释学习,提升模型的复杂逻辑推理能力(3)兼容alpaca数据格式。
A WebUI for ChatGLM-6B
ChatGLM-6B Prompt Engineering Project
ChatGLM-6B fine-tuning.
chatglm-6b-fine-tuning
Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答