SELF-INSTRUCT:将语言模型与自生成指令对齐
一、引言$\quad$随着大规模语言模型(LLM)的能力范围越来越广,其中有两个关键的组成部分: 大型预训练语言模型(LM) 和人类书写的指
阅读更多一、引言$\quad$随着大规模语言模型(LLM)的能力范围越来越广,其中有两个关键的组成部分: 大型预训练语言模型(LM) 和人类书写的指
阅读更多介绍VSCode是微软的一个开源项目,目前非常受欢迎的一款轻量级代码编辑器(配合插件还可以进行调试、编译等操作),各种插件可以满足你的日常开
阅读更多2024|通过相似性搜索进行上下文示例选择可改善低资源机器翻译 摘要:生成式大语言模型(LLMs)进行上下文学习的能力,已经催生了大量研究,
阅读更多论文解读|ACL 2024: 演示对多语言情境学习的影响:多维分析 摘要:在上下文中学习是一种流行的推理策略,其中大型语言模型仅通过少量标记
阅读更多EMNLP 2023:基于微调和上下文学习的机器翻译大型语言模型 摘要:大型语言模型(LLMs)是机器翻译(MT)的一个有前景的途径。然而,
阅读更多
EMNLP 2023:基于微调和上下文学习的机器翻译大型语言模型
论文解读|ACL 2024: 演示对多语言情境学习的影响:多维分析
2023|用于特定领域机器翻译的大语言模型微调
2024|通过相似性搜索进行上下文示例选择可改善低资源机器翻译
基于Llama的藏文增量预训练及模型开源共享
基于safetensors.index.json.
大模型应用的平民化
面向大语言模型的藏语指令数据集构建
大语言模型(LLM)微调方法总结
基于生成式的UIE方法阅读笔记
SELF-INSTRUCT:将语言模型与自生成指令对齐
总结GPT系列以及ChatGPT训练步骤