自2022年11月份OpenAI公布ChatGPT以来,ChatGPT在五天之内注册用户数就突破了百万
由此拉开了AIGC大模型的序幕,也有人称为是AI2.0时代,2023年3月14日又发布了GPT4,性能进一步得到提升,关于ChatGPT和GPT4为代码的文本生成以及Codex的代码生成等博客和论文层出不穷,这里对一些重点资料进行了整理归类,持续更新中......
技术交流欢迎加入AIGC技术交流群,与AI领域专家和各行各业的AIGC爱好者一起交流技术理论与行业信息!不管你是学术界还是工业界实践者或爱好者,都欢迎加入群体!
交流群二维码拉你入群(备注AIGC-github)AIGC视频会议&访谈智源社区【论文分享】【AugGPT:利用ChatGPT进行文本数据增强 】[link]
【论文分享】【ChatGPT的鲁棒性探究——对抗性和分布外泛化的视角 】[link]
【论文分享】【传统检索模型和大语言模型在信息搜索中的应用和对比 】[link],[paper],[code],[blog]
访谈&视频【访谈】【OpenAI 的核心研发人员 Jack Rae 在参加 Stanford MLSys Seminar 的访谈时进行了一个名为 Compression for AGI的主题分享 】[访谈记录]
【访谈】【万字长文:想训大模型?这里有一份避坑指南】[访谈记录]
【访谈】【微软Bing版ChatGPT表明想做人类,并且对纽约时报专栏作家表达爱意】[访谈记录]
【访谈】【Midjourney创始人David Holz关于生成式AI的访谈】[访谈记录]
【访谈】【OpenAI创始人:GPT-4的研究起源和构建心法】[访谈记录]
【访谈】【ABC News 专访OpenAI首席执行官萨姆·奥尔特曼:AI风险和重塑社会的问题】[[访谈记录](OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this )]
【访谈】【OpenAI联合创始人Ilya Sutskever等专访:开源人工智能是不明智的】[访谈记录]
【访谈】【OpenAI董事长、CTO Greg Brockman专访 :GPT-4 并不完美,不过人无完人】[访谈记录]
【访谈】【图灵奖获得者 Yoshua Bengio 认为 ChatGPT 是一个“警钟”】[访谈记录]
【访谈】【《麻省理工科技评论》对 ChatGPT 幕后团队,进行了一次深入的独家专访】[访谈记录]
【访谈】【口述历史,探析ChatGPT的创造历程,ChatGPT内部故事】[访谈记录]
【访谈】【对话ChatGPT之父!AI会改变什么?不会改变什么?】[访谈记录]
【访谈】【对话OpenAI研究科学家:他们是如何让GPT4更像人的?】[访谈记录]
【视频】【邱锡鹏教授介绍以ChatGPT为核心的大规模语言模型的相关知识及未来的发展方向 】[B站]
LLM体验效果&专业评估【LLM效果对比】【360智脑_VS_讯飞星火】[blog]
【LLM效果对比】【阿里通义千问_VS_讯飞星火】[blog]
【LLM效果对比】【Bard_VS_Baize-7B_VS_文心一言】[blog]
【LLM效果对比】【Bard_VS_Bing_VS_ChatGPT】[blog]
【LLM效果对比】【Bard_VS_文心一言】[blog]
【LLM效果对比】【ChatGPT_VS_GPT4】[blog]
【LLM效果对比】【OpenAssistant_VS_百度文心一言】[blog]
【LLM效果对比】【文心一言新闻发布会内容复现】[blog]
【LLM效果对比】【文心一言_VS_ChatGLM-6B】[blog]
【LLM效果对比】【文心一言 VS GPT-4:20道问答PK】[blog]
【LLM效果对比】【文心一言 vs GPT-4实测!】[blog]
【LLM效果对比】【讯飞星火_VS_文心一言】[blog]
【ChatGPT专业评估】【一文看遍各行业对ChatGPT的专业评估】[blog]
【ChatGPT专业评估】【ChatGPT关于推理、幻觉和交互的多任务、多语言、多通道评估 】[paper]
【ChatGPT专业评估】【如何评价 OpenAI 的超级对话模型 ChatGPT ?】[paper]
【ChatGPT专业评估】【用ChatGPT参加计算机科学考试】[paper]
【LLM知识评估】【C-Eval:构造中文大模型的知识评估基准】[主页],[paper],[code],[blog]
【MLLM幻觉评估】【多模态大模型的幻觉问题与评估】[blog],[paper],[code]
【各大大模型评测】【粗看大模型ChatGLM、MOSS、Bloomz在中文垂域评测中的性能表现:医学、法律、心理学、教育等四大类试题下的测试报告介绍】[paper],[code],[blog]
【国内大模型评测】【评测国内各种对标 ChatGPT 的大语言模型】[blog],[code]
【大模型排行榜】【OpenLLM大模型排行榜】[主页],[blog],[最新进展blog]
【大模型排行榜】【斯坦福发布LLM排行榜AlpacaEval,微软WizardLM登顶开源模型第一】[blog],[主页],[code]
LLM垂直领域大模型法律【再看基于LLaMA的最新微调模型变体:CaMA、ExpertLLaMA以及第四个中文法律微调模型LexiLaw】[blog]
【基于中文法律知识的大语言模型——LaWGPT】[blog]
医疗【AD-AutoGPT:用于阿尔茨海默病信息流行病学的自主GPT】[paper]
【MedQA-ChatGLM - 基于真实医疗对话数据在ChatGLM上进行微调】[code],[主页]
【谷歌医疗大模型登Nature,Med-PaLM重磅揭秘!AI医生成绩比肩人类】[blog],[paper]
【PULSE:中文医疗大语言模型】[code]
金融【FinGPT:一个「专用于金融领域」的开源大语言模型(LLM)框架,源码公开!】[blog],[paper],[code]
环境【清华&中国气象局大模型登Nature:预报时效首次达3小时】[blog],[paper]
网络安全【专用于网络攻击的模型FraudGPT】[blog]
交通【北交大开源交通大模型TransGPT·致远,可免费商用】[blog],[code]
其他【南洋理工开源海外中文大语言模型Panda LLM | 探索数据因素和训练策略如何影响大模型性能表现】[paper],[code],[blog]
LLM文本检测【论文&代码】【美国麻省大学&谷歌研究院:改写文本可以避开AI生成文本的检测器,但检索则是一种有效的防御】[paper],[code]
【论文】【人工智能生成的文本能被可靠地检测出来吗?】[paper],[blog]
【论文】【DetectGPT(斯坦福大学):利用概率曲率检测文本是否大模型生成】[paper],[blog],[code&data]
【论文】【Detecting LLM-Generated-Text综述】[paper],[blog]
【论文】【一个专为教育者打造的全新 AI 检测模型】[blog]
【论文】【OpenAI重磅发布官方「ChatGPT检测器」】[blog]
【论文】【斯坦福最新研究:不要过度依赖GPT生成内容,其检测器可能存在不利于非母语英语写作者的偏见】[paper]
LLM长文本解决方案【苏剑林】【Transformer升级之路:一种全局长度外推的新思路】[blog]
【博客】【ChatGPT能写长篇小说了,ETH提出RecurrentGPT实现交互式超长文本生成】[paper],[code],[blog],[demo1],[demo2]
【博客】【语言大模型100K上下文窗口的秘诀】[blog]
【博客】【RoPE可能是LLM时代的Resnet】[blog]
LLM可控性与安全【可控性】【微软提出Control-GPT:用GPT-4实现可控文本到图像生成!】[paper],[blog]
【可控性】【AIGC如何安全可控?中山大学等最新《AIGC中对隐私和安全的挑战及其补救措施:探索隐私计算、区块链潜在应用》全面阐述】[paper],[blog]
【可控性】【ControlVideo: 可控的Training-free的文本生成视频】[blog],[paper],[code]
【安全】【大模型切脑后变身PoisonGPT,虚假信息案例】[blog],[code]
【安全】【ChatGPT羊驼家族全沦陷!CMU博士击破LLM护栏,人类毁灭计划脱口而出】[blog],[paper],[code]
LLM训练、微调、优化以及部署【LLM学习网站】【训练、微调、优化和部署大模型最新技术LLM Learning Lab】[官网]
LLM训练【LLM训练】【DeepSpeed的Tutorials】[主页],[DeepSpeed Getting Starte]
【LLM训练】【如何使用 Megatron-LM 训练语言模型】[blog]
【LLM训练】【Muti Query Attention 和 Attention with Linear Bias(附源码)】[blog],[paper]
LLM微调【LLM微调】【PEFT: 在低资源硬件上对十亿规模模型进行参数高效微调 】[blog]
【LLM微调】【大语言模型(LLM)微调技术笔记】[code]
【LLM微调】【大模型LLM-微调经验分享&总结】[code],[blog]
【LLM微调】【LoRA:卷完图像生成领域,卷文本生成领域的东西,到时是个啥?】[blog],[code]
【LLM微调】【Washington大学2023年5月新提出一种高效的微调方法QLoRA,通过降低显存使用,实现在单个48GB GPU上对65B参数的大模型进行微调,只需微调12个小时就可以达到97%的ChatGPT水平。同时只用int4就可以保持fp16精度的效果。】[paper]
【LLM微调】【华盛顿大学提出全新量化和微调方法,在DB-GPT上享受33B参数的LLM】[blog]
【LLM微调】【陈丹琦团队提出低内存高效零阶优化器MeZO,单卡A100可训练300亿参数模型】[paper],[code],[blog]
LLM优化【LLM优化】【LLM,压缩即泛化,泛化即智能】[blog]
【LLM优化】【LLM-Pruner: 剪枝+少量数据+少量训练 = 高效的LLM压缩】[blog]
【LLM优化】【邱锡鹏团队提出新优化器LOMO|650亿参数,8块GPU全参数微调】[blog],[paper]
【LLM优化】【伯克利开源LLM推理与服务库:GPU减半、吞吐数十倍猛增】[中文blog],[英文blog]
【LLM优化】【LLM Accelerator:使用参考文本无损加速大语言模型推理】[blog],[paper],[code]
【LLM优化】【大模型推理性能优化之KV Cache解读】[blog]
【LLM优化】【CAME:大模型训练成本降低近一半】[blog]
LLM部署【LLM部署】【工程实践!以LLAMA为例的大模型部署方案】[blog]
【LLM部署】【大模型部署框架FastLLM解析,支持X86/Arm/CUDA 3种架构的硬件!】[blog],[code]
LLM博客、论文以及代码【综述】【中文大语言模型汇总:医疗、法律、金融、教育、数学微调, 目前已1.1K星】[code]
【综述】【大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内20余位研究者联合撰写】[paper]
【综述】【大语言模型综述全新出炉:51页论文带你盘点LLM领域专业化技术】[paper],[blog]
【综述】【AIGC综述: 从GAN到ChatGPT的生成式人工智能简史】[paper]
【综述】【大模型综述来了!一文带你理清全球AI巨头的大模型进化史】[paper],[code]
【复旦大学】【复旦大学教授肖仰华:ChatGPT 浪潮下,面向大模型如何做数据治理?】[blog]
【谷歌】【面向决策的基础模型: 问题、方法与机会】[paper]
【谷歌】【较大语言模型上下文学习的方式有所不同】[paper]
【谷歌】【通用语音识别大模型已经支持100+语言】[blog]
【谷歌】【发布5620亿参数多模态模型PaLM-E,机器人操控再上台阶】[paper],[blog],[twitter],[video]
【Huawei】【PanGu-Σ: 稀疏异构计算万亿参数语言模型研究参数语言模型】[paper]
【剑桥大学】【奖励聊天机器人在现实世界中与数以百万计的用户进行互动】[paper]
【LeCun】【人工智能系统最终是否需要以现实为基础,而不仅仅是从语言中学习?】[blog]
【LeCun】【大型语言模型是否需要感官基础来理解意义和理解?】[slices]
【LeCun】【ChatGPT是「外星人」,所以才会胡说八道】[paper],[blog]
【LeCun】【AI聊天机器人并不关注用户的社交属性】[blog]
【LeCun】【LeCun和马库斯齐喷ChatGPT:大语言模型果然是邪路?】[blog]
【LeCun】【ChatGPT无法实现通用人工智能,但ALM技术路线也许可以】[blog]
【LeCun】【「增强语言模型」的综述 】[paper]
【LeCun】【自回归LLM的缺陷之一,大语言模型必须知道的8个要点】[paper]
【MIT】【从词模型到世界模型:从自然语言到思维概率语言的转变】[paper]
【李开复】【AI进入2.0时代,所有应用都会被重写一遍 】[blog]
【纽约大学】【提出ILF(从语言反馈中模仿学习):利用语言反馈大规模训练语言模型】[paper]
【OpenAI】【GPT就是GPT:大模型对劳动力市场影响潜力的早期研究】[paper]
【OpenAI】【ABC News 专访OpenAI首席执行官萨姆·奥尔特曼:AI风险和重塑社会的问题】[blog]
【OpenAI】【最新发布通用人工智能路线图!AGI比想象中来得更快!】[blog]
【OpenAI】【Sam Altman 担心“潜在的可怕的”人工智能工具以及“未来的人们如何看待我们” 】[blog]
【OpenAI】【The Age of AI:拾象大模型及OpenAI投资思考】[blog]
【OpenAI】【为什么ChatGPT用强化学习而非监督学习?】[blog]
【OpenNLPLab】【为什么ChatGPT用强化学习而非监督学习?】[blog],[paper],[codel]
【PWC】【ChatGPT和生成式AI的11大安全趋势】[blog]
【人大】【人大最新大语言模型综述,51页全面回顾大语言模型】[paper]
【清华大学】【张学工教授:AI技术前沿——从ChatGPT到