日报&周刊合集 | 生产力工具与行业应用大全 | 李 点赞关注评论拜托啦!

 LLM 崛起之路:全球大语言模型「规模增长」可视化交互图

informationisbeautiful.net/visualizati…

这是一张可以交互的数据化图,数据截至2023年12月6日。访问 上方网站,将鼠标悬停在某点时,可以出现对应的大模型信息,包括名称、简介、公司、参数量和日期等;点击可以查看更具体的论文等。

David McCandless、Tom Evans、Paul Barton 三位作者,多方收集数据绘制了这张大语言模型 (LLM) 的参数规模增长图,其中横轴表示时间,纵轴表示参数量,最上方的 「BOTS」表示某时间推出的聊天机器人。

可以看出,不同颜色代表各主要主题,例如 Amazon 亚马逊、Google 谷歌、Meta / Facebook、Microsoft 微软、OpenAI,尤其需要注意的是,橘红色代表中国。

这是 OpenAI 发布大模型的趋势图。可以看到在过去三年里稳步推进,「人狠话不多」,每次发布新模型都是王炸般的存在

这是 Google 发布大模型的趋势图.这个 Transformers 的诞生地,其实一直在跟进甚至推动大模型的研究。只是 2023 年末的 OpenAI 实在太猛了,把 Google 打得措手不及。

以及,这张图上没有出现 Google 最新发布的 Gemini 大模型,按照之前的公告,可以媲美 GPT-4 的大模型 Gemini Ultra 会在1月发布 (可是这都月底了 樂

这是 Meta 发布大模型的趋势图。LLaMa 开源可谓造福了整个生态~

这是 中国 发布大模型的趋势图。图中只收录了一部分,包括 Wu Dao 悟道 (智源)、PanGu 盘古 (华为)、WeLM (微信-腾讯)、Ernie 文心一言 (百度)、GLM (智源)、 SenseChat 商量 (商汤)、Tongyi 通义 (阿里)

 穿越时空的爱恋:当古老神秘的「山海经」遇上朝气蓬勃的AI

补充一份背景:《山海经》是中国先秦重要古籍,也是一部荒诞不经的奇书,全书18篇约31000字,记录了地理、历史、神话、宗教等多方面的内容,还包含了许多奇特的生物和自然现象

如果用最新的AI工具,把《山海经》里那些古老的文字变成生动且富有想象力的视频,应该是一次非常有意义的探索!!

作者就自己搭建AI工作流,完成了这样一次「冒险」輪‍♂️ 不过作者最后也说到,制作这个视频花费了整整一天的时间,但完成度仅占全书的 3/500,可见即便有AI的助力,视频生成仍然是一项工作量巨大的工程。

使用 ChatGPT 生成视频脚本

提供原文 (最好同时提供译文) ,让 ChatGPT 扮演视频创作者的身份给出脚本输出绘制图像所需要的提示词

使用 Midjourney 生成画面图片

根据作者经验,主要的风格提示词是 Fantasy reality, Chinese mythology style (幻想现实,中国神话风格)视频封面图的提示词:A strange creature from the Shanhaijing, a large white bird with a dragon’s head. Fantasy reality, Chinese mythology style. --ar 16:9 --v 6.0

使用 PixVerse 把图片生成视频

PixVerse 可以将上传的图片转换为视频,并支持画质提升和再创作等操作目前免费且无水印,可薅 app.pixverse.ai

使用 StableAudio 生成背景音乐

可以根据官方的提示词指南,选择自己喜欢的风格来生成需要的音乐AI生成的音乐可以有效避免版权问题

使用剪映生成配音并视频剪辑

使用剪映进行视频编辑,包括配音、字幕生成和音效添加剪映可以说现在最适合小白的视频编辑工具,功能算是比较强大使用简单 ⋙ 点击阅读全文

 LLM 新手概念速查清单:你需要了解的大模型术语,这里全都有

www.appypie.com/a-guide-to-…

这是一份写给新手的 LLM 术语速查清单,分为以下几个方面,介绍了大模型最常见的术语含义,而且兼顾了专业和通俗!看看  下面整理的术语清单,如果你觉得有些内容需要「补补课」,可以访问原文并搭配AI工具快速通关一下 類

LLM 的定义

Large Language Models (LLM) / 大语言模型Natural Language Processing (NLP) / 自然语言处理Machine Learning (ML) / 机器学习

LLM 的类型

Autoencoder-Based Model / 自编码器模型(如BERT)Sequence-to-Sequence Model / 序列到序列模型Transformer-Based Frameworks / Transformer框架Recursive Neural Networks / 递归神经网络Hierarchical Structures / 分层结构

LLM 的关键组件

Architecture / 架构Pre-training / 预训练Fine-tuning / 微调

LLM 的训练过程

Data Collection and Pre-processing / 数据收集与预处理Model Selection and Configuration / 模型选择与配置Model Training / 模型训Evaluation and Fine-Tuning / 评估与微调

LLM 的工作原理

Tokenization / 分词Embedding / 嵌入Attention / 注意力机制Pre-training / 预训练Transfer Learning / 迁移学习

LLM 的应用案例

Chatbots and Virtual Assistants / 聊天机器人和虚拟助手Sentiment Analysis / 情感分析Text Summarization / 文本摘要Machine Translation / 机器翻译Content Generation / 内容生成Code Completion / 代码补全Language Translation / 语言翻译Data Analysis / 数据分析Education / 教育Medical Applications / 医疗应用Market Research / 市场研究Entertainment / 娱乐

未来趋势和挑战

Contextual Understanding / 提高上下文理解能力Ethical and Bias Mitigation / 伦理和偏见缓解Continual Learning and Adaptation / 持续学习和适应

高清图我会放到社群和星球,记得收藏和保存呀 

原文这张图图非常不错!细致地描述了大语言模型训练的基本过程:

数据收集 (Data Collection):从书籍、文章、网站等来源收集大量文本数据数据预处理 (Preprocessing):清理和组织数据,去除错误、重复和不相关内容,并将文本分解成较小的单元 (如单词、子词) 以便模型理解架构 (Architecture):选择神经网络架构,通常采用变换器 (transformer) 模型训练 (Training):使用预处理的数据,通过最小化预测值与实际值之间的差异来训练模型损失函数 (Loss Function):使用损失函数来量化模型预测的准确性优化 (Optimization):应用优化算法 (例如Adam) 来微调模型权重小批量训练 (Mini-Batching):将训练数据分成较小的批次以提高处理效率正则化 (Regularization):实施技术如dropout和权重衰减来防止过拟合,平衡模型复杂度和泛化能力验证 (Validation):使用验证数据集在训练过程中监控模型性能微调 (Fine-Tuning):对模型进行进一步的调整以适应特定任务伦理考量 (Ethical Considerations):解决训练数据中存在的偏见,以防止模型输出偏见

 DALL·E 提示词红宝书:在线 Prompt 完全指南,收藏随时备查

pitch.com/v/tmd33y/6f…

补充一份背景:Dall·E是 OpenAI 开发的一款文生成图模型,可以根据简单的文字描述生成逼真清晰的图像

2023年9月,OpenAI 发布了当前最新版本 Dall·E 3 并集成到了 ChatGPT;与之前的版本相比,Dall·E 3 理解提示词的能力更强,可以生成更高质量的图像,分辨率最大可达2048x2048、允许用户编辑并调整生成的图像等

这份 Dall·E 提示词手册发布时,还是 Dall·E 2 的版本 (现在已经更新到 Dall·E 3 了),不过放到现在依旧非常实用!而且是在线版本,一共82页,有需要时随时访问查阅就好啦!

一方面,Dall·E 版本更新对提示词的要求并没有太大变化;另一方面,平时简单使用的话,这份提示词手册包含的内容已经足够了!!

真的很难相信这是2022年7月的作品 (⓿_⓿) 放到那时应该有点超前吧!放到现在则刚刚好了~

这是手册的目录页,可以看到整份手册包含以下8各主要部分:

Vibes, Moods and Feelings / 情感、氛围和感觉Photography / 摄影Illustration / 插图Art History / 艺术史3D Artwork / 3D艺术作品DALL·E Techniques / DALL·E 技巧Showcase / 案例展示Appendix / 附录

[1] Vibes / 气氛

Moods and Feelings / 情绪和感情Size, structure, shape / 大小, 结构, 形状Looks + aesthetics / 外观+美学

[2] Photography / 摄影

Photo prompt structure / 摄影提示结构Framing, proximity / 构图, 接近度Camera position, angle / 相机位置, 角度Focus, speed, settings / 对焦, 速度, 设置Lighting (outdoor) / 户外照明Lighting (indoor) / 室内照明Film stocks, types & processes / 电影胶片, 类型和过程Film & TV show prompts / 电影和电视剧提示Photographer prompt tests / 摄影师提示测试Contexts & use cases / 上下文和用例Final photography tips / 最终摄影技巧

[3] Illustration / 插图

Monochrome styles / 单色风格Analog media, colour / 模拟媒体, 颜色Digital media, colour / 数字媒体, 颜色Instructional illustration / 教学插图3D + textured illustrations / 3D+纹理插图Character + cartoon / 角色+卡通Animation-related prompts / 动画相关提示Illustrator-based prompts / 基于插画师的提示

[4] Art History / 艺术史

Ancient Medieval / 古代 中世纪Renaissance Modern / 文艺复兴 现代Modern & contemporary / 现代 & 当代Artist prompt tests / 艺术家提示测试

[5] 3D Artwork / 3D艺术作品

Sculpture materials / 雕塑材料Items for bodies / 身体部位的物品Places and spaces / 地点和空间Paper & textiles / 纸张和纺织品Ceramics & glass / 陶瓷和玻璃Photographing the work / 拍摄作品

[6] DALL·E Techniques / DALL·E 技巧

In-app edits / 应用内编辑

Fixing details / 修复细节Replacing subjects / 替换主体Replacing backgrounds / 替换背景

With an outside app / 使用外部应用

Simple uncropping / 简单裁剪Creative uncropping / 创意裁剪Infinite zoom-outs / 无限放大Context jumping / 上下文跳跃Landscape + portrait images / 风景+肖像图像Panoramas / 全景图Murals / 壁画Combining images / one-shot / 单次结合图像Combining images / wide / 宽幅结合图像Variations / 变化

案例展示

同一主题作品的不同风格绘画和提示词展示

 傅盛「猎户星空」发布 Orion-14B 系列 LLM 模型,定位企业私有化大模型

huggingface.co/OrionStarAI…github.com/OrionStarAI…

猎户星空发布了 Orion-14B 系列 LLM 模型,一共包含了 7 个不同的模型,分别是Orion-14B-Base 基座模型、Orion-14B-Chat 对话模型、Orion-14B-LongChat 长上下文模型、 Orion-14B-Chat-RAG RAG 模型、Orion-14B-Chat-Plugin 插件模型、Orion-14B-Base-Int4 & Orion-14B-Chat-Int4两个量化模型。

根据  官方页面介绍,模型性能不错,综合评测效果表现优异, 多语言能力强 (尤其是日语和韩语), 微调模型适应性强,长上下文版本支持超长文本 (最长 320k)……

kh18s6uvdi.feishu.cn/wiki/Sxpzwj…

傅盛在近期的一次演讲中,非常完整地介绍了他这一年艰难决策的心路历程,并最终成功定位到了「超高性价比的企业应用大模型」——不是千亿模型做不起,而是百亿更有性价比。

在傅盛看来,百亿参数的模型 + 客户自己的私有数据 + 应用的打磨,在专业领域可以约等于千亿参数大模型。

千亿参数大模型全面性更好,它的涉及面很宽。但在企业场景当中只要在一个专业点上做好就可以,而百亿参数的模型,比千亿参数可以省90%以上的私有化部署成本。

作为从移动时代一路拼杀过来的「老兵」,傅盛演讲中的很多穿越时间的洞察都非常有意思!而且在 OpenAI 强烈冲击下的思考模式和决策逻辑,也是很真诚且内部的分享了!很难得~

如果你是企业老板或领导,不妨点击上方  链接下载PPT并结合演讲原文,看看傅盛为老板们设计的这个智能化转型套件 ⋙ 可以点击这里阅读傅盛演讲原文

 fast.ai 发布硬核更新,又又又有 Jeremy Howard 的新课可以学啦!

course.fast.ai/Lessons/par…

Jeremy Howard 是 fast.ai 的创始人,曾任 Kaggle 首席科学家、Etsy数据科学家等职位

fast.ai 是全球知名的AI学习网站,课程少而精,在保证内容简洁易懂的前提下,设置了非常多强实践性的环节,基本上学完一节课就可以开始动手实践了!!

fast.ai 最近发布了新课程「From Deep Learning Foundations to Stable Diffusion」,用30小时的视频内容带你从零开始实现 Stable Diffusion 算法。

为了保证课程能覆盖到最新的技术,课程是 Jeremy Howard 与 Stability.ai、Hugging Face 专家密切合作完成的,而且还设计了专门的论文阅读环节,帮助 follow 最近进展。

From Deep Learning Foundations to Stable Diffusion 这门新课程延续了 fast.ai 以往的风格,依旧是实践性很强!课程开始学习前并不需要你掌握多深奥的理论知识,不过的确需要一些编程基础~

当然不懂编程也是可以借助 ChatGPT 这类工具来实现入门与进阶的!但是想精通AI,编程能力仍然是必须精进的能力之一呀~

虽然是模型训练内容,但是课程设计非常友好,只需一块 GPU,所以选择 Google Colab 或类似平台上就可以完美解决这个问题!计算资源不会是学习这门课程的门槛~ ⋙ 这里有一份 Jeremy Howard 最新采访

作者在课程介绍页面对课程要点进行了非常详细的介绍,我们简单整理了一下主要内容,可以访问课程页面查看更详细的信息!!

扩散基础 (Diffusion Foundations) :深入探讨去噪扩散概率模型 (DDPM) 和去噪扩散隐式模型 (DDIM) ,包括正向和反向过程、噪声预测模型的实现,以及不同时间步的噪声图像可视化Hugging Face的Diffusers库 (Hugging Face’s Diffusers library) :学习如何使用预训练的管道,包括图像到图像的转换、指导尺度、负向提示、回调函数,以及如何与 Hugging Face 的数据集一起工作深度学习优化器 (Deep learning optimizers) :研究随机梯度下降 (SGD) 的加速方法,如动量、RMSProp、Adam,以及学习率退火策略,还包括PyTorch学习率调度器的使用,如余弦退火和OneCycleLR,以及批量大小和学习率的实验Python概念 (Python concepts) :掌握 Python 编程的基本概念,如迭代器和生成器的使用,Python 数据模型,Python调试器 (pdb) ,以及如何使用 nbdev 从 Jupyter 笔记本创建 Python 模块,还包括异常处理、装饰器、getattr、kwargs 和 delegates 等高级特性基础数学 (Basic foundations) :学习张量、微积分和伪随机数生成的基础知识,包括线性分类器、矩阵乘法、Frobenius范数、广播、Einstein 求和记号、GPU 加速、Numba 等神经网络架构 (Neural network architectures) :实现多层感知器 (MLP) 、ResNets、Unets 等,并探索生成架构,如自编码器和变换器,还包括 CLIP 文本编码器和图像编码器,以及超分辨率 U-Net 模型的创建深度学习技术 (Deep learning techniques) :研究数据增强技术,如随机擦除、TrivialAugment、测试时增强,还包括Dropout在提高模型性能中的应用,以及P yTorch 中的模块创建、优化器、数据加载器和数据集的实现PyTorch (PyTorch) :学习 PyTorch 的核心组件,如 nn.Module 和 nn.Sequential,以及如何创建自定义 PyTorch 模块,还包括 PyTorch 钩子的使用学习者框架 (Learner framework) :构建一个灵活的训练框架,包括回调和异常处理,如CancelFitException、CancelEpochException、CancelBatchException,还包括度量和 MetricsCB 回调、DeviceCB 回调、代码重构、set_seed 函数、回调类和 TrainLearner 子类等机器学习技术和工具 (Machine Learning Techniques and Tools) :学习均值漂移聚类、卷积神经网络 (CNNs) 的构建,以及权重和偏差 (W&B) 用于实验跟踪,还包括混合精度训练、初始化和归一化技术,如 Layer Normalization 和 Batch Normalization

感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!

◉ 点击 日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ 点击 生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!

相关阅读

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: