1.腾讯T2I-adapter源码分析(1)-运行源码跑训练
2.用AI生成了这些明星一生的人物人物样貌变化 | 附源码,很好玩
3.什么是源码数字人克隆系统源码本地部署?
4.电脑版源码编辑器中怎样使人物后退
腾讯T2I-adapter源码分析(1)-运行源码跑训练
稳定扩散、midjourney等AI绘图技术,代码为人们带来了令人惊叹的什意思效果,不禁让人感叹技术发展的人物人物日新月异。然而,源码oppo商城源码AI绘图的代码可控性一直不是很好,通过prompt描述词来操控图像很难做到随心所欲。什意思为了使AI绘制的人物人物图像更具可控性,Controlnet、源码T2I-adapter等技术应运而生。代码本系列文章将从T2I-adapter的什意思源码出发,分析其实现方法。人物人物
本篇是源码第一篇,主要介绍源码的代码运行方法,后续两篇将以深度图为例,分别分析推理部分和训练部分的代码。分析T2I-Adapter,也是为了继续研究我一直在研究的课题:“AI生成同一人物不同动作”,例如:罗培羽:stable-diffusion生成同一人物不同动作的尝试(多姿势图),Controlnet、横s无敌 源码T2I-adapter给了我一些灵感,后续将进行尝试。
T2I-Adapter论文地址如下,它与controlnet类似,都是在原模型增加一个旁路,然后对推理结果求和。
T2I-Adapter和controlnet有两个主要的不同点,从图中可见,其一是在unet的编码阶段增加参数,而controlnet主要是解码阶段;其二是controlnet复制unit的上半部结构,而T2I-Adapter使用不同的模型结构。由于采用较小的模型,因此T2I-Adapter的模型较小,默认下占用M左右,而controlnet模型一般要5G空间。
首先确保机器上装有3.6版本以上python,然后把代码clone下来。随后安装依赖项,打开requirements.txt,可以看到依赖项的美食店网站源码内容。然后下载示例,下载的会放到examples目录下。接着下载sd模型到model目录下,再下载T2I-Adapter的模型到目录下,模型可以按需到huggingface.co/TencentA...下载。这里我下载了depth和openpose。sd模型除了上述的v1-5,也还下载了sd-v1-4.ckpt。
根据文档,尝试运行一个由深度图生成的例子,下图的左侧是深度图,提示语是"desk, best quality, extremely detailed",右侧是生成出来的。运行过程比较艰辛,一开始在一台8G显存的服务器上跑,显存不够;重新搭环境在一台G显存的服务器上跑,还是不够;最后用一台G显存的服务器,终于运行起来了。
接下来尝试跑openpose的例子,下图左侧是青果教务php源码骨架图,提示词为"Iron man, high-quality, high-res",右侧是生成的图像。
既然能跑推理,那么尝试跑训练。为了后续修改代码运行,目标是准备一点点数据把训练代码跑起来,至于训练的效果不是当前关注的。程序中也有训练的脚步,我们以训练深度图条件为例,来运行train_depth.py。
显然,习惯了,会有一些问题没法直接运行,需要先做两步工作。准备训练数据,分析代码,定位到ldm/data/dataset_depth.py,反推它的数据集结构,然后准备对应数据。先创建文件datasets/laion_depth_meta_v1.txt,matlab源码在哪下载用于存放数据文件的地址,由于只是测试,我就只添加两行。然后准备,图中的.png和.png是结果图,.depth.png和.depth.png是深度图,.txt和.txt是对应的文本描述。
文本描述如下,都只是为了把代码跑起来而做的简单设置。设置环境变量,由于T2I-Adapter使用多卡训练,显然我也没这个环境,因此要让它在单机上跑。而代码中也会获取一些环境变量,因此做简单的设置。
做好准备工作,可以运行程序了,出于硬件条件限制,只能把batch size设置为1。在A显卡跑了约8小时,完成,按默认的配置,模型保存experiments/train_depth/models/model_ad_.pth。那么,使用训练出来的模型试试效果,能生成如下(此处只是为了跑起来代码,用训练集来测试),验证了可以跑起来。
运行起来,但这还不够,我们还得看看代码是怎么写法,下一篇见。
PS:《直观理解AI博弈原理》是笔者写的一篇长文,从五子棋、象棋、围棋的AI演进讲起,从深度遍历、MAX-MIN剪枝再到蒙特卡罗树搜索,一步步介绍AI博弈的原理,而后引出强化学习方法,通俗易懂地介绍AlphaGo围棋、星际争霸强化学习AI、王者荣耀AI的一些强化学习要点,值得推荐。
AUTOMATIC的webui是近期很流行的stable-diffusion应用,它集合stable-diffusion各项常用功能,还通过扩展的形式支持controlnet、lora等技术,我们也分析了它的源码实现,写了一系列文章。
用AI生成了这些明星一生的样貌变化 | 附源码,很好玩
这是来自斯坦福和华盛顿大学研究员的创新研究,他们提出了一种基于GAN(生成对抗网络)的新方法,仅需一张照片就能生成一个人从幼年到老年的样貌变化。
通过此论文(arxiv.org/abs/....),你可以了解这项技术的详细信息。同时,项目的源代码已开源,感兴趣的开发者和研究者可以访问github.com/royorel/Life...获取更多资源。
使用此技术非常直观,以下是详细的步骤和说明:
首先,确保模型文件已经准备就绪。考虑到模型体积大且通过谷歌网盘下载可能遇到的问题,我已将文件打包并提供了以下链接供下载:
链接: pan.baidu.com/s/1Jwg-q9... 提取码: aicv
然后,直接运行我提供的demo.py代码即可开始体验。
在使用过程中,以下几点需要注意:
1. img_path = "t.jpg":请添加你希望生成样貌变化的人脸照片。确保照片为正脸照,这样生成的效果会更好。
2. opt.name = 'males_model':根据输入中人物的性别进行调整。男性使用males_model,女性则使用females_model。
3. 生成的结果将是一个MP4视频文件,保存路径在result文件夹内,并以照片的名称命名。
通过实际应用,我深感CV方向有许多有趣且实用的应用,例如模拟人物样貌变化。如果你对此技术感兴趣并想要亲自尝试,建议下载项目源代码并按照说明进行操作。如果你觉得结果令人满意,不妨为我点个赞以示鼓励。
什么是数字人克隆系统源码本地部署?
数字人克隆系统源码本地部署指的是在用户自己的服务器或数据中心内安装和配置怪兽AI数字人源码,使得用户能在本地创建和管理虚拟人物的形象和行为。这种方式优点是数据和内容的私密性更高。电脑版源码编辑器中怎样使人物后退
在电脑版的源码编辑器中,如何使人物后退?
默认的后退操作是按下Ctrl+Alt+左箭头键。若要在电脑版的源码编辑器中实现人物的后退动作,你可以通过以下步骤进行操作:
1. 首先,确保你已经打开了想要编辑的源码文件。
2. 接着,按下Ctrl+Alt+左箭头键组合键,人物就会向后移动。
如果你想要修改这个默认的后退操作,可以按照以下步骤进行自定义设置:
1. 打开编辑器的“设置”菜单。
2. 在设置菜单中,找到并选择“快捷键”选项。
3. 在快捷键设置中,选择“主菜单此穗”(这里的“此穗”可能是原文中的一个错误,应该是“此视图”或者其他类似的词汇,具体取决于编辑器的界面)。
4. 在主菜单视图下,找到“导航”部分。
5. 在导航部分,你会看到“前进/后退”的选项。
6. 右键点击“后退”选项,然后选择“修改”以自定义新的快捷键。
通过以上步骤,你可以为后退操作设置一个不同的快捷键,以便更符合你的使用习惯。