代码实现stable-diffusion模型,你亦用AI生成得到一等奖的艺术图
<div style="color: black; text-align: left; margin-bottom: 10px;">头条号:人工智能<span style="color: black;">科研</span>所
<span style="color: black;">微X</span>号:启示AI科技
视频号:启示科技
</div>
<div style="color: black; text-align: left; margin-bottom: 10px;"><img src="https://pic4.zhimg.com/80/v2-716e9b51a954f6429da0ddab62e8056f_720w.webp" style="width: 50%; margin-bottom: 20px;"></div>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">Midjourney<span style="color: black;">工具</span>获奖<span style="color: black;">照片</span></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">好吗,人工智能虽然<span style="color: black;">已然</span><span style="color: black;">触及</span>到人类的方方面面,但<span style="color: black;">无</span>想到,AI 还能抢艺术家的饭碗,这不,一位小哥<span style="color: black;">运用</span>AI<span style="color: black;">工具</span>生成的艺术照片竟然获奖了,<span style="color: black;">况且</span>还是一等奖,且<span style="color: black;">近期</span><span style="color: black;">刚才</span>火起来的stable diffusion <span style="color: black;">更加是</span>让艺术家与AI<span style="color: black;">出现</span>了争执,到底AI<span style="color: black;">是不是</span>抢了艺术家的饭碗,还是AI生成的<span style="color: black;">照片</span>有<span style="color: black;">无</span>艺术,<span style="color: black;">咱们</span>不做讨论,本期<span style="color: black;">咱们</span>就带领<span style="color: black;">大众</span>试玩一下stable diffusion模型。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">——1——</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">什么是stable diffusion模型</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">stable diffusion模型是Stability AI开源的一个text-to-image的扩散模型,其模型在速度与质量上面有了质的突破,玩家们<span style="color: black;">能够</span>在自己消费级GPU上面来运行此模型,本模型基于CompVis 和 Runway 团队的Latent Diffusion Models,</p><a style="color: black;"><span style="color: black;">https://</span><span style="color: black;">github.com/CompVis/stab</span></a><span style="color: black;">le-diffusion</span><a style="color: black;"><span style="color: black;">https://</span><span style="color: black;">github.com/CompVis/late</span><span style="color: black;">nt-diffusion</span></a>
<div style="color: black; text-align: left; margin-bottom: 10px;"><img src="https://pic3.zhimg.com/80/v2-5b23ab2377beacd16cd1c10affa0a586_720w.webp" style="width: 50%; margin-bottom: 20px;"></div>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">stable diffusion模型核心数据集在 LAION-Aesthetics 上进行了训练,该模型在Stability AI 4,000 个 A100 Ezra-1 AI 超集群上进行了训练,能够在消费级10 GB VRAM GPU 上运行,可在几秒钟内生成 512x512 像素的图像。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">潜在扩散模型<span style="color: black;">能够</span><span style="color: black;">经过</span>在较低维潜在空间上应用扩散过程来降低内存和计算<span style="color: black;">繁杂</span>性,而不是<span style="color: black;">运用</span><span style="color: black;">实质</span>的像素空间。这是标准扩散和潜在扩散模型之间的<span style="color: black;">重点</span>区别:在潜在扩散中,模型被训练以生成图像的潜在(压缩)<span style="color: black;">暗示</span>。</p>
<div style="color: black; text-align: left; margin-bottom: 10px;"><img src="https://pic3.zhimg.com/80/v2-72bad2beef458656c688a5e5682b178a_720w.webp" style="width: 50%; margin-bottom: 20px;"></div>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">潜在扩散模型<span style="color: black;">重点</span>有</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">An autoencoder (VAE).</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">A U-Net.</p>A text-encoder,
系统提示我验证码错误1500次 \~゛, 你的话语真是温暖如春,让我心生感激。 “NB”(牛×的缩写,表示叹为观止) 你的见解独到,让我受益匪浅,非常感谢。
页:
[1]