分类 艺术 下的文章

        ChatGPT-4o的以图生图功能可以将照片转换为吉卜力风格,只需要以下两步:

  • 下载Edge浏览器的deepsider插件,安装,注册
  • 选择GPT-4o-image模型,上传照片,输入以下关键字:

    请将我提供的照片转换为一张现代高清的吉卜力动画风格插画,保留照片的基本构图与主体元素。
    具体要求如下:
    使用细腻、干净、明亮的手绘风格进行重绘。
    构图不变:人物和背景的布局与原图保持一致。
    人物主体保留:保留人物表情和动作,表现出自然、富有情感的状态。
    色彩处理:色彩鲜明自然,避免泛黄或昏暗,整体氛围应温柔、通透、有情感张力。
    线条风格:线条清晰流畅,细节丰富,具有手绘质感。
    尺寸比例:输出图像尺寸与原图一致。
  • 生成即可,每天每个账号可以免费生成10张照片。

        偶有不稳定,不过看在免费的份上,抽疯的话第二天再用啦。可以修改关键字达到你想要的效果,比如“女士的脸和身体更瘦一些”“背景更换为龙猫里的森林”之类。多人照片一定要主体突出,人不能太多,人太多或主体不突出最好裁切下。

2h4iZBrx4a0PrLa6SbHvzWEW7Rv1IM.png
c9gB7v8Sz6FmykwgsDMK38fFkm2qyI.png
fSCwrUSiGHW9zqodMf8pnOzM96NzXq.png
HbpRVclS8w82NEsprwunxBah0qPCcJ.png
uTcqUR1G993r10nC4FDhERuy7g9d5E.png
Vx0ib4qVPSYrGnHk5DlgycE85H05ZZ.png
wNu7Or0UGXJn2enW9LhWq7tNfG2KTE.png
zDsKWacOOLZSwXGthjJPheHSIjUQoz.png
微信图片_20250403101407.png
微信图片_20250403103652.png
微信图片_20250403104843.png
微信图片_20250403105305.png
微信图片_20250406193506.png
微信图片_20250406194049.png
微信图片_20250406195507.png

        总的来说,P1SC还是很稳的,但只要是3D打印,必然会有翻车的时候,无非早晚。想不翻车,就要:

  • 不能完全相信自动绘制裙边的功能。截面积太小,或高度太高的,即使切片软件没有自动绘制裙边,也要自己绘制一下。
  • 多色打印不能关闭擦料塔,否则就等着窜色吧。
  • makerworld上不靠谱的模型也不少,先打开3D图判断一下。
  • 想最小化层纹影响,把模型横过来打。
  • Z方向强度最低,如果3D打印件对强度有要求,调整模型着床方向,让XY朝向受力最大方向。
  • PETG收缩率可达0.5%,对尺寸有较高要求的一定要考虑这个因素。
  • 耗材丝只剩下几圈时就不适合用作多色打印,频繁回卷过程中大概率会卡住料盘。一口气打完那种不影响。
  • 打印头几层时要注意观察,粘不住时及时停止打印。
  • 戴手套取模型,可以减少手上油脂粘在打印板上导致下一次打印时粘不住的概率,在打印用时较长的模型时,提前清洗一遍打印板。
  • 完美支撑:树状支撑,顶部Z距离稍小于层高,顶部4层底部3层,线距0,支撑面图案直线。
  • 慎用闪电填充,除非万不得已。

        此帖子将不定时更新。

        第一个阶段:从makerworld上下载别人的模型,切片后打印:
微信图片_20250128150352.jpg
微信图片_20250128150402.jpg
微信图片_20250128150408.jpg
微信图片_20250128150414.jpg
微信图片_20250128150421.jpg
微信图片_20250128150442.jpg
微信图片_20250128150448.jpg
微信图片_20250128150453.jpg
微信图片_20250128150459.jpg
        第二个阶段:在网络上搜索下载别人的模型,学习优化切片后打印,主要是由天文望远镜配件方面的需求引起,比如一直想做的目镜转塔,发现真是什么都有啊,打开一个大大的世界:
微信图片_20250128150428.jpg
微信图片_20250128150434.jpg
微信图片_20250128150901.jpg
微信图片_20250128150907.jpg
        第三个阶段:发现自己想要的也不能在网上找到现成的模型,或要针对自己的天文望远镜专门设计一些需要的配件,于是学习Fusion360,自己设计自己打印:
微信图片_20250128150842.jpg
微信图片_20250128150853.jpg

        作为听着广播电台里的轻音乐开始古典音乐启蒙的人,我一直对轻音乐情有独钟。说到轻音乐队,众说周知的是三大轻音乐队,但上世纪六十年代的Pery Faith的乐队演奏了无数影视乐曲,却成为普通人耳熟能详却不为人所知的所在。《Percy Faith's Greatest Hits》这张专辑收录的乐曲即使不是耳熟能详,也让人一见如故:

        买到这张黑胶唱片可不容易!
微信图片_20240311084943.jpg

        用Stable Diffusion将歌词逐句变成图像,再用AE生成视频,好像是近期比较流行的一种玩法......试验了,有的歌词生成的图像很有创意,但很多句歌词生成的图像平平,还是需要加上一些解释性词语,比如I see green这句,加上summer forest那意境就出来了。
        用邓丽欣的《colors》小试牛刀

[button color="light" icon="" url="https://www.xiaohongshu.com/explore/63d5435d000000001d0106b4" type=""]点击在新页面看colors[/button]

        和Disco Diffusion相比,Stable Diffusion for WebUI是一个更加容易上手的AI绘画脚本,SD与DD相比,只要将https://github.com/AUTOMATIC1111/stable-diffusion-webui 中的脚本克隆到本地,先后在命令行中运行webui-user.bat和webui.bat,即可完成python虚拟环境构建、所需模块下载安装等工作,当然,前提是本地已经安装了python3.6以上版本以及CUDA等模块。只要在stable-diffusion-webui/models/Stable-diffusion/子目录中拷贝进下载的模型,SD就可以运行了。
        SD的使用比SD更直观和简单。每次开始时先运行webui-user.bat,提示加载完成可以访问浏览器后,就可以在本地电脑的浏览器中访问http://127.0.0.1:7860进行AI绘画了,整个设置和输出界面都在网页上进行呈现,比DD在本地运行时直接操作笔记本脚本要友好许多。SD同DD一样,用文字告诉它你想生成一张什么样的照片,只不过不需要完整的一句话,只需要一个一个的关键词用逗号分隔即可,这些词叫Tag.整个运行也比DD要快许多,512*512的图片大约十余秒就可以生成一张。
        SD出来的效果和所采用的模型有很大关系。在github上发布方给出的是sd-v1-4-full-ema.ckpt 以及 sd-v1-4.ckpt两个模型,分别是4.2G和7.6G大小,用这个模型生成的是照片和绘画风格的图像,老实说不好看,而且诡异的地方很多,比如生成的人有三条腿什么的。SD的优势是二次元绘画,下载了网上泄露的二次元模型后,做出来的动画还挺有意思。加载不同的模型生成的结果截然不同,因此更换不同的模型试验可以让你玩很长的时间。但是model子目录中一次只认一个模型,因此可以把下载的所有模型拷贝进去,将想要运行的模型名称改为排序最靠前的即可识别加载。

        SD资源参考:
        模型下载: https://rentry.org/sdmodels
        SD综合信息:https://rentry.org/sdupdates
        Tag生成网站:https://wolfchen.top/tag/
                                https://aitag.top/
        Tag魔法书:https://docs.qq.com/doc/DWHl3am5Zb05QbGVs?
                        https://docs.qq.com/doc/DYVJUZU5VdXdDeWNI?
                        https://docs.qq.com/doc/DSHBGRmRUUURjVmNM
                        https://docs.qq.com/sheet/DRGR5RHVQeVhqUENG?tab=BB08J2
                        https://www.kdocs.cn/l/cvg8ccOGj5sq

下面是试验的输出画作:
Tag:a little bear,brown,qute,scarf,white snow,christmas
bear1.png
bear2.png
bear3.png
bear4.png
Tag:a bride,black and white hair,star eyes,Close-up,Immortality of Eternity, poetry, Astronomical clock,white wedding dress,forever time,
clock1.png
clock2.png
clock3.png
clock4.png
clock5.png
clock6.png

        这还真是为了一碟醋,包了一盘饺子。
        Disco Diffusion这个AI绘画项目提供了无限可能,奈何通常情况下的在线运行要解决连接谷歌服务器的问题,此前从GITHUB上下载了这个开源项目的python脚本和对应的模型,用我的XPS13上的VSCODE调通跑起来了。由于没有N家的独立显卡,只能用CPU运行,奈何六代酷睿和8G的内存实在支撑不起这样的运算,out of memory是必然的结果。我不打游戏,又听闻现在的显卡涨价得没有天理,于是在D版收了一块Nvidia Tesla M40的二手计算卡,收了才发现我得有个PCI 16X的插槽来安装它,而我已经不用台机十多年了......可以用雷电口的外置显卡,然而一个外置显卡坞并不比一台便宜的台机便宜,且通过雷电口连接由于通信速率的关系实际算力还要打个对折,所以这次双十一,用1600左右拼了一台5600U的台机。
        组装这台机器也算是命运多舛。拼起来上电主板呼吸灯能亮,但CPU风扇总是转一会就停,显示屏不亮,刷BIOS、拔电池、换内存卡槽都不行,不知哪儿出了毛病,好在CPU和主板是在一家买的,干脆打包发回去请他们检测,结果回复是好的。重新装机还是不行,反复实验才发现是SATA口的SSD我只插了数据线没有插电源线......开机了也装了系统,但经不住京东便宜NVME SSD的诱惑,买了一条重装系统又折腾半天。用M40的计算卡要解决三个问题:一是这块卡的电源接口是CPU接口定义,接电源的显卡头要转接线;二是原卡无风扇,是借助服务器中的高速暴力风扇散热的,装机还得增加散热风扇,去掉原装散热器上显卡用三风扇工程太大,最终用的是3D打印的风道风扇,只是装上后显卡通长达到320mm以上,一般机箱可能没有那么长;三是装驱动,这倒是最简单的,无非是最后在终端界面中用nvidia-smi -dm 0将卡的工作模式改为WDDM。
        VSCODE跑Disco Diffusion也是经过了一番调试。从Github上把整个项目克隆下来后,原来是运行python脚本,后来发现VSCODE可以直接运行谷歌笔记本文件,也就是.ipynb文件,这个笔记本文件和网页上显示的格式相同,十分方便于理解和修改。本地运行完全可行,安装相应的模块和依赖即可,只是其中有两个大坑:一是调试时会提示infer模块,但你用pip安装infer模块后仍然报错,原因是这个infer是AdaBins中的,要将源代码中的from infer import InferenceHelper 改为from AdaBins.infer import InferenceHelper ;二是相同的问题,from midas.dpt_depth import DPTDepthModel等四个语句都要改为from MiDaS.midas.dpt_depth import DPTDepthModel等,增加MiDaS.
        本地跑确实随心所欲,就是风扇有点响,处理还是有点慢。这个脚本还是十分消耗GPU算力的,启用第二模型时可以算到19201088的尺寸,此时大约60-70分钟一张,但是不启用第二模型时10241024都会出现out of memory。动画处理尤其慢,我跑了50个小时还没算完200帧的720P动画,而且从150帧以后,画面变暗,不知是否算法缺陷缘故。

TimeToDisco(2)_0.png
TimeToDisco(2)_5.png
TimeToDisco(2)_8.png
TimeToDisco(2)_9.png
FutureWorld(0)_0.png
FutureWorld(12)_0.png
FutureWorld(14)_0.png
FutureWorld(14)_6.png
FutureWorld(14)_11.png
FutureWorld(16)_0.png
FutureWorld(16)_2.png
FutureWorld(16)_4.png
FutureWorld(16)_7.png
FutureWorld(16)_9.png
FutureWorld(17)_0.png
FutureWorld(17)_1.png
FutureWorld(17)_7.png
FutureWorld(17)_9.png
FutureWorld(18)_0.png
FutureWorld(18)_4.png
FutureWorld(19)_0.png

        《碧海蓝天》不是一部人人喜欢的电影。The Big Blue,如果它契合了你的心境,你会理解它,会因它而感动,会因它沉默不语,但不会因它而消沉。你会知道这个世界上有人和你一样,你并不孤独。
        人很难被理解,但如果一个人说他喜欢《碧海蓝天》,你可以瞬间了解他。

_P1M0022_小.jpg

_P1M0034_小.jpg

_P1M0040_小.jpg

_P1M0042_小.jpg

_P1M0046_小.jpg

_P1M0053_小.jpg

_P1M0064_小.jpg

_P1M0070_小.jpg

_P1M0071_小.jpg

        初识AI绘画,是谷歌的在线AI程序深度梦境Deep Dream,一个上传照片后选择一个滤镜对照片进行处理从而形成梦幻效果的在线程序。名字叫深度梦境,但是要作出一张真正梦境般的图片并不容易,处理后的照片能够明显看出原来的图案是什么,是应用了什么样风格的滤镜进行的处理,是一种显而易见的融合及结合。比如下面这张照片,无印良品里的杯碟架子变成高楼林立的都市:
微信图片_20220509084214.jpg
        或者是这样,丛林里的城市只是房屋后院的梦呓:
微信图片_20220509084239.jpg
        五彩缤纷的效果是容易形成的效果:
微信图片_20220509084201.jpg
        或是电子游戏争霸战的赛博朋克风格:
微信图片_20220509084257.jpg
        深度梦境真正给我惊喜的,是这样一张照片,这是一张银河的星野照片,能想象经过滤镜后变成另外这样一种星空的样子吗?
微信图片_20220509084245.jpg
        在祛除了不切实际的梦幻设想后,深度梦境其实更能给我们一些例如油画、水粉画这样的处理效果:
deepdream1.jpg

        然后,我遇到了谷歌的深度学习算法Disco Diffusion,用Tensorflow训练模型,在线运行可使用谷歌的在线GPU提高运行速度,也可以下载到本地机器运行,但由于我的电脑的硬件性能远远无法达到跑这个模型的需求,所以始终只能在线上进行运行。DD的特点,是用一句包含若干关键词的话来告诉程序想要一幅什么样的画。不做修改时,默认的关键词是这样的:
        "A beautiful painting of a singular lighthouse, shining its light across a tumultuous sea of blood by greg rutkowski and thomas
kinkade, Trending on artstation.", "yellow color scheme”
这样画出来的是灯塔:
TimeToDisco(0)_0.png

        一直想要画一张赛博朋克风格的画,所以我用了这句关键词:"A sense of awe of a steampunk Industrial City,filled with holograms by M.C. Escher, Trending on surreal.","silver color scheme"
        结果挺出人意料:
TimeToDisco(2)_1.png
TimeToDisco(2)_2.png
TimeToDisco(2)_5.png
TimeToDisco(2)_6.png

        另一个想要的场景是帆船在波涛汹涌的大海上,所以我用了这句关键词: "A beautiful painting of a ultrawide shot of a sailboat ,sailing in rough sea by greg rutkowski and thomas kinkade, trending on artstation."结果不满意。
TimeToDisco(5)_1.png
TimeToDisco(6)_2.png
TimeToDisco(6)_7.png

        这句关键词:"A sense of awe of the end of time ,a desire for knowledge by Hiroshi Yoshida and Marc Simonetti, trending on futuristic."第一张就非常好,但是后面的图画就每况愈下,所以只保留了这一张:
TimeToDisco(7)_0.png

        由于末世流的风格效果很好,于是我又调整了关键词:"A sense of awe of the end of civilization by Ivan Aivazovsky and Peter Mohrbacher, trending on futuristic."至于效果......只能说不好,嫁接的痕迹太严重。
TimeToDisco(8)_0.png
TimeToDisco(8)_3.png
TimeToDisco(8)_6.png
TimeToDisco(8)_8.png

        AI绘画的程序还有很多,AI绘画到底能不能代替人类的绘画呢?其他的程序我不知道,DD我看难。用一句话来告诉程序想要画什么,这其中的不确定性太多,按理说不确定性是灵感的来源,可偏偏这程序的程式化还是太严重,这就造成了画作的移花接木和可以理解的混合。对于抽象艺术而言,能够理解便落了下乘,更何况能把自己的幻想明白说出来的话,那幻想还是幻想吗?