分类: 流云的软件分享

  • 图片太糊?来试试这个小工具 

    大家在网上找图片的时候肯定会有过好不容易找到的心仪的图片,但是太糊以至于惨不忍睹的情况。那么我就推荐一个实用的小工具,让你永远告别“糊图图”的困扰。
        Upacay,一款开源的免费图像超分工具,并且算是我接触过的操作最简单的AI工具,首先我们需要把他下载下来,我找了两个下载渠道,各位可以按照自己的喜好自行选择:
    官网下载:Upscayl – AI Image Upscaler
    系统之家中文版下载:Upscayl下载-Upscayl(AI图像放大工具)中文版下载2.11.0 – 系统之家 (xitongzhijia.net)
    个人建议选择中文版,因为软件是纯英文界面,操作相对不便。

        下载完成后打开软件就可以看到如下画面

    在开始之前先配置好输出文件夹,免得出现“生成的图片去哪里了”的情况,如果不是大批量生成的话输出到桌面上就行,这样方便查找,也便于使用。

    把鼠标移动到第二步选择模型,点击之后就会出现许多的备选模型。

    这些模型的用途各不相同,需要按照不同的需求选择不同的模型:
    REAL-ESRGAN模型:提高图片清晰度
    REMACRI模型:增强图片效果
    ULTRAMIA BALANCED模型:提高图片色彩饱和度
    ULTRASHARP模型:提高图片清晰度和锐化边缘
    FAST REAL-ESRGAN模型:并没有查找到具体的功能,但是通过查找资料猜测,这应该是通过FAST算法对图像进行快速检测,通过使用角点的方式实现加速计算过程的一种算法(参考资料:图像特征提取(四)——FAST算法解析-CSDN博客

        让我们来看一下这个软件的效果吧,首先选择一张初始图片

    可以看到这张图片只有88kb,看起来也是比较糊的。

    然后把图片拖拽到Upacay里,我选择了是REAL-ESRGAN模型的四倍放大。

    输出文件夹为桌面,点击开始即可。

    超分完成后,在Upacay可以看到放大前后的对比,相当的直观

    看看放大后的图片质量

    可以看到图片的质量和体积都有了不小的提升。在超分一些大的图片的时候体积甚至会来到数十上百兆,但是并不是说放大倍数越高越好,有时候过高的放大倍数往往会适得其反。

        需要注意的是Upacay并不是每一台电脑都可以使用的。虽然Upacay在兼容性方面做的十分出色,她甚至可以在620核显上运行,但是面对市场上琳琅满目的硬件和驱动依旧不能保证绝对通用,目前已知她不能运行在GT920和英伟达GTX7系列。如果不放心的话可以查询一下自己的显卡是否受到支持,或者干脆试试。

        以上就是Upacay的下载以及使用的简单介绍,希望对大家有所帮助,如果文中有什么错误还请指出。

  • GLM-4-9B使用体验

    前排提示:多图预警。

    目前我已经完整部署了GLM4-9B,也就是GLM-4的普通对话版本,可以理解为一个基础的聊天机器人。不过说是基础,也只是相对于完全体而言,实际功能相较于其他开源大模型和上一代的GLM3来说可谓是“遥遥领先”,称得上是10B规模以下的最强大模型。以下就是详细的体验分享了。
        硬件要求方面,相较于前代,GLM-4对于硬件的要求大大提高,官方最低显存要求提升到了16G,在强制使用int4量精度下初始显存占用提升到了近7个G,也就意味着想要在本地部署使用至少显存需要8G。

    屏幕截图 2024-07-25 090436.png

        在加载模型时也会有很大的内存消耗,不过目前来看并不是硬性条件。但是一颗性能强悍的处理器和25G以上的内存无疑会大大提升模型的加载速度。

    屏幕截图 2024-07-25 002547.png

        在GLM-3上尝试过的双开在GLM-4中我也进行了测试,但是遗憾的是由于显卡显存不足,第二个程序无法加载。

    屏幕截图 2024-07-25 002818.png

        GLM-4本体的体量相对于前代的35G也有了一轮暴涨,提升到了整整50G,使得我本就紧张的储存空间更加的不堪重负。

    屏幕截图 2024-07-25 100210.png

        综上,想要愉快的玩耍GLM-4,显存需要至少8G,最好22G以上,空余内存最好有20G以上,硬盘空间50G以上。

        接下来是使用体验,GLM-4本次开源的主要功能包括了常规聊天,文档解读,图像识别。在这三个功能中我尝试了常规聊天和多模态图像识别,总体体验极佳。而文档解读功能由于未知问题仍然无法使用,但我会对此进行简短介绍。
        首先是常规的聊天,本次测试我选用了传说中用于训练效果最好的,也是集中文社区语言艺术大成的百度贴吧弱智吧中的部分问题进行测试。
    第一张图为GLM-4回答,第二张图为GLM-3回答。
    第一个问题:回忆算不算在记忆的长河里刻舟求剑?

    屏幕截图 2024-07-23 132156.png
    JulCE-202407251140353726.png

    第二个问题:解释一下“一个半小时就是三个半小时”的意思。

    JulCE-202407251142386812.png
    JulCE-202407251143436942.png

    第三个问题:解释一下“太空有空间站,太挤没有空间站”的意思。

    JulCE-202407251144571892.png
    JulCE-202407251146435183.png

    第四个问题:房东把房租给我,为什么不把房租给我?

    JulCE-202407251148322302.png
    JulCE-202407251149193834.png

    第五个问题:高考满分才750,怎么才能考985?

    JulCE-202407251153139746.png
    JulCE-202407251153273223.png

        可以看出GLM-4对于GLM-3还是有不小提升,在对文字逻辑的处理方面更加敏锐。并且,GLM-4还支持联网搜索功能,但是具体操作略有繁琐,并且还需要进行付费,暂且按下不表。

        GLM-4初始模型具备长文本解读能力,很好的一点就是支持的文件格式非常的多样化,从常规的txt,docx,到PDF,GLM-4都可以对其进行解读,极大的便利了有大量长文本阅读需求的用户。

    JulCE-202407281513507640.png

        目前我的问题仍然不能确定,正在Github上进行探讨研究。

    JulCE-202407281528161104.png

        GLM-4系列开源了ChatGLM-4v-9B视觉模型,这也是GLM系列首个机器视觉模型,登场即为王炸。得益于ChatGLM4强大的中文理解能力,ChatGLM-4v-9B在用出色图文识别的基础上可以理解复杂指令,通过更为高效的训练方式使其在参数量较低的情况下发挥出更好的表现。
        由于我的硬件限制,这个多模态功能并没有那么实用,主要问题是显卡的性能过于孱弱,在第一次尝试的时候就出现了报错。

    屏幕截图 2024-07-22 173841.png

    在询问了B站大佬并翻找万能评论区得到了解决方案,需要更改模型文件中的一个响应时间值。官方给出的值仅为5,但是由于部署的硬件条件参差不齐,有一些显卡性能较差的用户(比如我)无法达到那么快的响应速度导致报错。

    屏幕截图 2024-07-25 122542.png

    在经过几次尝试后我将响应时间值改为了300(红线部分),终于是可以正常使用了,不过反馈时间就很长,提问后往往要数分钟才能得到回答,但是胜在结果的高质量,用起来倒也挺舒服。
        目前我只开发了基本的图像识别功能,不能说极为出色,但也是主流水平。

    屏幕截图 2024-07-25 100719.png

        在B站的GLM官方给出了另一个打开方式,网页截图翻译HTML代码,我截了一张网页的首页进行尝试,结果看起来还不错。

    屏幕截图 2024-07-25 122343.png

        好啦,基本可分享的就这么多,感兴趣的可以前往B站搜索up主十字鱼的视频下载。

    引用: GLM4官方Github文档 https://github.com/THUDM/GLM-4/tree/main 出处:Github

    鉴于up主只上传123云盘(非VIP下载要掏钱)并且没有把GLM4的文件单独列出,我把自己已经调整好的文件夹打包了一下上传了百度网盘,主要调整的有自适应代码量化方式和上文提到的模型响应时间值。如需下载请保证硬盘至少有50G空间。

    引用: 百度网盘链接: https://pan.baidu.com/s/1xbHnPCe0OmrfnVOgQOddgA 提取码: lyxl

    插入一个不算题外话的题外话,得益于GLM4得到提升的中文识别记忆能力,许多人从四年前就开始追求的赛博猫娘已经可以真正意义上的国产化,本地化了(大喜)。对此感兴趣的大伙也可以通过评论区或邮箱一起交流。

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注