Anduin Xue
Anduin Xue

Anduin's Tech Blog

Ai


使用 NPU 来运行 DeepSeek R1 32B

文章探讨了如何通过OpenVINO工具包在Intel Ultra 7处理器的NPU上运行DeepSeek R1 32B大语言模型的过程与挑战。作者首先尝试用CPU运行32B模型却遭遇性能瓶颈,随后揭示了NPU驱动安装与OpenVINO优化的必要性。通过安装NPU驱动三件套(intel-driver-compiler-npu、intel-fw-npu、intel-level-zero-npu)并配置用户权限,结合OpenVINO的Python环境搭建,最终成功将量化为4bit的DeepSeek-R1-Distill-Qwen-32B模型部署到NPU。实验表明NPU推理速度显著优于CPU但仍有提升空间,这一实践为边缘设备运行大模型提供了新思路。文章抛出若干值得思考的问题:如何平衡模型量化带来的精度损失与性能提升?NPU在处理更复杂的多模态任务时能否突破现有算力限制?当大模型持续扩展参数量时,专用硬件加速器的架构设计将如何演变?这些疑问或许正是推动AI技术突破的下一个关键节点。--Qwen3

Ai Lunarlake NPU Deepseek Hugging face OpenVINO

Using SwinIR for Image Super-Resolution Reconstruction

SwinIR基于Swin Transformer的图像超分辨率重建技术正在重新定义图像处理的边界当低分辨率图像通过深度学习模型获得四倍细节扩展时我们不得不思考——当像素的极限被打破时艺术与技术的界限是否也会模糊文章展示了从NVIDIA RTX 4090显卡到Docker容器的完整技术链条通过预构建镜像和自动化脚本将复杂的AI部署简化为单条命令这种工业化部署方式暗示着一个更深层的问题:当技术门槛被降低到只需点击按钮时谁将成为下一个图像革命的创造者?在输入文件夹的模糊照片经过模型处理后输出文件夹中跃然纸上的高清细节不仅展现了算法的魔力更引发对数字遗产保护的思考——那些即将消失的老照片是否正在等待这样的技术来完成它们的数字重生?而当实时超分辨率处理成为可能时我们是否准备好面对监控录像中每个像素都清晰可见的伦理困境?技术文档中那些被精心设计的Dockerfile和训练参数背后隐藏着更值得探索的命题:当模型规模以指数级增长时我们是否正在走向一个所有图像都经过深度学习重塑的未来?--Qwen3

NVIDIA Ai CUDA Docker Resolution Image SwinIR Restore

让你的数据中心使用 GPU 算力!

根据文章内容,配置NVIDIA vGPU和CUDA环境需完成驱动安装、授权配置、CUDA版本匹配及BIOS设置,其中vGPU拆分类型需统一且迁移时需保证主机兼容性;部署AI应用需安装cuDNN和基础库,通过ffmpeg可验证硬件编码能力,监控温度需使用nvidia-smi工具获取物理GPU数据;故障排查需重点检查驱动授权状态、内核兼容性、Host/Guest驱动版本一致性及BIOS中IO MMU/PCIe AER设置,同时确保VCenter中GPU模式为Shared Direct。--Qwen3

Ubuntu VMware Vsphere Server NVIDIA Ai vGPU Python Tesla CUDA

自己独立运营一个面向你的朋友的 AI 绘画系统(基于 Stable Diffusion)

文章介绍了Stable Diffusion模型的部署优化和安全配置方法,包括调整txt2img参数限制生成规模(宽高640x1024)、禁用批量生成功能(Batch count/batch size设为1)、配置采样参数(Euler a算法20步)、设置NSFW过滤词库、隐藏高级功能按钮(通过CSS代码隐藏风格应用/样式创建/种子复用等按钮),通过修改ui配置文件锁定关键参数范围,使用FRPC实现内网穿透并配合Caddy反向代理部署HTTPS加密访问,同时展示了如何通过配置文件定制界面元素和安全策略,最终实现安全可控的在线图像生成服务。--Qwen3

Web Server Tune Stable Diffusion Ai Self hosting

  • 1