1.英伟达被黑客攻击,英伟源码源码DLSS源代码泄露,业务会受影响吗?
2.NVIDIA Modulus 23.03安装和使用方法
3.小模型卷起来了:Mistral联合英伟达开源12B小模型,128k上下文
4.极智开发 | 解读英伟达软件生态 一切的达源基础CUDA
5.24行代码完成批量缩星
英伟达被黑客攻击,DLSS源代码泄露,业务会受影响吗?
黑客帝国再起风云:英伟达遭遇大规模数据窃取/
据彭博社、每日电讯报和The码英Verge权威报道,全球科技巨头英伟达近期遭受了黑客的伟达猛烈攻击。据披露,泄露这家南美黑客组织LAP$声称窃取了超过1TB的驱动静态外贸商城源码独家技术资料,引发了业界的英伟源码源码广泛关注。幸运的达源是,LAP$已备份数据,码英使得英伟达的伟达反击行动未能得逞。
尽管如此,泄露英伟达在一份针对Hardwarexx德国硬件爱好者网站的驱动声明中坚称,此次事件并未造成业务中断的英伟源码源码威胁。他们迅速采取行动,达源强化网络安全,码英聘请专家应对,并与执法部门保持紧密合作。尽管存在威胁参与者获取员工凭证和部分专有信息的风险,但英伟达团队正在全力以赴进行调查,以确保信息安全。
值得注意的是,TechPower报道称,黑客已将深度学习超级采样(DLSS)的源代码公之于众,这项技术是乐享联盟源码英伟达的看家本领,尤其在游戏性能提升方面发挥关键作用。尽管英伟达曾因封闭源代码引发争议,但现在开源技术如FSR和XeSS的竞争加剧。然而,尽管DLSS的源码泄露,但其2.2版本的技术实力仍被公认为行业领先。
编辑观点:/对于内容创作者,我们尊重知识产权,呼吁所有厂商避免非法使用这些技术。对于大学生来说,这是一个了解行业领先技术的好机会,能够丰富学习内容,提升技能储备。尽管面临挑战,但英伟达的安全意识与持续投资表明,他们将继续在技术保护上保持领先地位。
此次事件提醒我们,网络安全是永恒的话题,每个行业参与者都需加强防护。希望大家从中获益,共同维护科技领域的健康发展。
NVIDIA Modulus .安装和使用方法
如果你对NVIDIA的Modulus .版本感兴趣,以下是大型游戏源码网站你需要了解的安装和使用指南。从年开始,Modulus将进行重大更新,建议直接从.版本开始,因为它将成为新开发的基础,旧版本将不再维护,所有功能将迁移至此。 Modulus .开源,可在GitHub获取。新版本主要由两个部分组成:Modulus包和modulus-sym包。sym包整合了大量API接口,以下是部分核心模块的导入示例: from modulus.sym.hydra import to_absolute_pathfrom modulus.sym.solver import Solver
from modulus.sym.domain import Domain
...
from modulus.sym.utils.io.plotter import ValidatorPlotter
安装步骤如下:首先,从GitHub下载modulus源代码,确保选择正确的版本,然后构建镜像:
#docker build -t modulus:ci --target ci -f Dockerfile .启动镜像,在其中安装modulus-sym:
#pip install .可能需要额外安装一些依赖,如:
sudo apt-get install libx-6sudo apt install libgl1-mesa-glx
sudo apt-get install libxrender1
完成以上步骤后,你就可以开始编写并运行Modulus .的代码了。对于进一步的技术交流和疑难解答,我们建议加入以下QQ群: 群名称:英伟达Modulus仿真技术交流(PINN)群号:
这里是一个活跃的社区,可以与同行分享经验和解决问题。祝你在使用Modulus .的过程中顺利!小模型卷起来了:Mistral联合英伟达开源B小模型,k上下文
小模型时代来临:Mistral与英伟达联手开源B小模型Mistral NeMo,游戏源码教程下载其k的上下文窗口使其在多语言应用和效率上表现出色。这款亿参数的模型旨在提供低成本、易用且高效的AI解决方案,尤其适合计算资源受限和数据安全要求高的场景。
OpenAI的GPT-4o mini以其美分/百万输入token和美分/百万输出token的定价,展示了智能成本的大幅下降,而Mistral NeMo则在性能上与9B的Gemma 2和8B的Llama 3展开竞争,尽管参数量较多,但展示了SOTA级别的推理能力。Mistral NeMo还支持量化感知训练,可进行FP8推理,且拥有更高效的分词器Tekken,压缩文本和源代码的效率显著提升。
英伟达应用深度学习研究副总裁Bryan Catanzaro强调了小模型的便捷性和多样性,指出Mistral NeMo可以轻松部署在本地硬件,如RTX GPU,这对于企业用户特别是关注数据隐私和延迟的企业来说具有吸引力。Mistral NeMo的k上下文窗口对于处理长文档和复杂任务具有显著价值,但主要定位在笔记本和台式电脑而非移动设备上。
这次发布预示着AI软件市场的潜在变革,它可能促使企业更加倾向于本地部署的AI解决方案,从而缓解对数据隐私、成本和延迟的雀巢奶粉溯源码顾虑。对于资源有限的小企业来说,这提供了与大公司竞争的新机会。然而,Mistral NeMo的实际效果和围绕它的生态系统建设将决定其长远影响。总的来说,Mistral NeMo标志着AI在企业环境中的应用正朝着更高效、可部署的方向发展,未来是否会撼动大模型的地位,还需拭目以待。
极智开发 | 解读英伟达软件生态 一切的基础CUDA
欢迎关注我的公众号 [极智视界],获取我的更多经验分享
大家好,我是极智视界,本文来介绍一下 解读英伟达软件生态 一切的基础CUDA。
邀您加入我的知识星球「极智视界」,星球内有超多好玩的项目实战源码下载,链接: t.zsxq.com/0aiNxERDq
CUDA,全称为 Compute Unified Device Architecture,是英伟达于 年推出的一个平行计算平台和应用编程接口 API 模型。CUDA 之于英伟达的重要性主要体现在下面几个方面:
所以,解读英伟达软件生态,必须要从 CUDA 说起。虽然 CUDA 再往下还有如 PTX 的指令集加速层级,但是PTX 的普及程度其实并不高,甚至可能很多朋友都没听说过 PTX,其实也算正常,因为基本上的 N 卡开发者,根本没必要接触到 PTX,把 CUDA 学好就足够够的了。
把 CUDA 作为标杆,似乎是很多 AI 芯片厂商 "共同的做法",比较有代表性的是升腾的 Ascend C、寒武纪的 Bang C,但是其实这几个之间有相似但又有不相似的地方。相似的地方在于不管是升腾还是寒武纪都想提供一套类似 CUDA 的可以充分调用自己 NPU 硬件加速的对外接口,提高客制化的灵活性。不相似的地方一方面在于我们是在学人家,很多接口其实是为了贴近 CUDA 的接口而进行的高级封装,毕竟大部分开发者其实已经形成了 CUDA 的开发习惯,这个时候让大家切换起来更加顺手的做法就是 "模仿",而要做这种程度的 "模仿" 势必要协调好硬件架构和软件接口的映射;不相似的另外一方面体现在软件生态的层次清晰度,这个拿升腾来专门说,升腾 Ascend C 的发布时间在 年 5 月 6 日,而反观英伟达 CUDA 的发布时间是 年。什么意思呢,很明显可以看到英伟达的软件生态是以 CUDA 为基础然后层层往上叠的,而升腾是先有了 CANN,先有了 MindSpore 这些 "高层建筑",然后往下才有了 Ascend C,这种软件生态的层次结构就没有那么清晰,当然这种说法也只是基于时间上的,这并不影响它在空间上还是具备不错的软件生态层次结构。
再回到 CUDA 本身,需要清楚的一点是,CUDA 其实一开始主要是面向优化计算密集型计算 (Compute-Bound),因为不管是最开始的通用科学计算还是后来的以 CNN 为主流的深度学习计算都是计算密集型,但是后来 Transformer 又逐渐流行,所以 CUDA 也是不断在 "与时俱进" 在做平衡、做兼顾,比如在 A 开始,CUDA 新增了从 L1 Cache 到 HBM Global Memory 数据直接异步拷贝的指令,其实也是在丰富自身对于访存密集型计算 (Memory-Bound) 的优化。
我之前写过挺多关于 CUDA 的分享,罗列一些,
CUDA 是一种硬件强相关的编程模型,要掌握好 CUDA,需要先看懂 GPU 硬件架构,从而映射到 CUDA 内存模型、线程模型上,这点跟 C 语言、跟 C++ 这类 "高级" 编程语言就很不一样,所以很多朋友会觉得 CUDA C 比较难写,特别是要写出高性能的 CUDA C,比较难。确实,这是事实,特别是对于写出高性能的 CUDA C,会涉及资源的高效调度,比如 Shared Memory、L1 Cache 等的调度;会涉及适应硬件架构超参的配置,比如 Thread、Block、Grid 等的配置。
总之,对于 CUDA 的深入学习,是一门 "稳挣不亏" 的 "买卖",原因不再过多赘述,主要体现在它的重要性上。
好了,以上分享了 解读英伟达软件生态 一切的基础CUDA,希望我的分享能对你的学习有一点帮助。
公众号传送
行代码完成批量缩星
在星空摄影中,处理大量照片以制作延时视频时,缩星成为了一项挑战。手动在PS中逐一操作或自编图像处理动作,耗时且效率低。本文提供了一种编程解决方案,利用免费工具starnet++ V2批量处理,实现快速批量缩星。
starnet++ V2能有效去除TIFF格式中的星星,只需调用程序即可实现批量操作。对于配备英伟达GPU的电脑,通过CUDA接口加速处理,可显著提升效率,显卡下速度提升可达5至6倍。
在使用代码前,请确保已下载并安装starnet++ V2(官网下载window 位版本),并将其放置于C盘特定目录。
附源代码(代码由AI自动生成),以下为使用方法概述:
首先将包含照片的文件夹命名为output,然后运行脚本nostar.py。脚本将自动处理output文件夹中的所有TIFF文件,将去星后的保存到output/starless目录下,无需人工干预。
处理效果显著,TIFF格式大小约为M,去星过程大约需要2分钟,此阶段主要利用CPU资源。若拥有英伟达显卡,可参考专门网页了解GPU加速方法。
最终成果如下,显示批量处理后的效果。
使用本文提供的方法,星空照片的缩星效率得到极大提升,尤其对处理大量时尤为明显。通过合理利用GPU资源,进一步加速了处理过程,提高了工作效率。值得注意的是,英伟达的CUDA库体积庞大,可能需要手动下载某些dll文件,以确保程序正常运行。