漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-10-03 talkingdev

论文:RNN的时代是否已终结?

近年来,随着深度学习技术的快速发展,循环神经网络(RNN)在处理时序数据方面曾被广泛应用。然而,研究者们开始质疑RNN是否仍然是解决此类问题的最佳方案。RNN的结构虽然能够捕捉序列数据中的时间依赖性,但在处理...

Read More
2024-09-12 talkingdev

Kolmogorov-Arnold网络提升神经网络可理解性

Kolmogorov-Arnold网络作为一种新兴的架构,有望显著提升神经网络的可理解性。传统神经网络往往被视为“黑箱”,其内部工作机制难以解释。而Kolmogorov-Arnold网络则通过引入数学理论,提供了一种更具透明度的模型结构...

Read More
2024-08-04 talkingdev

SCNN论文:自压缩神经网络技术

研究人员开发出一种名为自压缩神经网络(SCNN)的技术,它可以在不损失精度的情况下大幅减小神经网络的大小。这项技术基于模型剪枝,但不同于传统的剪枝方式,SCNN可以自我压缩和扩张神经网络结构,以适应不同的应用...

Read More
2024-08-01 talkingdev

Flux:开源文本到图像模型,参数达到120亿

由 FAL 团队开发的 Flux 是一个新的文本到图像模型,它是一个参数量达到 120 亿的深度神经网络。这个模型能够从文本描述中生成高质量、多样性的图像,它会对输入的文本进行语义分析,并且能够根据文本描述生成精细的...

Read More
2024-07-19 talkingdev

GraphMuse-使用图神经网络进行符号音乐任务

GraphMuse是一个新的框架,专门设计用来增强在符号音乐任务中使用图神经网络(GNNs)的效果。它通过将音乐符号转化为图结构,然后使用图神经网络进行处理,以提高音乐信息的分析和识别准确度。GraphMuse架构的独特之...

Read More
2024-07-10 talkingdev

学习在测试时:新型RNN变体超越Mamba

最近,一种新型的循环神经网络(RNN)变体在多项任务中的表现超过了Mamba。这种新型的RNN变体的重要特点是其更新函数本身就是一个机器学习(ML)模型。这使得它可以处理长上下文和在上下文中进行学习。在现今的机器...

Read More
2024-07-09 talkingdev

Google DeepMind与哈佛大学合作开发AI鼠脑,或使机器人能像真鼠一样灵活移动

Google DeepMind与哈佛大学联合开发了一种虚拟鼠,利用AI神经网络训练,仿效实际鼠的动作和神经模式,以研究负责复杂运动技能的脑电路。这种受生物启发的AI具有将学习的移动技能普及到新环境的能力,为研究脑功能和...

Read More
2024-07-01 talkingdev

Laplace神经运算符:基于神经网络的PDE近似架构开源

Laplace神经运算符是一种基于神经网络的架构,专为近似偏微分方程(PDE)而设计。这种运算符将神经网络的强大能力和灵活性与PDE问题的复杂和多样性相结合,打开了一种全新的解决PDE问题的方式。这种方法的优点在于,...

Read More
2024-06-28 talkingdev

Meta LLM Compiler:神经优化器和反汇编器

Meta LLM编译器是一种新型编译器,采用神经网络进行优化和反汇编,能够显著提高代码的性能和可读性。该编译器可以自动检测代码中的瓶颈,并通过神经网络进行优化,从而提高代码的运行速度。此外,Meta LLM编译器还可...

Read More
2024-06-27 talkingdev

深度挖掘:稀疏自编码器(SAEs)的应用与实践

Golden Gate Claude 是一个出色的案例,展示了如何使用SAEs(稀疏自编码器)进行模型的驾驭和解读。该工作为我们提供了一个直观的解释,解释了它是如何工作的,并提供了一些用于训练这些模型的示例代码。自编码器是...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page