漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-20 talkingdev

人工智能发展遇瓶颈?GPT-4等大型语言模型显现收益递减

近期研究表明,人工通用智能(AGI)的发展可能并未如预期那般顺利。尽管投入了更多的资源,像GPT-4这样的大型语言模型(LLMs)却表现出硬件扩展的极限,收益递减的现象。这意味着,随着模型规模的扩大,其性能提升的...

Read More
2024-03-18 talkingdev

kapa.ai助力技术文档优化,提升LLMs使用体验

kapa.ai近期发布了针对LLMs(大型语言模型)的技术文档结构优化建议。该建议强调了清晰的文档层级结构、按子产品细分内容、包含故障排除常见问题解答、嵌入独立完整的代码片段以及建立社区论坛的重要性。这些建议旨...

Read More
2024-03-15 talkingdev

Skyvern:基于LLMs和计算机视觉的浏览器自动化工具

近日,Skyvern项目在GitHub上发布,该项目利用LLMs和计算机视觉技术自动化浏览器流程。Skyvern提供了一个简单的API端点,可以完全自动化手动工作流程,替代脆弱或不可靠的自动化解决方案。其实现原理是利用LLMs提供...

Read More
2024-03-15 talkingdev

论文:探索LLMs的安全性

最近的一项研究中,研究人员利用名为'Evil Geniuses'的虚拟团队测试了LLMs的安全性。他们发现这些人工智能代理对恶意攻击的鲁棒性较差,提供更复杂的回复,使不当回复更难以检测。

Read More
2024-03-07 talkingdev

从零开始培训LLMs的初创公司

一家名为LLMify的初创公司正在推出一种新的方法来训练语言模型,他们将在没有预训练模型的情况下从零开始培训LLMs。该公司的创始人表示,这种方法可以提高模型的准确性和适用性,并加快训练时间。该公司已经引起了一...

Read More
2024-03-06 talkingdev

论文:支持更长上下文长度的LLMs技术研究

近日,研究人员开发了一种名为Resonance RoPE的新技术,帮助LLMs更好地理解和生成比其原始训练序列更长的文本。这种方法在现有的Rotary Position Embedding(RoPE)系统上进行了改进,提高了模型在长文本上的性能,...

Read More
2024-03-01 talkingdev

LLMs使用Dual Chunk Attention处理10万个令牌

Dual Chunk Attention(DCA)扩展了大型语言模型(如Llama2 70B)的能力,使它们能够处理超过100k个令牌而无需额外的训练。它将注意力计算分解成块,增强了模型对短期和长期上下文的理解。

Read More
2024-02-29 talkingdev

Databricks、Anyscale和微软的十大AI见解

本文报道了对AI领域前沿公司的创始人的采访,涵盖了他们对AGI到来的看法,如何思考LLMs以及创始人在产品中如何处理AI的简单策略。

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page