跳动百科

DeepSeek,最新发布

左倩有   来源:网易

DeepSeek最新发布

DeepSeek近期发布了一系列重要更新与研究成果。据悉,其已宣布开源Optimized Parallelism Strategies(优化并行策略),旨在提高计算效率、减少资源浪费,并最大化系统性能。该策略通过合理分配任务、协调资源利用和减少通信开销,实现了在多核、分布式或异构系统中的高效并行执行。

此外,DeepSeek还发布了在Blackwell架构上优化的DeepSeek-R1模型,实现了推理速度提升25倍,并且每token成本降低20倍的惊人成果。这一新模型的推出,标志着DeepSeek在人工智能领域的又一次重大进展。

同时,DeepSeek还通过稀疏注意力机制(Sparse Attention)的创新应用,解决了超长上下文处理中的成本与效率问题。其最新论文《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention》引发了行业的广泛讨论。

总之,DeepSeek的最新发布展示了其在提高计算效率、优化模型性能等方面的持续努力与显著成果。