字节跳动

扣子空间Coze Space正式开启内测 支持 MCP 扩展集成

字节跳动技术团队宣布,其全新 AI 协同办公平台“扣子空间”(Coze Space)正式开启内测。“扣子空间”旨在成为用户与 AI Agent 协同办公的最佳场所,提供从回答问题到解决问题的全方位服务,帮助用户更高效地完成工作。“扣子空间”具有多项创新特点,能够自动分析用户需求并拆解为多个子任务,自主调用工具(如浏览器、代码编辑器等)执行任务,并输出完整的结果报告,如网页、PPT、飞书文档等。此外

字节跳动发布高效预训练长度缩放技术,突破长序列训练瓶颈

字节跳动宣布推出高效预训练长度缩放技术(Efficient Pretraining Length Scaling),通过创新的Parallel Hidden Decoding Transformer(PHD-Transformer)框架,显著提升大语言模型(LLM)在长序列预训练中的效率与性能。据AIbase了解,该技术在保持推理效率的同时,支持高达2048K(2M)的上下文长度训练,解决了传统框

字节跳动推出Vidi多模态模型,引领超长视频理解与编辑新潮流

字节跳动宣布推出全新多模态模型Vidi,专注于视频理解与编辑,首版核心能力为精准的时间检索功能。据AIbase了解,Vidi能够处理视觉、音频和文本输入,支持长达一小时的超长视频分析,在时间检索任务上性能超越GPT-4o与Gemini等主流模型。这一突破性技术已在AI社区引发热烈讨论,相关细节通过字节跳动官方渠道与GitHub公开。核心功能:精准时间检索与多模态协同Vidi以其强大的时间检索与多模

​字节跳动推出 QuaDMix:大型语言模型预训练数据质量与多样性的统一框架

近日,字节跳动宣布推出其全新的数据选择框架 QuaDMix,旨在提升大型语言模型(LLM)预训练的效率和泛化能力。众所周知,模型的训练效果受基础数据集的质量和多样性影响很大。然而,传统的数据筛选方法往往将质量和多样性视为两个独立的目标,先进行质量过滤,再进行领域平衡。这种逐步优化的方式忽略了质量与多样性之间的复杂相互关系。优质数据集往往存在领域偏差,而多样化的数据集可能会降低质量。因此,在固定的训

字节跳动启动 “Top Seed” 计划,面向 2026 届博士生招募 AI 人才

字节跳动近日宣布正式启动2026届 “Top Seed” 大模型顶尖人才校招计划,计划招募约30位优秀博士生。这一项目专注于前沿的人工智能领域,涵盖大语言模型、机器学习算法与系统、多模态生成与理解、语音处理等研究方向。字节跳动希望通过此举,吸引那些在大模型研究领域具备极强潜力和热情的年轻才俊。与以往的招聘计划不同,本届 “Top Seed” 强调 “不限专业背景”,更加关注应聘者的研究潜力与热情。