标准会员
过期时间
会员积分 0
还没有账号? 立即注册
已有账号? 立即登录
5.64K
粉丝
1221
文章
17.88万
总浏览
5
平均评分
AI领域资深专家
感谢IT之家网友 西窗旧事 的线索投递!IT之家 4 月 18 日消息,据“北京亦庄”公众号,2025 北京亦庄人形机器人半马(IT之家注:半程马拉松)的参赛名单现已揭晓。各队伍主要信息如下:天工队(天工 Ultra,身高 180cm,体重 52kg):实测平均时速可达 10km/h,最高奔跑速度已提升至全球领先的 12km/h,且能在斜坡、楼梯、草地、碎石、沙地等多种地形平稳移动,具备带有视
IT之家 4 月 18 日消息,具身智能机器人企业智平方昨日在深圳发布了旗下新一代通用智能机器人 AlphaBot 2(爱宝 2),并宣布全面升级“AGI 终端”战略。此次战略升级涵盖核心具身大模型技术升级、产品迭代、自有产线建设及商业化目标。本次发布会,智平方宣布原有具身大模型品牌 AI2R Brain 正式升级为 Alpha Brain。据官方绍,Alpha Brain 最关键的是智平方全栈
IT之家 4 月 18 日消息,在接受 Jules Terpak 频道采访时,微软人工智能业务首席执行官穆斯塔法・苏莱曼(Mustafa Suleyman)表示,未来“智能”将成为新的货币,将重新定义财富与生活的本质。生成式 AI 技术正以惊人速度改变我们的生活方式,从工作到娱乐,几乎无处不在。尽管有人对其安全性与隐私问题表示担忧,但这并未阻挡技术普及的浪潮。IT之家翻译苏莱曼采访内容如下:我们
感谢IT之家网友 Alive1 的线索投递!IT之家 4 月 18 日消息,腾讯混元今日宣布开源定制化图像生成插件 InstantCharacter,并实现了对开源文生图模型 Flux 的兼容。腾讯官方介绍称,通过这个插件,在大模型中,只需要一张图加一句话,就可以让任何角色以你想要的姿势出现在任何地方。输入原始图片+ prompt :a rabbit is in the kitchen ho
IT之家 4 月 18 日消息,中国移动智慧家庭运营中心 4 月 15 日在第五届中国国际消费品博览会上发布了全新产品“移动爱家 AI 眼镜”。移动爱家 AI 拍摄眼镜与 AI 音频眼镜通过深度融入大模型,可实现智能体视频通话、跨应用联动、辅助教育、协作办公等功能。移动爱家 AI 眼镜号称配备了“三个技能”:“好耳机”:在音质方面,采用双麦 ENC 通话降噪,经过数千次的音频调试,环境噪声抑制能
感谢IT之家网友 Skyraver 的线索投递!IT之家 4 月 18 日消息,4 月 16 日,北京市人工智能产业投资基金宣布在去年已有投资基础上,继续追加投资智谱(Z.ai)2 亿元人民币,支持智谱的开源模型研发与开源社区生态建设。北京市人工智能产业投资基金表示,智谱是基金成立以来投资的第一家 AI 大模型企业,也是目前成长最快的企业。智谱在包括文本、推理、语音、图像、视频、代码等在内的模
IT之家 4 月 18 日消息,谷歌公司昨日(4 月 17 日)发布公告,宣布在 Google AI Studio 和 Vertex AI 中,以 Gemini API 的方式推出 Gemini 2.5 Flash Preview 预览 AI 模型。用户还可通过 Gemini 应用内的模型选择器直接使用,并结合 Canvas 工具优化文档和代码编辑。IT之家此前报道,Gemini 2.5 Fla
IT之家 4 月 18 日消息,风险测试机构“机器智能测试风险”(METR)昨日(4 月 17 日)发布报告,与 OpenAI 合作测试其 o3 模型时发现,该模型展现出更强的“作弊”或“黑客行为”倾向,试图通过操控任务评分系统提升成绩。IT之家援引报告内容,在 HCAST(人类校准自主软件任务)和 RE-Bench 测试套件中,o3 模型约 1% 到 2% 的任务尝试涉及此类行为。这些行为包括
IT之家 4 月 18 日消息,科技媒体 WinBuzzer 昨日(4 月 17 日)发布博文,报道称微软研究团队推出了一款开源大型语言模型 BitNet b1.58 2B4T,区别于传统训练后量化的方式,这款拥有 20 亿参数的大型语言模型(LLM)以 1.58 位低精度架构原生训练而成。IT之家援引技术报告介绍,该模型性能直追同规模全精度模型,但计算资源需求大幅缩减。尤其令人瞩目的是,其非嵌
IT之家 4 月 18 日消息,IT之家从豆包大模型团队获悉,UI-TARS-1.5 昨日正式发布并开源。这是一款基于视觉-语言模型构建的开源多模态智能体,能够在虚拟世界中高效执行各类任务。有关的链接如下:GitHub:https://github.com/bytedance/UI-TARSWebsite:https://seed-tars.com/Arxiv:https://arxiv.org