Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命

Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命

4.8
0热度

在当今AI行业,技术的迭代速度与应用的广泛程度正在以前所未有的方式深刻改变着我们的生活。从早期的基础算法研究到如今的智能硬件应用,AI的革命已悄然展开,然而,尽管AI潜力巨大,其高昂的能耗、庞大的模型和复杂的学习机制仍是行业亟待突破的难题。在这种背景下,致力于突破AI效率瓶颈的创新型公司正引领着一股变革潮流。在本期的专访中,我们有幸邀请到了 Aizip 的联合创始人陈羽北。Aizip 作为一家专

Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命


在当今AI行业,技术的迭代速度与应用的广泛程度正在以前所未有的方式深刻改变着我们的生活。从早期的基础算法研究到如今的智能硬件应用,AI的革命已悄然展开,然而,尽管AI潜力巨大,其高昂的能耗、庞大的模型和复杂的学习机制仍是行业亟待突破的难题。在这种背景下,致力于突破AI效率瓶颈的创新型公司正引领着一股变革潮流。


在本期的专访中,我们有幸邀请到了 Aizip 的联合创始人陈羽北。Aizip 作为一家专注于 On-Device AI 模型的创新公司,凭借其高效、紧凑的AI模型和跨领域技术突破,正在推动 AI 技术在硬件设备上的广泛应用。Aizip 在多模态感知、语言推理及行为控制等领域取得的成绩,不仅为智能设备带来了更高效的性能,还使得 AI 融入我们的日常生活成为可能。在这场对话中,我们将一同探讨陈羽北如何突破传统AI模型的效率瓶颈、如何构建具有全球竞争力的AI产品,并深入了解他如何通过Aizip 实现将AI技术从学术研究转化为商业化应用的宏大愿景。让我们一起走进这场精彩的对话!


Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命


  • 系统工程真正的成就感,是你的成果能在现实中发挥作用...这是我长期科研探索的核心动因——将AI从“能用”推进到“高效能用”,缩小人工智能与自然智能之间的鸿沟。


  • 我意识到,AI作为新一代通用技术,目前在多个维度上的“效率”都极其低下——能量效率、模型效率和学习效率。


  • scaling 确实有效——更多的数据、更大的模型通常能带来性能提升,但并非总是成正比...我认为最终的策略是一种折中:你要尊重 scaling law,但不能迷信它。


  • Aizip的思路是反向而行的——不是做更大,而是做“全球最小、最高效”的AI系统。这和主流强调通用人工智能(AGI)、取代人的方向并不一致。我的研究始终有两个方向,一是基础学习效率的提升,一是构建高度可用的系统工程。


  • 我们有一个共识:不追逐短期名利,更关注长期价值。我们特别注重“高能力、低ego”的人,希望公司像一个协作网络,每个关键点都由真正强者撑起来,而不是层级式运作。


  • 我认为未来超过50%的推理将会在设备端完成...当用户愿意买、芯片能支持、模型能落地,on-device AI 的时代就会到来。我认为这个拐点最晚两三年内就会到达。


  • 我们的定位就是做这些客户的后盾。Aizip希望成为那些“有AI需求、但不具备全栈AI能力”的企业的基础支持方。


  • 一家公司的发展通常经历三个阶段:技术优势→ 规模优势 → 品牌优势。技术优势能带来时间差,比如领先半年到两年,但不可能是二十年。关键在于把技术优势转化为落地能力,进而转化为规模效应。


01 长期研究AI,期望提升AI能量效率、模型效率及学习效率


ZP: 请先向读者们介绍一下自己的背景吧,可以从求学时的经历、成长和映射到现在的价值观开始?


陈羽北: 我本科毕业于清华大学电子系。最早对人工智能产生兴趣可以追溯到2008年大一入学的时候。那时AI还远未成为热门方向,我们因起步较早,算是“赶早了”。当时我和同学参加了百度杯AI游戏竞赛,并获得了亚军。我们接触到的主要是搜索和专家系统相关内容,学习资料大多来自机械工业出版社。那段时间我一度对AI产生动摇,觉得这些传统方向并不是我理想中AI该有的模样。尽管现在回过头来看,搜索技术其实非常重要,但当时我更渴望理解“学习”的本质,而非仅仅在知识库中检索已有答案。因此后来我转向了高性能计算方向的探索。


这段经历虽未直接引导我继续走AI道路,却让我意识到计算能力的提升在推动AI发展中扮演着基础性角色。而真正让我下定决心投身AI的契机,是在一次斯坦福暑期实习中。那个夏天我思考了很多,也与不少优秀的同学交流,包括焦剑涛等人,给了我很多启发。最终,我决定申请伯克利的研究生,正式投身AI研究。在斯坦福实习期间,我所在的实验室主要做图形学与数值计算方面的工作。在和导师交流后,他建议我去伯克利继续深造,当时斯坦福很多老师已经转向创业,而伯克利在基础研究上更具优势。


进入伯克利后,我的研究方向也发生了重要转变——从偏应用的工程开发,转向基础性的AI理论探索。当时正值AlexNet刚刚发表,我对“仅让深度模型跑起来”这件事并不满足,更希望理解AI背后的数理机制,建立一套理论体系,同时也希望借此理解人脑的学习原理。因此我选择加入计算神经科学家Bruno Olshausen的课题组。在那里,我聚焦于“白盒模型”的研究,将数学、电子工程、机器学习与计算神经科学相结合,目标是构建一种既能解析输入信号空间、又能揭示模型有效性机制的系统。这也是我至今仍在延续的研究方向。


博士毕业后,我意识到自己在工程能力上尚有短板,于是选择加入Yann LeCun的团队,在Facebook AI Reserarch (如今的Meta Fundamental AI Research)以及纽约大学从事博士后研究。他所在团队在深度学习工程方面经验深厚,这段经历也帮助我补齐了模型工程化与规模化模型训练方面的能力。


ZP: 我们内部有个观点,认为一项技术的跨越式发展通常会经历三个阶段:一是基础数据和算法不足,需要大量学术研究;二是进入工程阶段,解决准确性问题;三是进入规模化阶段,优化成本和生成速度。

您认同这样的技术路径吗?2020年是否是AI从学术走向工程的关键节点?Aizip在那一年成立,有什么特别的契机?


陈羽北: 我非常认同这样的阶段划分,2020年确实是关键节点。那一年突如其来的疫情打乱了原计划。我原本打算博士毕业后去Yann LeCun的实验室做博士后,但因疫情滞留在家,于是开始和团队讨论创业,Aizip最终在2020年8月正式成立。从前期准备算起,应该是在年初就启动了。


Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命


ZP: 创立了Aizip的过程中,您的创业心态、以及对AI的理解有发生变化吗?


陈羽北: 是的,变化很大。我的两位联合创始人比我经验丰富,一位来自斯坦福,一位来自CMU,其中一位之前已经创过几家公司。他是我在斯坦福时UGVR fellowship的赞助人,我们最初就是在讨论如何做出真正能在现实世界中运行的AI模型时聊到一起的。


对我来说,这是第一次真正思考“落地”这件事。在学校里大家做的更多是基础研究,实战经验很少。而系统工程真正的成就感,是你的成果能在现实中发挥作用。因此,构建一个真正能规模化使用的AI系统,是我最初的创业动因之一。


第二个动因则来自对“数据入口”演进的观察。从PC到移动互联网,每一次平台的更迭都伴随着交互界面的变革。智能手机的触控界面促成了移动互联网的崛起。现在,如果AI成为下一代计算平台,那么未来的数据入口也许不再是手机,而是摄像头、麦克风、各种传感器。这种入口的迁移可能带来新一轮平台机会。我当时就判断,on-device AI 会是一个巨大的切入点。


第三个动因,是对AI作为“效率革命”本质的深入反思。这个动因在2020年还没有完全成型,直到有一天我在纽约与Yann共进午餐,他问了我一个问题:“你研究AI基本原理的意义是什么?”这个问题让我彻底想清楚了。


我意识到,AI作为新一代通用技术,目前在多个维度上的“效率”都极其低下——


首先是能量效率。人脑仅消耗约20瓦功率,而运行一个600B参数的大模型至少需要两台服务器,每台八卡,功耗在四五千瓦以上。即使ChatGPT知识量更大,但在人类擅长的泛化和能耗比上,AI仍落后数个数量级。


第二是模型效率。以跳蛛(Jumping Spider)为例,它有八只眼、360度视野和三维感知能力,仅靠几百万神经元就能完成复杂的猎物规划。而今天的自动驾驶系统要完成类似任务却需数十亿参数。自然智能在感知和规划能力上的紧凑性和鲁棒性,远超当前AI系统。


第三是学习效率。大模型依赖巨量数据,例如LLaMA 3训练使用了15T tokens,下一代甚至要训练到100T以上。而人类一生接收的信息可能不超过100亿token(约10万本书)。同样实现泛化,人类的数据使用效率领先AI三到四个数量级。


Yann的问题让我意识到,寻找AI学习的基本规律,就像热力学之于内燃机的效率革命一样,目标不是短期性能优化,而是突破效率瓶颈,实现跨数量级的跃迁。这是我长期科研探索的核心动因——将AI从“能用”推进到“高效能用”,缩小人工智能与自然智能之间的鸿沟。


ZP: 在博士后阶段,您是否对早期创业时的一些技术或战略认知有了新的反思或转变?


陈羽北: 可以说是加深了理解,也确实有一些观念发生了调整。比如我对“效率”的关注从未改变,甚至更为强化,但我对 scaling law 的态度发生了变化。在伯克利时期,我们也会做一些偏工程化的研究,发过 CVPR 等应用类会议,但那时算力资源有限,很难真正理解什么是最前沿的 “state-of-the-art”。


进入 Meta(Facebook)后情况完全不同。当时我在 Yann LeCun 的团队中,能直接使用每次训练配备 512 张 V100 显卡的大规模算力。我们写一篇论文消耗的计算资源可能就要花上百万美元。算力的充裕让我们能密集试验各种想法,也真正理解了 scaling 的边界与价值。


scaling 确实有效——更多的数据、更大的模型以及更直接的优化通常能带来性能提升,但并非总是成正比。比如,数据规模扩大 300 倍,模型性能可能只提升个位数的百分点。这让我开始反思数据质量、模型结构、工程严谨性等因素的实际影响。换句话说,有了充足资源后,你才真正知道哪些研究方向值得投入,哪些在资源有限时可以回避。


ZP: 在那段时间,很多AI创业公司盲目推高模型规模,资源其实已经极限了,却很难再从 scaling 中获得突破,这是不是也是您认知转变的一部分?


陈羽北:是的。我认为最终的策略是一种折中:你要尊重 scaling law,但不能迷信它。特别是在我们创立 Aizip 的时候,我们的思路是反向而行的——不是做更大,而是做“全球最小、最高效”的AI系统。这和主流强调通用人工智能(AGI)、取代人的方向并不一致。


我的研究始终有两个方向,一是基础学习效率的提升,一是构建高度可用的系统工程。


基础研究方面,我长期致力于构建“白盒模型”,探索无监督学习中的数学规律。核心在于理解信号空间的本质结构——图像空间是圆的?方的?如何进行解析?这类问题帮助我们真正掌握模型为何能工作,以及其边界在哪里。


另一方面,我也非常关注“世界模型”的研究,类似构建一台能“做梦”的机器。相比白盒模型关注内部结构,世界模型的目标是模拟整个现实世界,是生成模型的终极形式:不仅可以还原数据,还可以模拟交互、预测行动、决策行为。前者追求解释性与简洁性,后者追求综合建模与真实互动。


这两条路线看似分离,实则互补。提升学习效率和打造小而强的系统,最终都是为了推动 AI 技术向更高效、可控、可部署的方向演化,而不是单纯追求规模或效果指标上的“数字游戏”。


02 AI在日常生活中触及程度仍旧较低,让AI进入真实产品中


ZP: 您刚才提到,2020年是Aizip创立的关键节点,能否更详细聊聊,当时是什么促使您从学术研究转向创业?为什么是这家公司、这几个联合创始人、在那个时间点?


陈羽北: 我一直做的是AI基础研究,但作为工程师,我始终有一个愿望——希望AI不仅停留在论文里,而是真正走进现实世界的产品。如果有一天,身边人用的AI系统很多都是你参与构建的,那种成就感是很不一样的。


2020年疫情期间,原本计划去Yann LeCun实验室做博士后的计划被打乱,于是我开始认真思考创业的可能性。刚好身边有两位资深的朋友,一起聊起来非常契合,就迅速启动了公司。他们技术背景深厚,也都经历过完整的创业周期,是非常值得信任的合作伙伴。


他们是我亦师亦友的角色,比我更资深,也都实现了财务自由。我们有一个共识:不追逐短期名利,更关注长期价值。其中一位联创是CMU PhD,曾创立一家EDA公司,服务过英伟达、苹果和Intel,后来被博通收购。他AI的debug能力极强,能精准定位模型训练到部署性能下降的许多根本原因,在复杂系统调试中极为关键。另一位是上世纪90年代斯坦福PhD,毕业后加入贝尔实验室,是光通信领域的先驱者,后来连续创业,涉足过移动视频、激光雷达等多个技术周期,是真正经历过高低起伏、依然能够沉住气思考长期问题的技术人。


我们特别注重“高能力、低ego”的人。现在团队已有30多位全职成员,算上兼职和顾问约有50人。每个人至少要在一个方向上是专家,并能带领团队走得更深。例如我们的CTO是斯坦福PhD,师从Phillip Wang,硬软兼备,正在带领我们构建高效的小语言模型系统;还有我伯克利时期的师弟,是物理系博士,模型调优能力可能是我见过最强的之一。我们希望公司像一个协作网络,每个关键点都由真正强者撑起来,而不是层级式运作。


ZP: 在从学术走到创业这条路上,您经历了身份的多重切换,从研究者到联合创始人,再到管理者,是否遇到过适应或心理上的挑战?


陈羽北:幸好我们的团队非常包容,也很信任彼此。早期确实很辛苦,比如凌晨两三点还在车库调机器,室温超过40度,噪音超130分贝,那时候我就是主要的写码人和运维者。后来在做博士后期间,我主要负责吸引优秀研究员加入,评估技术趋势、筛选可落地的方向。


我们没有融资,三位联合创始人多年仅象征性领取一美元年薪。公司完全靠产品营收活着,所以每一个模型、每一份代码都必须真实落地。这种环境对团队要求极高,尤其需要极强执行力和稳定的心态。


03 待软件、硬件、市场三者对齐后,on-device AI的革命将到来


ZP: 能否请您先简要介绍一下Aizip的核心产品结构?我们看到公司有模型、有硬件能力,涉及多个模态,能帮我们梳理一下几个主要板块吗?


陈羽北: 我们本质上是一家纯软件公司,只做AI模型的研发,但我们对硬件有非常深的理解,尤其是嵌入式算力领域。目前全球几乎所有在做高效硬件、MCU、小型NPU的头部企业,基本都在我们的生态体系内。我们一位联合创始人过去创立的公司曾服务于Apple等客户,也因此让我们具备非常强的硬件感知能力。但我们的战略是专注模型,并愿意与全球各类硬件平台开放合作。


Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命


我们的产品线围绕“三类感知模态 + 语言模型”展开:


1.多模态感知模型——涵盖声音、视觉和时序。


2.语言模型——涵盖推理、规划与控制,例如Agent中的Tool Calling能力。


具体来说,在声音智能方面,我们覆盖从最基础的语音唤醒,到语音识别、语音合成等完整链路。在视觉模态中,我们做了大量的定制化模型,包括物体识别、人脸识别、OCR、甚至Visual Language Model(尚处于由研发向落地转变阶段)。时序模态则更聚焦于高精度的“下一步预测”能力——类似文本中的next-token prediction,只不过应用于时间序列。在这些基础模型稳定之后,它们可以被部署在每年出货量上亿的各类设备中,实现“隐形嵌入”,用户几乎察觉不到AI的存在,但体验感被显著提升。


现实中很多智能其实是非语言性的,是分布在系统底层的“微智能”。AI作为一种新型软件,它的应用场景远比我们日常谈论的“对话助手”要广泛得多。预测类模型可以应用在电网调度、环境感知、行为联动等无数场景中,这些都不需要构建一个“能聊天的AI”,但它确实是AI。


控制和规划则由我们的小语言模型来承担。我们也在开发voice-AI agent,其中融合了语音识别、小语言模型、local RAG等能力。在边缘推理(on-device inference)方面,这种本地智能系统可以实现更高的效率、更强的隐私保护和更低的延迟。


ZP: 这是否会与AutoGPT、LangChain等云端agent基础设施公司形成竞争关系?


陈羽北: 不会。我们所处的是on-device AI这个方向,目前它还是一片蓝海。云端虽然热度高,但大部分AI资源都围绕云服务在卷。而我们在设备端做AI模型部署,反而回避了这类竞争。


目前确实有一些公司在做On-Device AI,但整体规模远不如云端激烈。大厂的主要收入来自云服务,对设备侧并不重视。但我认为未来超过50%的推理将会在设备端完成。


举个例子,你在耳机里部署一个降噪模型,它必须实时运行,不可能上传到云端处理。比如电视中的图像超分模型,也需要本地完成。这些就是非语言的AI能力,它们低调但不可或缺。


而语言模型也不等于要“大”。现在我们已经能在手机上跑3B参数的产品级小模型,它可以完成本地路线推荐、语音助手等任务,鲁棒性还非常强。


ZP: 我们看到很多做Assistant Agent的公司,都在云上跑任务:帮你查日历、改行程、叫车、订外卖……但这些交互对延迟非常敏感,而且用户也不希望自己的数据上云。device调用APP即可,AI不应强依赖网络。


陈羽北: 完全同意。我家里有多个摄像头和麦克风,光想象所有语音数据要传到云上处理,就会觉得不安。每个房间都有七八个麦克风和摄像头,这不是一个令人舒适的生活方式。所以本地AI非常重要,不只是效率和体验问题,更关乎隐私与心理安全。


Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命


ZP: 感觉现在的资本市场和行业关注点偏重云端Agent,对设备端忽略较多。而实际上,很多我们今天在云上讨论的AI能力,未来都是可以被部署到终端上的?


陈羽北: 我相信两者都会有,只是阶段不同。在中国,即使用户对数据隐私不够敏感,但对价格很敏感。而云端推理是极其昂贵的。当前在没有形成规模效应前,价格很难压下来,一旦使用量大起来,成本是成倍增长的。


真正的转折点,是on-device AI实现“质价比跃迁”——既好用、又足够便宜。


但这场革命尚未真正发生,它的拐点将由三股力量决定:


1.市场准备:用户是否愿意为低延迟、高隐私的AI产品付费?现在我们看到市场已有较大变化。很多人AI月支出是200美元,如果降到150且效果不变,他们是愿意接受的。


2.硬件演进:芯片能力正快速迭代。苹果的A11芯片初代Neural Engine是0.6 TOPS,到了A18已达35 TOPS。再过两年,终端设备将拥有上百TOPS的推理能力。


3.软件突破:在过去6–12个月里,小语言模型的进步速度甚至超过了大模型。除了规模,数据质量和训练方式也变得至关重要。我们通过大模型蒸馏,正在获得更具推理能力的小模型。


当这三股力量真正汇合——即用户愿意买、芯片能支持、模型能落地,on-device AI 的时代就会到来。我认为这个拐点最晚两三年内就会到达。


04 做硬件公司背后的后盾支柱,将技术优势转化为规模及品牌优势


ZP: 关于商业化,有人可能会联想到自动驾驶领域,认为只有车企才能做自动驾驶,像地平线这样专注软件的公司很难突围。那对于AI on-device模型的这一波趋势,您是如何判断其商业落地路径的?


陈羽北: 目前除了苹果,其他品牌的on-device生态还没有形成闭环。但我认为,像百度、小米这些公司很可能会陆续建立起自己的AI模型团队。而对于大量中小型硬件厂商来说,自建on-device AI团队的门槛很高,无论是招人还是系统落地的效率都难以保障。


在这个背景下,我们的定位就是做这些客户的后盾。Aizip希望成为那些“有AI需求、但不具备全栈AI能力”的企业的基础支持方。他们可以先聚焦应用层,把产品做起来,等业务足够大之后再考虑自建AI团队。

而我们做的,就是推动on-device智能的普及——在行业还未全面看好这个方向的时候,成为最先推动它的人。


这也与自动驾驶不同。我们不做自动驾驶,是因为我们认为车企应该自己掌握核心ADAS能力。AI模型不是为了做“fancy demo”,而是要解决现实中的广泛需求。我们更关注那些模型价值可以扩展到大量产品品类中,但单个品类又不足以支撑一个独立ML团队的场景。


ZP: 在商业模式方面,能否请您介绍一下Aizip是如何一步步构建出当前的路径的?


陈羽北: 一家公司的发展通常经历三个阶段:技术优势 → 规模优势 → 品牌优势。技术优势能带来时间差,比如领先半年到两年,但不可能是二十年。关键在于把技术优势转化为落地能力,进而转化为规模效应。


我们的策略是构建一个兼容主流硬件生态的AI模型体系,让客户一次性集成多个AI能力,而不是从多个供应商碎片化采购。这种集成的复杂度和服务深度,会逐渐形成网络效应。等到未来某一天,当客户想到on-device AI,就会自然想到Aizip,那就是我们的品牌价值。


我们不希望在产品未成熟前大规模扩张或做营销。过去三年我们并未把重点放在营收或规模化上,而是专注技术验证和模型稳定性。一旦提前扩张,很容易出现市场没起来、资源已透支的局面。


融资也一样,我们不是那种“先融资后试错等风来”的策略团队。如果产品不准备好,我们宁愿不扩张、不宣传。直到现在,我们的模型已有明确的量产落地经验,我们才开始适度推进商业化节奏。


ZP: 那在客户合作和模型落地方面,目前有哪些比较成熟的进展?


陈羽北: 目前我们已经与全球多家头部硬件厂商展开合作,合作对象包括Renesas, ADI, Softbank, Lattice, Cadence, Qualcomm, Bosch,ARM,Microchip 等知名上市公司。在语言模型方面,我们与软银的合作尤为深入,围绕on-device SLM系统展开研发。在声音智能方向,我们的模型已在多个终端品牌中落地。


Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命


我们也在国际奖项上取得一些成绩。与Bosch合作获得过“Best Sensor of the World”,与Analog Device获得“Best AI Product of the Year”,并与软银在CES上联合展出,获得今年的CES Innovation Award。明年我们将在CES的AI与IoT核心展区设立三倍于今年规模的CES展台,向外界全面展示我们的小模型技术和on-device生态能力。


目前我们每年模型的落地出货量在数千万级别,虽然距离“年出货10亿”的规模还有两个数量级的差距,但这已为我们在模型部署、产品调优等方面提供了足够的验证样本。


ZP: 那从技术角度看,目前我们在哪些方面取得了关键性的突破?


陈羽北: 四年半的时间,对技术的要求远不止于“发表几篇论文”或“使用开源模型”。真正能实现规模部署和稳定可控的,是一整条技术链条的打磨能力。


从数据清洗、模型架构、训练策略,到模型量化、芯片适配、部署优化、模型调试能力,全栈工程能力是必须的。这类工程能力不是某个“技术秘籍”能替代的,而是系统性的、多轮次的打磨过程。


比如Deepseek做MoE的Load Balance、kernel级别的CUDA优化、search+learning的融合等,都是非常扎实的全栈技术投入。如果你没有Core ML团队,没有一支能同时理解科研趋势与工程瓶颈的队伍,就很难在最前沿技术上取得实质性突破。


ZP: 您和团队Base在北美,是如何看待中国的AI发展的?有没有您比较看好的初创公司?


陈羽北: 我很欣赏Deepseek团队的风格。除了技术能力强,他们也比较低调,更重视做事而不是讲故事。特别是他们在百模大战中保持定力,一直踏实做事,这点我很认同。


此外,我对OpenAI最近提出的Operator概念也非常关注。我们正看到一个趋势:learning 与 search 正在融合。历史上最可扩展的AI路线就是这两条,《The Bitter Lesson》这篇文章对此有非常深刻的总结。如今,当search与learning不再割裂,而是开始协同时,我认为是一个可能带来突破的关键窗口。


我们也欣赏很多其他公司,比如宇树机器人等。这些公司不是追逐热点,而是有自己节奏、追求工程价值的队伍,我们非常尊重这种风格。我们也期待与越来越多顶尖的硬件公司合作,一同把有价值的AI体验带入人们的生活中。


文章来自于“Z Potentials”,作者“Z Potentials”。


Z Potentials|专访陈羽北,Aizip打破效率瓶颈,让AI进入真实产品,推动On-Device AI的未来革命

首页 发现
看过 我的