AI热点 3 hours ago 157 Views 0 Comments

从零到40亿次生成:揭秘获得顶级VC青睐的AI基础设施独角兽

AI中国
AI中国

Published 10409 Articles


你有没有想过,为什么AI生成的图片、视频成本这么高昂?当你使用各种AI工具创作内容时,背后每一次推理都在消耗着昂贵的GPU资源,而这些成本最终都转嫁到了开发者和用户身上。想象一下,如果AI媒体生成的成本能够降低90%,整个行业会发生什么样的变化?这不是天方夜谭,而是一家名为Runware的创业公司正在兑现的承诺。


刚刚完成1300万美元种子轮融资的Runware,正在用一种完全不同的方式重新定义AI基础设施。他们不依赖现成的云服务提供商,而是从零开始构建了自己的硬件和软件栈,创造出了所谓的"Sonic推理引擎"。这种垂直整合的方法让他们能够将AI推理成本降低高达90%,同时通过单一API提供对超过40万个AI模型的访问。当我深入了解这家公司的技术架构和商业模式后,我意识到他们可能正在掀起AI基础设施领域的一场革命。



由Insight Partners领投的这轮融资,还得到了a16z Speedrun、Begin Capital和Zero Prime的支持。更重要的是,Runware在不到一年的时间里就已经为超过10万名开发者提供服务,通过他们的平台生成了超过40亿个视觉资产,为包括Quora、NightCafe、OpenArt在内的知名平台提供AI能力支持。这些数字不仅证明了市场对低成本AI基础设施的强烈需求,也显示了Runware技术方案的可行性和竞争力。


PS:我自己项目找一位UI设计师背景的同学,但具体工作内容会比较复合,涉及产品、UI设计以及运营增长,需要有留学背景,不错的口语能力和海外产品的UI设计经验,可以实习或者全职,感兴趣的同学欢迎直接加我微信:MohopeX


AI成本危机:开发者的隐形负担


在我与众多AI应用开发者交流的过程中,成本问题几乎是他们最头疼的挑战之一。传统的AI服务提供商依赖于标准的云基础设施,这意味着他们需要支付云服务商的费用,然后再加上自己的利润率转嫁给开发者。这种层层加价的模式,让AI推理的成本居高不下,很多创业公司的预算被GPU费用迅速消耗殆尽。


特别是在视频生成领域,这个问题更加严重。生成一段几秒钟的视频往往需要大量的计算资源和时间,这直接转化为高昂的成本。我见过很多有创意想法的开发团队,因为无法承担大规模AI推理的费用而被迫放弃或大幅缩减他们的产品功能。这种情况不仅限制了创新,也阻碍了AI技术的更广泛应用。



除了成本问题,开发者还面临着技术复杂性的挑战。当前的AI生态系统极度分散,不同的模型提供商有着不同的API接口、定价模式和技术规范。一个完整的AI应用可能需要集成来自十几个不同提供商的服务:图像生成用一家,视频生成用另一家,背景移除又是第三家,文本生成还要找第四家。每增加一个新模型,开发团队就需要花费大量时间进行集成和测试,这极大地拖慢了产品迭代速度。


我曾经帮助一个创业团队评估他们的AI集成方案,发现他们需要管理超过20个不同的API端点,每个都有不同的认证方式、错误处理机制和计费模式。仅仅是维护这些集成就需要一名全职工程师,更不用说当某个服务出现问题时的故障排查和切换成本。这种复杂性不仅增加了开发成本,也降低了系统的可靠性。


Runware的创始人Flaviu Radulescu在接受采访时说:"随着越来越多的模型发布,开发者可能需要集成和维护数十甚至数百个端点。我们看到模型提供商现在转向我们的平台,从我们的推理节点提供他们的API,因为我们能够提供比任何云提供商低90%的推理成本。"这句话精准地概括了当前AI开发者面临的痛点,也解释了为什么Runware的解决方案如此具有吸引力。



Runware的技术革命:从硬件到软件的垂直整合


当我深入研究Runware的技术架构时,我被他们的垂直整合策略深深震撼。与大多数AI服务提供商不同,Runware选择了一条更加困难但也更有潜力的路径:完全自主设计和构建整个AI推理栈,从硬件到软件都不假手于人。


Runware的核心技术是他们自主研发的"Sonic推理引擎",这是一个专门为AI媒体生成优化的定制系统。创始人Flaviu Radulescu在这个领域有着20年的经验,曾经为沃达丰、Booking.com和伦敦交通局等大型客户构建裸机数据集群。这种深厚的硬件和基础设施背景,让他能够从根本上重新思考AI推理应该如何实现。


他们的方法是设计和制造专门的GPU和网络硬件,这些硬件被封装在专有的推理节点中,优化了快速部署和可再生能源的使用。这种垂直整合的设计让他们能够完全控制延迟、吞吐量和成本,而不是依赖于通用的云基础设施。正如Insight Partners的董事总经理George Mathew所说:"Runware优势的核心是其专门构建的Sonic推理引擎。虽然其他公司通常依赖商品化的云基础设施,但Runware构建了自己的工作负载特定基础设施,使其能够在根本层面控制延迟、吞吐量和成本。"



这种技术优势不仅体现在成本上,还体现在性能上。传统的云服务需要为通用性付出代价,而Runware的定制硬件专门为AI推理优化,能够实现更快的推理速度和更高的资源利用率。这种性能优势使得实时AI应用成为可能,用户可以近乎即时地生成图像或视频,这在以前是无法实现的。


我特别欣赏他们在可持续性方面的考虑。Runware的推理节点专门优化了可再生能源的使用,这不仅降低了运营成本,也符合当前对环保的重视。在AI训练和推理消耗越来越多能源的背景下,这种可持续性的考虑显得尤为重要。


软件层面,Runware开发了统一的API接口,能够无缝集成来自不同提供商的40多万个AI模型。这包括来自Black Forest Labs、OpenAI、Ideogram、ByteDance、Kling、Minimax Hailuo、Google Veo、PixVerse、Vidu、阿里巴巴等主要厂商的模型。开发者只需要一个API调用就可以访问任何模型,并且可以通过简单的参数变化来切换模型,无需重新集成。


这种统一接口的价值不仅在于简化集成,还在于提供了前所未有的灵活性。开发者可以在同一个工作流中混合使用不同的模型,比如用一个模型生成基础图像,用另一个模型进行风格转换,再用第三个模型进行细节优化。这种组合式的工作流在传统的分散式服务模式下几乎是不可能实现的。



客户案例:真实世界中的成本节省


理论上的优势需要通过实际案例来验证,而Runware已经有了一些令人印象深刻的客户故事。这些案例不仅证明了他们技术方案的可行性,也展示了成本节省带来的实际商业价值。


NightCafe是一个受欢迎的AI艺术生成平台,其创始人Angus Russell在谈到选择Runware的原因时说:"我们选择Runware作为主要推理合作伙伴,因为他们的价格和API的灵活性。NightCafe的用户是AI的狂热探索者,他们想要尝试所有的模型、超参数、LoRA和其他选项。在其他提供商那里,通常需要不同的端点来处理所有这些功能,但没有一个单一端点能够将它们全部结合。在Runware上,我们只需要一个端点就能发送用户的所有选项。而且成本不到其他提供商的一半,有时甚至不到五分之一。"


这个案例特别有说服力,因为它展示了Runware解决方案的两个核心价值:成本节省和技术简化。对于像NightCafe这样需要支持多种模型和参数的平台来说,传统的方法需要集成和维护数十个不同的API端点,而Runware的统一接口大大简化了这个过程。同时,50%到80%的成本节省直接转化为更好的盈利能力或更低的用户费用。



OpenArt的CEO Coco Mao也给出了类似的评价:"Runware是每个认真的AI应用都应该考虑的隐藏宝石。它在顶级模型上提供极具竞争力的定价,始终如一的强劲性能,以及响应迅速、乐于助人的客户支持。如果你在构建AI应用,Runware应该在你的雷达上。"这种评价特别有价值,因为它来自一个已经在AI领域深耕多年的专业团队。


Focal的联合创始人Robert Cunningham分享了一个特别有趣的故事:"我们在流量激增的那一天转向了Runware。他们的API易于集成,并且非常平稳地处理了突然的负载。他们在质量、速度和价格方面的组合是市场上最好的,并且在我们扩大规模的过程中,他们一直是优秀的合作伙伴。"这个案例展示了Runware系统的可扩展性和可靠性,这对于需要处理不可预测流量的AI应用来说至关重要。



我特别注意到Higgsfield AI的案例,虽然文档中没有详细描述,但提到了"从第一次对话到为数百万用户提供生产部署,只用了几个小时"的快速部署能力。这种快速响应能力在AI行业尤其重要,因为新模型的发布往往没有预警,而市场会立即转向实施它们。能够在几小时内完成从对话到生产部署的整个过程,这种敏捷性是传统基础设施提供商难以匹敌的。


这些客户案例共同展示了Runware方案的几个关键优势:显著的成本节省(通常在50%到80%之间)、技术集成的简化(从数十个API端点减少到一个)、性能和可靠性的提升,以及快速响应市场变化的能力。这些优势的组合正是为什么越来越多的AI应用选择Runware作为他们的基础设施合作伙伴。


市场时机:AI基础设施的关键转折点


我认为Runware出现的时机堪称完美,正好抓住了AI基础设施发展的一个关键转折点。过去几年,我们见证了AI模型能力的爆炸性增长,从简单的文本生成到复杂的图像、视频、音频生成,AI的应用场景越来越广泛。但与此同时,基础设施成本也在急剧上升,成为阻碍AI技术普及的主要瓶颈。


当前的AI市场呈现出一种有趣的分化:一方面是模型能力的快速提升和新模型的频繁发布,另一方面是开发者对成本控制和技术简化的迫切需求。传统的云服务提供商虽然能够提供强大的计算能力,但他们的通用性架构注定了无法在成本和性能上达到最优。这为像Runware这样的专业化解决方案创造了巨大的市场机会。


我注意到,AI应用的发展正在经历一个从"功能导向"到"成本导向"的转变。早期的AI应用更多关注的是"能不能实现某个功能",而现在越来越多的团队开始考虑"如何以可持续的成本实现这个功能"。这种转变为Runware这样的成本优化解决方案提供了广阔的市场空间。


特别是在视频生成领域,我看到了巨大的潜力和挑战。视频生成比图像生成需要更多的计算资源,传统的收费模式让很多应用无法承受大规模的视频生成需求。Runware的成本优势在这个领域尤其明显,可能会催生一批以前因为成本问题无法实现的视频AI应用。


另一个重要的趋势是多模态AI应用的兴起。现代的AI应用越来越需要同时处理文本、图像、视频、音频等多种媒体类型。这种需求使得统一API的价值更加突出,因为开发者不需要为每种媒体类型单独集成不同的服务。Runware正在向音频、大语言模型和3D生成扩展,正好迎合了这种多模态的发展趋势。


我也观察到,企业客户对AI基础设施的需求正在从"尝试性使用"转向"生产级部署"。这种转变对可靠性、性能和成本控制提出了更高的要求。Runware的垂直整合架构和专业化优化,正好满足了这种生产级部署的需求。



从投资角度看,Insight Partners作为全球知名的软件投资机构,选择领投Runware的种子轮,本身就是对这个市场时机和技术方向的强烈认可。George Mathew加入董事会,也为Runware带来了丰富的企业级软件经验和资源网络。这种投资者的支持不仅提供了资金,也为Runware的快速发展提供了战略指导和市场资源。


技术深度:统一API背后的复杂性


虽然Runware对外呈现的是一个简单的统一API,但我深知要实现这种简单性背后的技术复杂度是极其巨大的。将40多万个不同的AI模型整合到一个统一的接口中,需要解决大量的技术挑战,包括模型格式标准化、推理优化、负载均衡、错误处理等多个方面。


模型格式的标准化是最基础也是最困难的挑战之一。不同的AI模型提供商使用不同的输入输出格式、参数命名规范和数据类型。要让这些模型能够通过统一的API调用,需要建立一套完整的转换和适配机制。这不仅仅是简单的格式转换,还需要考虑参数映射、默认值设置、兼容性处理等复杂问题。


推理优化是另一个关键技术点。不同的模型有着不同的计算特性和资源需求,有些模型适合CPU推理,有些需要GPU加速,还有些需要特定的内存配置。Runware的Sonic推理引擎需要智能地为每个模型选择最优的执行环境和参数设置,以实现最佳的性能和成本效益。


我特别关注他们的负载均衡和资源调度机制。当数万名开发者同时通过API调用不同的模型时,系统需要智能地分配计算资源,确保每个请求都能得到及时响应。这需要一套复杂的调度算法,能够预测负载模式、优化资源利用率,并在需要时快速扩容。



错误处理和容错机制也是统一API的重要组成部分。不同的模型可能会出现不同类型的错误,而开发者需要一个一致的错误处理体验。Runware需要将各种底层错误转换为统一的错误格式,并提供有意义的错误信息和恢复建议。


缓存策略是提高性能和降低成本的关键技术。对于相同或相似的输入,系统可以返回缓存的结果而不需要重新推理。但AI生成的特殊性使得缓存策略变得复杂,需要考虑结果的随机性、用户对唯一性的需求、缓存的时效性等因素。


另一个技术亮点是模型的即时切换能力。传统的服务提供商通常需要为每个模型维护单独的服务实例,切换模型意味着重新初始化和加载。Runware声称可以通过简单的参数变化实现模型切换,这意味着他们可能采用了某种模型热加载或者共享运行时的技术,这在技术上是相当有挑战性的。


我也思考过他们如何处理新模型的快速集成。AI领域新模型发布的频率越来越高,有时甚至是每天都有新模型出现。要实现"同日发布"的承诺,需要一套高度自动化的模型集成流水线,能够快速测试、验证和部署新模型,而不需要人工干预。


商业模式创新:重新定义AI服务定价


Runware的商业模式创新不仅体现在技术层面,更体现在定价策略和价值主张上。他们提出的"透明的按生成计费"模式,挑战了传统云服务复杂的定价结构,为AI服务行业带来了新的思路。


传统的AI服务定价通常非常复杂,包括不同的速率限制、定价层级、计费周期等。开发者需要跨多个提供商跟踪不同的费用,这不仅增加了财务管理的复杂性,也使得成本预测变得困难。Runware的统一定价消除了这种复杂性,开发者只需要关注一个简单的指标:每次生成的成本。


我认为这种定价模式的创新意义深远。它不仅简化了采购决策,也改变了开发者对AI服务的思考方式。开发者不再需要考虑"这个月我用了多少GPU小时",而是可以直接思考"我的用户需要多少次AI生成"。这种以结果为导向的定价模式更符合AI应用的实际使用模式。


更重要的是,Runware承诺将基础设施效率带来的成本节省传递给客户,而不是作为利润率的提升。这种策略虽然可能影响短期盈利能力,但有助于快速获取市场份额和建立客户忠诚度。在一个高度竞争的市场中,这种"与客户共赢"的策略可能是明智的长期选择。



我也注意到他们对企业客户的重视。对于高容量部署的企业客户,Runware提供定制化的支持和优先服务。这种差异化服务策略既保证了大客户的体验,也为公司带来了稳定的收入来源。企业客户通常对价格敏感性较低,更关注服务的可靠性和支持质量,这正是Runware的优势所在。


从长期看,我认为Runware的商业模式可能会推动整个AI服务行业向更加透明和客户友好的方向发展。当一家公司能够以显著更低的价格提供同等或更好的服务时,其他竞争对手也会被迫重新审视自己的定价策略和成本结构。


另一个有趣的商业创新是他们的模型提供商合作模式。Runware提到"模型提供商现在转向我们的平台,从我们的推理节点提供他们的API",这表明他们不仅是一个服务集成商,还在逐渐成为一个平台。这种平台化的发展方向可能会创造更多的商业机会和竞争优势。


竞争态势:挑战云巨头的新路径


在AI基础设施领域,Runware面临的竞争对手既包括AWS、Google Cloud、Microsoft Azure等云巨头,也包括OpenAI、Anthropic等AI服务提供商,还有一些专业的AI基础设施公司。在这样一个竞争激烈的市场中,Runware选择了一条与众不同的路径。


与云巨头相比,Runware的优势在于专业化和成本效率。云巨头的基础设施虽然强大,但他们的通用性架构注定了无法在特定领域达到最优。AWS、Google Cloud等服务需要满足各种不同类型的工作负载,这种通用性虽然带来了灵活性,但也带来了成本和性能上的妥协。Runware专门针对AI推理优化的基础设施,在这个特定领域具有明显的优势。


与传统AI服务提供商相比,Runware的差异化在于统一平台和成本透明度。很多AI服务提供商只专注于某一类模型或某一种应用,而Runware提供的是一个全覆盖的平台。这种平台化的策略降低了开发者的集成成本,也提高了用户粘性。


我认为Runware最大的竞争优势来自于他们的垂直整合策略。这种策略虽然需要更大的初期投资和技术风险,但一旦成功,就会形成很强的竞争壁垒。其他竞争对手很难在短期内复制这种从硬件到软件的完整技术栈。


不过,Runware也面临着一些挑战。作为一家相对较小的公司,他们在资源和规模上无法与云巨头相比。如果云巨头决定在AI推理领域进行类似的专业化投资,可能会对Runware构成威胁。维持技术领先也需要持续的研发投入,这对一家创业公司来说是不小的压力。


另一个潜在的竞争威胁来自于硬件厂商。如果NVIDIA、AMD等GPU厂商决定直接提供AI推理服务,他们在硬件层面的优势可能会对Runware形成冲击。不过,硬件厂商通常专注于硬件业务,缺乏软件服务的基因,这为Runware提供了一定的安全边际。


我也注意到,AI模型提供商可能会选择自建基础设施来降低成本。OpenAI、Anthropic等公司都有强大的技术团队,完全有能力开发自己的推理基础设施。但同时,这些公司也需要专注于模型研发,基础设施可能不是他们的核心竞争力。这种取舍为Runware提供了合作机会。


从市场发展的角度看,我认为AI基础设施市场足够大,能够容纳多种不同的解决方案。Runware的专业化策略让他们在特定领域具有竞争优势,而云巨头的通用性策略也有自己的价值。关键是能否在快速变化的市场中保持技术领先和成本优势。


技术展望:多模态AI的基础设施需求


随着AI技术向多模态方向发展,我看到了对统一基础设施需求的进一步增长。未来的AI应用不会局限于单一的媒体类型,而是需要同时处理文本、图像、视频、音频、3D模型等多种格式。这种趋势为Runware这样的统一平台创造了更大的价值空间。


Runware已经开始向音频生成和大语言模型扩展,这是一个明智的战略选择。音频生成是一个快速增长的市场,特别是在播客、音乐制作、语音合成等领域。而大语言模型的集成将使Runware能够支持更复杂的多模态工作流,比如从文本生成图像,再从图像生成视频,最后配上AI生成的音频。


我特别期待他们在3D生成方面的进展。3D内容生成是AI领域的下一个前沿,在游戏、虚拟现实、工业设计等领域有着巨大的应用潜力。但3D生成对计算资源的需求更加巨大,这正是Runware的成本优势能够发挥最大价值的地方。


另一个技术趋势是实时交互式AI生成。用户不再满足于静态的生成结果,而是希望能够实时调整和优化。这需要极低的延迟和极高的并发处理能力,这是Runware的Sonic推理引擎的优势所在。我预期未来会看到更多需要实时响应的AI应用,比如实时视频编辑、交互式3D建模等。


边缘计算也是一个值得关注的方向。虽然云端推理具有资源丰富的优势,但在某些场景下,边缘计算能够提供更低的延迟和更好的隐私保护。Runware的定制硬件和软件可能为边缘部署提供了可能性,这将进一步扩大他们的市场覆盖范围。


我也看到了AI模型个性化的趋势。企业客户越来越希望能够使用针对自己业务定制的AI模型,而不是通用的预训练模型。这需要基础设施提供商支持模型的快速训练、部署和调优。Runware的灵活架构为这种个性化需求提供了技术基础。


从技术发展的角度看,我认为AI基础设施正在从"通用计算"向"专用计算"演进。就像GPU为图形处理专门优化一样,未来可能会出现专门为不同类型AI任务优化的硬件和软件。Runware在这个方向上的探索,可能会为整个行业树立新的标准。


投资逻辑:为什么顶级VC看好这个赛道


当我分析Runware获得1300万美元种子轮融资的投资逻辑时,我发现这不仅仅是对一家公司的投资,更是对整个AI基础设施发展方向的bet。Insight Partners作为全球知名的软件投资机构,他们的投资决策背后有着深刻的行业洞察。


George Mathew在加入Runware董事会时的表态很能说明问题:"Runware优势的核心是其专门构建的Sonic推理引擎。虽然其他公司通常依赖商品化的云基础设施,但Runware构建了自己的工作负载特定基础设施,使其能够在根本层面控制延迟、吞吐量和成本。这种技术优势可能是变革性的,也是使Runware成为AI媒体生成性能领导者的原因。"这段话几乎总结了整个投资逻辑:技术差异化、成本控制能力和市场领导地位的潜力。


从市场规模来看,AI推理市场正在经历爆发式增长。随着越来越多的应用集成AI功能,对推理服务的需求呈指数级增长。而传统的云服务提供商虽然能够满足基本需求,但在成本和性能上的劣势将越来越明显。这为专业化的解决方案提供了巨大的市场机会。


我特别关注Runware的收入增长数据。在不到一年的时间里,月收入增长了40倍,这种增长速度在任何行业都是罕见的。更重要的是,这种增长是在一个技术密集型、高壁垒的市场中实现的,说明了市场对他们解决方案的强烈需求。


投资者还看中了Runware的防御性。AI推理是所有AI应用的必需品,不像某些特定应用可能会受到市场周期或用户偏好变化的影响。只要AI技术继续发展,对推理服务的需求就会持续存在。这种刚需特性为投资提供了很强的安全边际。


另一个投资亮点是团队的执行能力。Flaviu Radulescu在基础设施领域的20年经验,以及团队在短期内取得的技术突破和商业成果,都证明了他们具备将愿景转化为现实的能力。在一个技术驱动的行业中,团队的执行力往往比商业模式更加重要。


我也注意到,a16z Speedrun作为连续投资者参与了这轮融资。a16z在AI领域的投资眼光一直很准,他们的连续投资是对Runware发展轨迹的强烈认可。这种连续投资也为Runware提供了更稳定的资本支持和战略指导。


从退出策略看,AI基础设施公司有着多样化的退出选择。既可能被云巨头收购以增强他们的AI服务能力,也可能被大型企业客户收购以内化这种核心能力,还有IPO的可能性。这种多样化的退出路径降低了投资风险,提高了投资回报的确定性。


未来展望:AI基础设施的新纪元


站在当前这个时间点,我相信我们正处在AI基础设施发展的一个重要转折点。Runware的成功不仅仅是一家公司的胜利,更代表着整个行业向更高效、更经济、更开放方向发展的趋势。


从短期来看,我预期Runware会继续扩展其模型覆盖范围,特别是在音频、大语言模型和3D生成方面。这种扩展不仅会增加他们的市场覆盖面,也会提高客户粘性。当开发者能够通过一个平台满足所有AI需求时,切换成本会变得非常高。


技术层面,我期待看到Runware在推理速度和成本优化方面的进一步突破。随着他们规模的扩大和技术的成熟,我相信还有进一步降低成本的空间。如果他们能够将成本优势从目前的90%提高到95%甚至更高,将会彻底改变AI服务的经济模型。


我也关注他们在边缘计算方面的潜在发展。虽然云端推理有其优势,但某些应用场景需要更低的延迟和更好的隐私保护。如果Runware能够将他们的技术优势扩展到边缘设备,将会开辟一个全新的市场空间。


从商业模式看,我预期Runware可能会逐渐发展成为一个平台,不仅提供推理服务,还提供模型训练、部署、监控等全套AI基础设施服务。这种平台化的发展方向会提高客户价值,也会增强竞争壁垒。


长期来看,我认为AI基础设施市场会出现进一步的分化。通用的基础设施服务会逐渐商品化,而专业化的解决方案会获得更高的价值。Runware在专业化方面的先发优势可能会让他们在这种分化中受益。


我也思考过AI基础设施对全球技术竞争格局的影响。拥有领先AI基础设施的国家和公司会在AI应用方面获得显著优势。这可能会推动更多的技术投资和政策支持,形成良性循环。



从投资角度看,我认为AI基础设施仍然是一个被低估的赛道。虽然AI应用获得了大量关注和投资,但支撑这些应用的基础设施同样重要。随着AI应用的普及,对高性能、低成本基础设施的需求只会继续增长。


最终,我相信像Runware这样的创新公司会推动整个AI行业向更加民主化的方向发展。当AI技术变得更加易用和经济时,更多的开发者、创业者和企业能够参与到AI创新中来。这种普及化的趋势不仅会带来更多的商业机会,也会加速人工智能技术对社会各个领域的积极影响。AI的未来不仅属于大公司和研究机构,也属于每一个有创意和想法的开发者。而Runware正在为这个未来铺设基础设施。




文章来自于微信公众号 “深思圈”,作者 “深思圈”

AI中国

AI中国

10409 Articles 1832910 Views 950300 Fans

Comment (0)

睡觉动画