现在人工智能领域正在发生着很多事情!过去需要数年开发的应用现在可以在周末黑客马拉松活动中建立。这完全说明了基础模型的强大(我们尚未找到其极限),以及基础设施层快速创新的力量,使更多开发人员能够使用这种能力。虽然这种进展打开了令人兴奋的可能性,但对于开发人员来说,也带来了挑战,他们可能会因为可用选项的纷繁复杂而感到不知所措。幸运的是,随着生态系统的成熟,我们正在看到新的生成式人工智能堆栈组件的出现。
应用框架已经出现,可以快速吸收新创新的风暴,并将它们合理化为一个连贯的编程模型。它们简化了开发过程,使开发人员能够快速迭代。
出现了几种框架,每种都建立了自己的可互换和互补的工具生态系统。LangChain已成为开发者社区使用基础模型构建的开源焦点。Fixie正在构建用于创建、部署和管理AI代理的企业级平台。云服务提供商也在构建应用框架,例如微软的语义内核和Google Cloud的Vertex AI平台。
开发人员正在使用这些框架创建生成新内容的应用程序,创建允许用户使用自然语言搜索内容的语义系统,以及执行任务的代理。这些应用程序已经从根本上改变了我们创造、综合信息和工作的方式。
工具生态系统使应用程序开发者更容易利用其客户的领域专业知识和理解,而无需在基础设施层面上具备所需的技术深度,从而更容易实现其愿景。今天的生态系统可以分为四个部分:模型、数据、评估平台和部署。
让我们从基础模型(Foundational Model, FM)本身开始。FM能够进行类似于人类的推理。它们是所有这些背后的“大脑”。开发人员可以选择多个FM,其输出质量、模态、上下文窗口大小、成本和延迟不同。最优设计通常要求开发人员在其应用程序中使用多个FM的组合。
开发人员可以选择供应商Open AI、Anthropic或Cohere创建的专有FM,或者使用越来越多的开放源代码FM之一。开发人员还可以选择训练自己的模型。
LLM是一种强大的技术。但是,它们受限于它们所训练的事实推理。这对于希望根据自己关心的数据做出决策的开发人员来说是限制性的。幸运的是,开发人员可以使用机制来连接和操作他们的数据:
LLM开发者需要在模型性能、推理成本和延迟之间进行权衡。开发者可以通过在提示、微调模型或在不同的模型提供商之间切换来改善这三个方面的性能。然而,由于LLM的概率性和任务的不确定性,评估性能更加复杂。
幸运的是,有几个评估工具可以帮助开发者确定最佳提示,提供离线和在线实验跟踪,并监控生产中的模型性能:
最终,开发人员希望将他们的应用程序部署到生产环境中。
开发人员可以自行托管LLM应用程序,并使用流行的框架(如Gradio)将其部署。此外,开发人员还可以使用第三方服务来部署应用程序。
Fixie可用于构建、共享和部署生产中的代理。
上个月,我们在西雅图的OctoML总部举办了一次AI聚会,像其他城市的聚会一样,我们对参与者的数量和演示的质量感到不可思议。我们对科学和工具生态系统的发展速度感到惊讶,并为即将解锁的新可能性感到兴奋。
我们特别期待的领域包括将基础模型的功能带给更多构建者的无代码接口、LLM的最新安全性进展、更好的机制来控制和监控模型输出的质量,以及新的方法来蒸馏模型以使它们更便宜地在生产中运行。
对于正在构建或了解这个快速发展的生态系统的开发人员,请通过palak@madrona.com联系我们。
https://www.madrona.com/the-generative-ai-tech-stack-market-map/
页面更新:2024-05-06
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号