AWS
使用 EventBridge 调度 AWS Lambda
得益于 Lambda 的免运维,快速部署等特性,现在越来越多的应用都使用 Serverless 技术。本文演示了一个场景,定时调度 Lambda,将 AWS 的 EC2 资源导出到 AWS 的数据湖 - S3 存储桶。
Amazon Bedrock 内置知识库使用入门
本文是 Amazon Bedrock 自带的知识库的一个入门体验,用起来真的很方便,节省了前期的一堆劳动。
入门 Amazon Bedrock 只看这一篇就够了
Amazon Bedrock 简要说就是是 AWS 的一项完全托管的服务,通过 API 调用各种优质大模型。本文将总结其基本用法,并提供完整的示例。
使用 KeyBERT 进行关键字提取
在知识库搜索/问答场景中,用户输入的搜索内容有可能是一个完整的句子,在这个情况下,进行向量化之前,一般建议要进行关键字提取或者意图识别。在专业领域,一般可以训练一个模型来进行此项工作。使用模型提取关键字,可以使用 KeyBERT 这个库来完成。
在 AWS Inferentia 2 上使用 Stable Diffusion
AWS Inferentia2 实例专为深度学习(DL)推理而构建。它们在 Amazon EC2 中以最低的成本为生成式人工智能(AI)模型(包括大型语言模型(LLM)和视觉转换器)提供高性能计算。您可以使用 Inf2 实例来运行推理应用程序,以实现文本摘要、代码生成、视频和图像生成、语音识别、个性化、欺诈检测等等。
使用 Cloudfront Lambda@Edge 实现图片格式转换
Cloudfront Lambda@Edge 可以在边缘端完成一系列逻辑操作。 本文使用 AWS Serverless Application Model(AWS SAM) 实现了将图片处理成 WebP 格式。
在 AWS 上使用 Stable Diffusion 给商品更换模特(二)
现在,我准备上传图片和蒙版到 S3,触发部署代码,并完成任务,推理完成之后,释放 Endpoint。
在 AWS 上使用 Stable Diffusion 给商品更换模特(一)
给商品图片安上模特可以使用 stable-diffusion-inpainting 这个模型来轻松实现。本文探讨使用 AWS 服务来进行流水线方式生产,并最大程度节约使用成本。
在 SageMaker 上部署 Huggingface 模型 (二)
在 Huggingface 上,有些模型并没有 Deploy - Sagemaker 这个功能,或者我们需要做一些特殊的任务,怎么办?本文介绍了如何让 SageMaker 调用自定义的推理代码。
在 SageMaker 上部署 Huggingface 模型 (一)
在 Huggingface 上浏览模型的时候,会看到一个 Deploy 按钮,很多模型点开会看到 Amazon SageMaker 选项,然后会看到一段代码。今天便试了一下这个,下面是测试过程:在本机运行运行代码,把 Huggingface 的 模型部署到 SageMaker 上并运行推理。