人工智能&机器学习
Amazon Bedrock 内置知识库使用入门
本文是 Amazon Bedrock 自带的知识库的一个入门体验,用起来真的很方便,节省了前期的一堆劳动。
入门 Amazon Bedrock 只看这一篇就够了
Amazon Bedrock 简要说就是是 AWS 的一项完全托管的服务,通过 API 调用各种优质大模型。本文将总结其基本用法,并提供完整的示例。
使用 KeyBERT 进行关键字提取
在知识库搜索/问答场景中,用户输入的搜索内容有可能是一个完整的句子,在这个情况下,进行向量化之前,一般建议要进行关键字提取或者意图识别。在专业领域,一般可以训练一个模型来进行此项工作。使用模型提取关键字,可以使用 KeyBERT 这个库来完成。
在 AWS Inferentia 2 上使用 Stable Diffusion
AWS Inferentia2 实例专为深度学习(DL)推理而构建。它们在 Amazon EC2 中以最低的成本为生成式人工智能(AI)模型(包括大型语言模型(LLM)和视觉转换器)提供高性能计算。您可以使用 Inf2 实例来运行推理应用程序,以实现文本摘要、代码生成、视频和图像生成、语音识别、个性化、欺诈检测等等。
使用 SageMaker 部署 ChatGLM-6B 自定义 API
ChatGLM-6B 默认是一个聊天模型,也可以用来提取 embeddings。但当前的企业内部智能搜索方案大多都使用了 text2vec + LLM 多个模型,text2vec 用于向量生产,LLM 用于对查询结果进行总结。本文试试图使用同一个 LLM 模型完成这两项工作,编写自定义 API,并将模型部署到 SageMaker 上。
在 AWS 上使用 Stable Diffusion 给商品更换模特(二)
现在,我准备上传图片和蒙版到 S3,触发部署代码,并完成任务,推理完成之后,释放 Endpoint。
在 AWS 上使用 Stable Diffusion 给商品更换模特(一)
给商品图片安上模特可以使用 stable-diffusion-inpainting 这个模型来轻松实现。本文探讨使用 AWS 服务来进行流水线方式生产,并最大程度节约使用成本。
在 SageMaker 上部署 Huggingface 模型 (二)
在 Huggingface 上,有些模型并没有 Deploy - Sagemaker 这个功能,或者我们需要做一些特殊的任务,怎么办?本文介绍了如何让 SageMaker 调用自定义的推理代码。
在 SageMaker 上部署 Huggingface 模型 (一)
在 Huggingface 上浏览模型的时候,会看到一个 Deploy 按钮,很多模型点开会看到 Amazon SageMaker 选项,然后会看到一段代码。今天便试了一下这个,下面是测试过程:在本机运行运行代码,把 Huggingface 的 模型部署到 SageMaker 上并运行推理。
使用 LLM embeddings 进行数据存储和检索的新姿势
大语言模型可以将文字转化为 embeddings, embeddings 是一个向量(浮点数) 数组。把向量数组存到数据库,然后我们通过搜索最接近的向量就可以得到搜索结果了。本文试验了这一方式。