AIAS/1_image_sdks/seg_sam2_sdk
2024-11-07 16:40:05 +08:00
..
build/output 更新 Sam2图像分割,支持cpu,gpu,抠图。 2024-11-07 14:54:46 +08:00
models update readme. 2024-11-07 16:40:05 +08:00
src 更新 Sam2图像分割,支持cpu,gpu,抠图。 2024-11-07 14:54:46 +08:00
pom_win_cpu.xml 更新 Sam2图像分割,支持cpu,gpu,抠图。 2024-11-07 14:54:46 +08:00
pom_win_gpu.xml 更新 Sam2图像分割,支持cpu,gpu,抠图。 2024-11-07 14:54:46 +08:00
pom.xml 更新 Sam2图像分割,支持cpu,gpu,抠图。 2024-11-07 14:54:46 +08:00
README_CN.md 更新模型导出脚本 2024-11-07 15:04:28 +08:00
README.md 更新模型导出脚本 2024-11-07 15:04:28 +08:00

官网:

官网链接

下载模型放置于models目录

SAM2抠图 SDK

SAM2Segment Anything Model 2是由Meta公司发布的先进图像和视频分割模型。它是Segment Anything ModelSAM的升级版本 SAM是Meta的FAIR实验室之前发布的一款用于图像分割的基础模型能够在给定提示的情况下生成高质量的对象掩模。 SAM2模型的主要特点是其通用性和灵活性它能够处理各种复杂的图像和视频分割任务无论是简单的对象识别还是复杂的场景理解SAM2都能提供准确的结果。 这使得它在许多实际应用场景中都非常有用,例如在‌医疗影像分析、‌自动驾驶、‌安防监控等领域都有着广泛的应用前景。

1. 通用一键抠图

包括2个模型满足不同精度速度的要求。

  • 大模型

  • 小模型

  • 测试图片(效果图) general

开源项目地址

模型导出

1. 环境配置

GPU 环境配置:
1. 创建虚拟环境
   conda create -n nv118 python=3.10.11 -y
   conda activate nv118

2. 安装pytorch
   conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

3. 安装Sam2
   pip install opencv-python matplotlib
   pip install git+https://github.com/facebookresearch/sam2.git

4.安装huggingface_hub
pip install huggingface_hub

5. 安装 onnx
   pip install onnx

2. 模型导出脚本位置

  • 0_tutorials\python\sam2_export

帮助文档: