Hugging Face Transformers存在CVE-2024-11392等漏洞
Hugging Face Transformers 是一个开源 Python 库,提供数以千计的预训练 transformer 模型,广泛用于NLP、计算机视觉、音频等任务。
通过对底层 ML 框架(如 PyTorch、TensorFlow 和 JAX)进行抽象,简化了 transformer 模型实现,降低了对该模型的训练或部署复杂性。
一、基本情况
Hugging Face Transformers是个开源预训练模型库,最初创建用于开发语言模型,旨在将NLP领域最新进展向更广泛机器学习社区开放。
该库包含经过精心设计的最先进的Transformer架构,提供易于使用的API ,使研究人员和开发者能够轻松地加载、微调和使用这些模型。
Hugging Face Transformers的功能经过发展,现已扩展到包括多模态(如图像和文本结合)、计算机视觉和音频处理等其他用途的模型。
Hugging Face Transformers的模型库提供了各种预训练模型,如BERT、GPT-2、RoBERTa、T5等,并支持Pytorch和Tensorflow2.0框架。
Hugging Face Transformers设计目标是提供易于使用且灵活接口,便于研究人员和开发人员轻松使用预训练模型,是个多功能的工具库。
栋科技漏洞库关注到Hugging Face Transformers多个远程代码执行漏洞,追踪CVE-2024-11392、CVE-2024-11393、CVE-2024-113924。
二、漏洞分析
CVE-2024-11392
CVE-2024-11392是Hugging Face Transformers MobileViTV2 中存在的反序列化不受信任数据远程代码执行漏洞,漏洞的CVSS评分8.8。
该漏洞允许远程攻击者在安装了受影响版本Hugging Face Transformers设备执行任意代码,漏洞利用前提是需用户打开恶意页面或文件。
该漏洞源于对用户提供数据的验证不足,这可能导致不信任数据的反序列化的情况,攻击者可以利用该漏洞以当前用户的身份来执行代码。
CVE-2024-11393
CVE-2024-11393是Hugging Face Transformers MaskFormer 模型中的反序列化不受信任的数据远程代码执行漏洞,漏洞CVSS评分8.8。
该漏洞允许远程攻击者在安装了受影响版本Hugging Face Transformers设备执行任意代码,漏洞利用前提是需用户打开恶意页面或文件。
该漏洞源于对用户提供数据的验证不足,这可能导致不信任数据的反序列化的情况,攻击者可以利用该漏洞以当前用户的身份来执行代码。
CVE-2024-11394
CVE-2024-11394是Hugging Face Transformers Trax 模型中存在的一个反序列化不受信任数据远程代码执行漏洞,漏洞的CVSS评分8.8。
该漏洞允许远程攻击者在安装了受影响版本Hugging Face Transformers设备执行任意代码,漏洞利用前提是需用户打开恶意页面或文件。
该漏洞源于对用户提供数据的验证不足,这可能导致不信任数据的反序列化的情况,攻击者可以利用该漏洞以当前用户的身份来执行代码。
三、影响范围
未知
四、修复建议
未知
五、参考链接
https://github.com/advisories/GHSA-hxxf-235m-72v3