vLLM 是一个高吞吐量、低内存占用的开源 Python 库,专为大型语言模型的推理和服务设计。它通过优化的内核和高效的资源管理,支持 AI 开发者在各种硬件平台上部署和运行大型语言模型,目前达到了46.4K的star数量。vLLM 的广泛应用使其成为 AI 社区的重要工具,但也因此成为攻击者的潜在目标。
近日,第32届网络与分布式系统安全研讨会(NDSS)在美国圣迭戈举办。由浙江大学与奇安信技术研究院合作发表的论文《ReThink: Reveal the Threat of Electromagnetic Interference on Power Inverters》在会议录用的211篇论文中脱颖而出,获得杰出论文奖(Distinguished Paper Award)。
日前,由奇安信技术研究院和中国海洋大学合作完成的研究论文被软件工程领域国际会议ICST 2024(IEEE International Conference on Software Testing, Verification and Validation 2024)录用,论文题目为“Enhanced Fast and Reliable Statistical Vulnerability Root Cause Analysis with Sanitizer”。该研究是中国海洋大学硕士研究生闫卓同学在奇安信技术研究院联合培养期间完成的工作。
近日,由山东大学、奇安信技术研究院、清华大学和北京邮电大学合作完成的论文被国际顶级学术会议WWW 2024(ACM Web Conference 2024)录用,论文题目为“From Promises to Practice: Evaluating the Private Browsing Modes of Android Browser Apps”,奇安信技术研究院是共同通讯作者单位。
由奇安信技术研究院、清华大学和特拉华大学合作完成的论文被国际顶级学术会议IEEE S&P‘24(45th IEEE Symposium on Security and Privacy)录用。论文题目是《More Haste, Less Speed: Cache Related Security Threats in Continuous Integration Services》,这也是两年来奇安信技术研究院在IEEE S&P学术会议上发表的第三篇软件供应链安全领域的研究论文。