Tech
NIST, AI 모델 리스크 테스트를 위한 도구 발표
미국 상무부의 기술을 개발하고 시험하는 기관 인 미국 기준 기술 연구소(NIST)는 악의적인 공격 - 특히 '독극물'로 AI 모델 훈련 데이터를 공격하는 것이 AI 시스템의 성능을 어떻게 저하시키는지 측정하기 위해 설계된 테스트베드를 재발표했습니다.
Dioptra (고전천문 및 측량기구의 이름에서 파생된 것)는 2022년에 처음으로 릴리스된 모듈식 오픈 소스 웹 기반 도구로, 회사가 AI 모델을 훈련하고 이 모델을 사용하는 사람들이 AI 위험을 평가, 분석하고 추적하는 데 도움을 주기 위해 개발되었습니다. NIST는 Dioptra가 모델을 벤치마킹하고 연구하는 데 사용될 수 있으며 '레드 팀' 환경에서 모델에 모의 위협을 노출하는 데 공통 플랫폼을 제공할 수 있다고 전합니다.
“머신러닝 모델에 대한 적대적 공격의 영향을 테스트하는 것이 Dioptra의 목표 중 하나입니다,” NIST는 보도 자료에서 썼습니다. “무료로 다운로드할 수 있는 이 오픈 소스 소프트웨어는 정부 기관 및 중소기업을 포함한 커뮤니티들이 AI 개발자들이 자신들의 시스템 성능에 대한 주장을 평가하기 위한 평가를 실시하는 데 도움을 줄 수 있습니다.”