GARAK, 대규모 언어 모델 취약점 스캐너
GARAK(Generative AI Red-teaming & Assessment Kit)은 대규모 언어 모델(LLM)이 원치 않는 방식으로 실패하는지 확인하는 도구입니다. 확인 가능한 취약점에는 환각, 데이터 유출, 프롬프트 주입, 오정보, 독성 생성 등이 포함됩니다. 이 도구는 무료이며 오픈 소스로, 다양한 LLM 모델과 인터페이스를 지원합니다.