OpenAI, 경쟁사 '고위험' AI 출시 시 안전장치 조정 가능성
OpenAI는 경쟁사가 고위험 AI 시스템을 적절한 안전장치 없이 출시할 경우, 자사의 안전 요구사항을 조정할 수 있다고 밝혔습니다. 이는 AI 개발자들이 빠르게 모델을 출시해야 하는 경쟁 압박에 대한 대응입니다. OpenAI는 자동화된 평가를 통해 제품 개발을 가속화하고 있으며, 고위험 및 중대한 능력을 가진 모델에 대한 새로운 평가 기준을 도입했습니다. 이러한 변화는 2023년 이후 처음으로 Preparedness Framework에 업데이트된 내용입니다.