‘모델 붕괴’: AI가 자신의 꼬리를 먹게 놔두면 안 되는 이유
연구자들은 AI 모델이 다른 AI 모델이 생성한 데이터로 훈련될 때 '모델 붕괴' 현상이 발생할 수 있다고 경고합니다. 이는 AI가 진짜 데이터 분포를 잊어버리고, 점점 더 왜곡된 결과를 내놓게 되는 원인이 됩니다. 이러한 '우로보로스 효과'는 AI 개발의 중대한 도전으로, 자기 생성 데이터로의 훈련 위험을 해결할 필요가 있습니다.