LAGO (Language Similarity-Aware Graph Optimization)는 소량의 데이터를 사용한 다국어 NLP 시스템에 대한 새로운 교차 언어 임베딩 역공격 방법입니다. 기존의 언어별 독립적인 접근 방식과 달리, LAGO는 그래프 기반의 분산 최적화 프레임워크를 통해 언어 간의 관계를 명시적으로 모델링합니다. 구문 및 어휘적 유사성을 에지 제약 조건으로 통합하여 관련 언어 간의 협업적인 매개변수 학습을 가능하게 합니다. 이론적으로, 유사성 제약 조건이 완화될 때 ALGEN과 같은 기존의 접근 방식을 일반화하는 것으로 나타났습니다. LAGO는 Frobenius-norm 규제와 선형 부등식 또는 총 변이 제약 조건을 독창적으로 결합하여 매우 제한된 데이터(언어당 10개 정도의 샘플)에서도 교차 언어 임베딩 공간의 강력한 정렬을 보장합니다. 다양한 언어와 임베딩 모델에 대한 광범위한 실험을 통해 LAGO가 기준선보다 Rouge-L 점수를 10~20% 향상시켜 공격의 전이성을 크게 향상시킨다는 것을 보여줍니다. 이 연구는 언어 유사성을 역공격 전이성의 중요한 요소로 확립하고, 언어 인식 개인정보 보호 다국어 임베딩에 대한 재고를 촉구합니다.