본 논문은 의료 영상 분할을 위한 경량화된 효율적인 모델인 LiteNeXt를 제안합니다. 기존 Transformer 기반 모델들의 많은 파라미터와 대규모 데이터 의존성 문제를 해결하기 위해, 컨볼루션과 간소화된 디코더를 기반으로 설계되었습니다. LiteNeXt는 적은 파라미터 (0.71M) 와 GFLOPS (0.42) 로 학습되며, 경계 불확실성 및 물체의 폐색/혼잡 문제를 해결하기 위한 Marginal Weight Loss 와 네트워크 자체를 이용한 데이터 증강 기법인 Self-embedding Representation Parallel 기법을 제시합니다. Data Science Bowls, GlaS, ISIC2018, PH2, Sunnybrook, 그리고 폐 X-ray 데이터셋을 이용한 실험 결과, 다른 최첨단 CNN 및 Transformer 기반 모델들과 비교하여 유망한 결과를 보였습니다. 소스 코드는 깃헙에 공개되었습니다.