Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ScreenAudit: Detecting Screen Reader Accessibility Errors in Mobile Apps Using Large Language Models

Created by
  • Haebom

저자

Mingyuan Zhong, Ruolin Chen, Xia Chen, James Fogarty, Jacob O. Wobbrock

개요

본 논문은 기존의 규칙 기반 접근성 검사기의 한계를 극복하기 위해, 대규모 언어 모델(LLM)을 활용한 모바일 앱 접근성 검사 시스템인 ScreenAudit을 제시합니다. ScreenAudit은 모바일 앱 화면을 탐색하고 메타데이터와 내용을 추출하여, 기존 검사기가 간과하는 화면 판독기 접근성 오류를 식별합니다. 14개의 고유한 앱 화면을 대상으로 6명의 접근성 전문가(화면 판독기 사용자 1명 포함)가 ScreenAudit의 보고서를 평가한 결과, ScreenAudit는 기존 검사기(31.3%)보다 높은 평균 69.2%의 적용 범위를 달성하였고, 더 높은 품질의 피드백을 제공하며 화면 판독기 접근성의 더 많은 측면을 다룬다는 평가를 받았습니다. 실제 개발 환경에서 앱 개발자들에게 도움이 될 것이라는 결론을 제시합니다.

시사점, 한계점

시사점:
LLM 기반 접근성 검사 시스템을 통해 기존 규칙 기반 시스템의 한계를 극복하고 더욱 포괄적인 접근성 검사가 가능함을 보여줌.
ScreenAudit은 기존 검사기보다 높은 정확도와 적용 범위를 달성하여 모바일 앱 개발 과정에서 실질적인 도움을 제공할 수 있음.
화면 판독기 사용자를 포함한 전문가 평가를 통해 시스템의 유용성과 신뢰성을 검증함.
한계점:
평가에 사용된 앱 화면의 수가 제한적(14개)이므로, 더욱 광범위한 테스트가 필요함.
ScreenAudit의 성능이 다양한 유형의 모바일 앱과 화면 디자인에 대해 얼마나 일반화될 수 있는지 추가 연구가 필요함.
LLM의 성능 의존성으로 인해, LLM의 한계가 ScreenAudit의 성능에 영향을 미칠 수 있음.
👍