본 논문은 대규모 데이터 사용 애플리케이션의 성능 및 에너지 오버헤드를 줄이기 위해 Two Level Perceptron (TLP) 예측기를 제안합니다. TLP는 오프칩 접근 여부를 예측하고 L1D 캐시에서 적응형 프리페치 필터링을 결합하는 신경 메커니즘입니다. FLP(First Level Predictor)와 SLP(Second Level Predictor)의 두 개의 연결된 마이크로아키텍처 퍼셉트론 예측기로 구성됩니다. FLP는 가상 주소 기반 프로그램 특징과 선택적 지연 컴포넌트를 사용하여 정확한 오프칩 예측을 수행합니다. SLP는 물리적 주소와 FLP 예측을 특징으로 사용하여 L1D 프리페치 필터링을 수행합니다. TLP는 7KB의 저장 공간만을 필요로 합니다. 실험 결과, TLP는 단일 코어 및 멀티 코어 워크로드에서 최첨단 캐시 프리페처를 사용하는 기본 시스템에 비해 평균 DRAM 트랜잭션을 각각 30.7% 및 17.7% 감소시켰으며, 성능을 각각 6.2% 및 11.8% 향상시켰습니다.