Share
Jerry
#AI #LLM

IPEX-LLM

매우 짧은 지연 시간으로 인텔 CPU 및 GPU에서 LLM을 실행하기 위한 PyTorch 라이브러리
llama.cpp, Text-Generation-WebUI, HuggingFace transformers, HuggingFace PEFT, LangChain, LlamaIndex, DeepSpeed-AutoTP, vLLM, FastChat, HuggingFace TRL, AutoGen, ModeScope 등과 연동 가능
50개 이상의 모델이 최적화 및 검증됨(LLaMA2, Mistral, Mixtral, Gemma, LLaVA, Whisper, ChatGLM, Baichuan, Qwen, RWKV 등)
👍
2
😇
1
🥸
1