Bài báo này phân tích các lỗ hổng của cơ chế định giá theo token được sử dụng trong các dịch vụ đám mây cho các mô hình ngôn ngữ quy mô lớn (LLM). Cơ chế định giá dựa trên token hiện tại khuyến khích các nhà cung cấp dịch vụ tối đa hóa lợi nhuận bằng cách báo cáo sai số lượng token được sử dụng trong kết quả đầu ra của mô hình, khiến người dùng không có cách nào để xác minh điều này. Chúng tôi chứng minh lỗ hổng này và đề xuất một thuật toán heuristic hiệu quả cho phép các nhà cung cấp dịch vụ tính phí mà không bị nghi ngờ. Hơn nữa, chúng tôi chứng minh rằng việc định giá token phụ thuộc tuyến tính vào số lượng ký tự trong token để loại bỏ động cơ này, từ đó đề xuất một phương pháp duy trì lợi nhuận trung bình. Chúng tôi bổ sung các phát hiện lý thuyết của mình bằng các kết quả thực nghiệm sử dụng nhiều LLM từ các họ Llama, Gemma và Ministral, cũng như các lời nhắc từ nền tảng LMSYS Chatbot Arena.