本論文では、ドメイン一般化(DG)における過適合問題を解決するために、重み量子化を利用した新しい方法であるQT-DoG(Quantization-aware Training for Domain Generalization)を提案します。従来の量子化方法がモデル圧縮に焦点を当てたのとは異なり、QT-DoGは、重みにノイズを導き、損失関数のより平坦な最小点を見つけるように導くことによって、暗黙的な正規化として量子化を利用します。これにより、過適合に敏感ではなく、さまざまなドメインでより良い一般化パフォーマンスを実現します。理論的分析と実験的証拠は、量子化が平らな最小点を導くことを示しており、さらに量子化された複数のモデルのアンサンブルは、従来の最先端のDG方法よりも優れた精度を計算コストやメモリオーバーヘッドなしで達成することを示しています。ソースコードは公開されています。