この論文は、既存の表形式データの基礎モデル(TabPFNなど)が新しい作業に適応するためにコンテキスト内学習を利用しますが、固定された事前定義された目標次元数に制限され、高価なアンサンブル戦略が必要であるという問題を指摘しています。この制限は、モデルが目標等価変換性を欠いているためであり、これは目標次元の順序を変更すると予測が異なるという現象につながります。本稿では、これらの「等価変換性差」を排除するために、完全な目標等価変換アーキテクチャを設計します。等価変換エンコーダ、デコーダ、および双方向アテンションメカニズムにより、順列不変性を保証します。標準分類ベンチマークの実験的評価は、事前トレーニング中に見たよりも多くのクラスを持つデータセットの既存の方法と比較して、パフォーマンスが同等または優れており、計算オーバーヘッドが低いことを示しています。