Este artículo analiza sistemáticamente el impacto del sesgo inherente en una extensión multiagente del enfoque LLM-as-Judge (argumentación multiagente y metaevaluación) que utiliza modelos de lenguaje a gran escala (LLM) como evaluadores. Al evaluar cuatro tipos de sesgo (sesgo de posición, sesgo de detalle, sesgo de proceso de pensamiento y sesgo de consenso) tanto en el marco de argumentación multiagente como en el de LLM-as-Meta-Judge, observamos que el marco de argumentación amplifica y persiste significativamente el sesgo después de la argumentación inicial, mientras que el enfoque de metaevaluación es más resistente al sesgo. Además, demostramos que añadir un agente imparcial mediante PINE, un método de reducción de sesgo de un solo agente, es eficaz para reducir el sesgo en el contexto de la argumentación, pero menos eficaz en el de la metaevaluación. En conclusión, este estudio estudia exhaustivamente el comportamiento del sesgo en el sistema LLM-as-Judge multiagente y destaca la necesidad de estrategias específicas de mitigación del sesgo en entornos de evaluación colaborativa.