CorsoUX - Corso di UX Design
Volver al Blog
UX - User Research

Test de preferencia en UX: cuándo funciona (y cuándo no)

El test de preferencia es uno de los métodos de UX research más rápidos y uno de los más mal utilizados. Cuándo funciona, cómo conducirlo y los errores más comunes.

CorsoUX9 min de lectura
Test de preferencia en UX: cuándo funciona (y cuándo no)

"¿Cuál de las dos versiones te gusta más?" Es la pregunta más sencilla del mundo del diseño y, precisamente por eso, el test de preferencia es uno de los métodos de user research más usados — y más a menudo mal usados. Cuando funciona, es rápido, barato y genera hipótesis fuertes. Cuando falla, produce decisiones basadas en opiniones superficiales que no tienen nada que ver con el comportamiento real de los usuarios.

Este artículo explica qué es un test de preferencia, cuándo tiene sentido utilizarlo, cómo conducirlo para obtener resultados fiables y, sobre todo, cuándo deberías elegir otro método en su lugar.

Lo que vas a aprender:

  • Qué es realmente un test de preferencia (y qué no es)
  • Los 3 escenarios en los que es el método correcto
  • Los 4 escenarios en los que es el método equivocado (y qué usar en su lugar)
  • Cómo conducir un test de preferencia en 5 pasos
  • Los errores de framing que llevan a decisiones equivocadas

Qué es un test de preferencia

Un test de preferencia es un método de user research en el que muestras a una muestra de usuarios dos o más variantes de un elemento — una landing page, un logo, un icono, un titular, un flujo — y les preguntas cuál prefieren y por qué. El resultado es una señal subjetiva: qué variante prefiere la mayoría de la muestra y cuáles son las razones declaradas.

Es un método híbrido cualitativo-cuantitativo: el "cuál prefieres" produce un número (X% prefiere A) y el "por qué" produce texto rico.

Se distingue con claridad de otros métodos:

  • Del test de usabilidad moderado, porque no mides el comportamiento durante una tarea: solo pides la opinión final.
  • Del A/B test de comportamiento, porque no mides conversiones ni acciones reales: capturas preferencia declarada.
  • De la entrevista en profundidad, porque está centrado en un artefacto específico y no explora necesidades o contexto más amplio.

El test de preferencia vive en un espacio preciso: te dice qué dicen las personas que prefieren cuando se lo has puesto delante. Que no es lo mismo que "qué funciona mejor" — y ahí nace el 90% de los problemas.

Cuándo el test de preferencia es el método correcto

Tres situaciones en las que funciona bien.

1. Decisiones cromáticas, tipográficas y estilísticas puras

Cuando estás eligiendo entre dos paletas, dos fuentes de titular, dos estilos de ilustración, dos direcciones visuales — y la diferencia es puramente estética o de marca, no funcional — el test de preferencia es rápido y eficaz. El "cuál te gusta más" en estos casos suele coincidir con cuál comunicará mejor los valores de marca.

Un ejemplo típico: "¿Cuál de estos 3 layouts de homepage corresponde más al tono de una marca que quiere posicionarse como premium?". Pregunta legítima para un test de preferencia.

2. Generar hipótesis antes de un test de comportamiento

Antes de invertir semanas en un A/B test con tráfico real, un test de preferencia rápido con 30–50 personas puede servir para eliminar las variantes claramente peores y centrar el A/B test solo en las 2 que han parecido competitivas. Es un filtro pre-test, barato y rápido.

3. Decisiones con ciclos de feedback muy lentos

Algunos cambios tienen ciclos de feedback larguísimos: la imagen de portada de un informe anual, el diseño de un packaging digital, el estilo de un email que sale una vez al mes. En estos casos un A/B test necesitaría meses para alcanzar significancia, y un test de preferencia es la única alternativa practicable.

Cuándo el test de preferencia es el método equivocado

Cuatro situaciones en las que produce decisiones engañosas.

1. Diseño de flujos e interacciones

"¿Cuál de estos dos flujos de checkout te parece mejor?" es la pregunta equivocada. Las personas son malas prediciendo qué diseño les ayudará realmente a completar una acción — véase la literatura clásica de Don Norman y Jakob Nielsen al respecto. Un flujo de checkout debe probarse con un usability test: das la tarea "compra esta camiseta", observas qué ocurre, no pides opiniones.

2. Estimaciones de rendimiento o eficiencia

"¿Te parece que este dashboard se lee más rápido?" Las personas no tienen intuición fiable sobre la velocidad de procesamiento cognitivo. Un dashboard puede percibirse como "más claro" pero requerir un 40% más de tiempo para encontrar una información concreta. Hace falta un test de tarea cronometrado, no una preferencia.

3. Nuevo vs. familiar

Si preguntas "¿prefieres el layout antiguo o este nuevo?", 9 de cada 10 veces gana el antiguo — no porque sea mejor, sino porque es familiar. El efecto de la familiaridad en un test de preferencia es enorme y casi siempre subestimado.

4. Decisiones que dependen del contexto real de uso

"¿Cuál de estos tres modos de onboarding prefieres?" visto en frío es muy distinto de "¿cuál te habría ayudado cuando empezaste a usar el producto anoche a las 23h intentando entender cómo funcionaba?". El contexto lo cambia todo. Si el diseño depende del contexto, hay que probarlo en contexto — mejor con un test de usabilidad remoto no moderado.

Cómo conducir un test de preferencia en 5 pasos

Paso 1: define la pregunta de investigación

No "¿qué variante prefieres?" — demasiado genérico. Hay que definir el criterio: ¿preferencia estética? ¿percepción de fiabilidad? ¿claridad?. Una pregunta por test.

Buen ejemplo: "De las dos versiones de esta homepage, ¿cuál te parece más profesional y fiable para un banco digital?". Tienes un criterio (profesional + fiable) y un contexto (banco digital).

Paso 2: prepara las variantes

  • Dos o tres variantes, nunca más. Por encima de tres, la capacidad cognitiva del participante para compararlas cae drásticamente.
  • Variantes con diferencias significativas. Si son demasiado similares, el test no produce señal.
  • Presentación neutra. No etiquetes como "variante A / variante B": asigna letras o números aleatorios para no influir con el orden.

Paso 3: elige la muestra

Para tests de preferencia online, 25–50 participantes son suficientes para una primera señal. Para decisiones importantes, sube a 100–150. Por encima, el valor marginal decrece rápido.

Reclutamiento: los participantes tienen que pertenecer al segmento objetivo. Un test sobre la homepage de un banco digital no se hace con amigos diseñadores — se hace con personas del público objetivo. En España, Prolific y los paneles de InfoJobs Research funcionan bien; en LATAM, Toluna y Netquest cubren MX, AR, CO y CL con buenos tiempos de respuesta.

Paso 4: formula las preguntas

La secuencia clásica de un test de preferencia:

  1. Primera impresión: "¿Qué versión te impacta más? ¿Por qué?"
  2. Criterio específico: "¿Qué versión te parece más [profesional / clara / fiable / moderna]? ¿Por qué?"
  3. Escenario de uso: "Si tuvieras que usar este producto para [tarea específica], ¿qué versión elegirías? ¿Por qué?"
  4. Pregunta abierta: "¿Hay algo más que quieras señalar sobre alguna de las dos versiones?"

Las respuestas al "por qué" son más valiosas que la estadística del "cuál". El porqué te dice qué mueve la preferencia — y eso lo puedes reutilizar para mejorar aún más.

Paso 5: analiza resultados y contexto

  • Cuenta las preferencias por variante. 70/30 es clara; 55/45 es inconcluyente.
  • Lee todos los "por qué" y agrúpalos por tema (clustering cualitativo).
  • Compara las razones: quienes prefieren A lo hacen por razones racionales (coherentes con tus objetivos) o emocionales (que pueden cambiar en 3 meses)?
  • Busca patrones de segmento: a veces A gusta a jóvenes y B a mayores. Si tu producto es multi-segmento, esta información es decisiva.

Herramientas para conducir tests de preferencia

En 2026 las herramientas más usadas para tests de preferencia remotos no moderados:

  • Maze — tiene un modo "preference test" dedicado, ideal para diseñadores que trabajan en Figma.
  • Lyssna (antes UsabilityHub) — de las más veteranas y específicas para preference test, first-click test y five-second test. Precio accesible.
  • UserZoom — plataforma enterprise muy usada por equipos grandes en España y LATAM.
  • UserTesting — con panel de reclutamiento integrado fuerte en España, MX y CO.
  • Typeform + reclutamiento manual — la vía más barata: creas un cuestionario, insertas las imágenes y compartes el enlace con tu público objetivo.

El coste típico de un test de preferencia con 50 participantes reclutados por panel es de 120–350 € en España y de 80–250 USD en LATAM.

Los errores de framing más comunes

Cinco trampas que invalidan los tests de preferencia aunque el método se aplique correctamente.

1. Efecto primacy/recency

El orden de presentación de las variantes influye en el juicio. Las personas tienden a recordar mejor la primera y la última — y a preferir la que recuerdan mejor. Solución: aleatoriza el orden por participante.

2. Pregunta sesgada

"¿Crees que la versión B, con la nueva tipografía elegante, es más refinada?". Los adjetivos positivos en la pregunta inducen respuestas positivas. Solución: preguntas neutras sin adjetivos cargados.

3. Muestra de diseñadores

Un test de preferencia hecho sobre otros diseñadores (colegas, comunidades, redes) produce preferencias que reflejan el gusto profesional del sector, no el de los usuarios reales. Solución: recluta siempre del público real.

4. Demasiada exposición

Mostrar las variantes durante mucho tiempo deja espacio a la racionalización post-hoc. Las primeras impresiones — 3–5 segundos — suelen ser más predictivas. Solución: para algunos tests usa un "first-click test" o un "five-second test" en vez de un test de preferencia abierto.

5. Tratarlo como prueba definitiva

El peor de todos: un test de preferencia es una señal, no una prueba. Tomar decisiones de 200.000 € solo en base a un test de preferencia con 30 personas es un salto injustificado. Úsalo como filtro cualitativo y valida después con un A/B test de comportamiento.

Preguntas frecuentes

¿Qué diferencia hay entre un A/B test y un test de preferencia?

El A/B test mide el comportamiento real: cuántos usuarios hacen clic, compran o se registran. El test de preferencia mide la opinión declarada: qué dicen las personas que prefieren cuando se lo muestras. Son complementarios, no intercambiables. Un usuario puede decir "prefiero A" y, puesto ante ambas en la realidad, convertir mejor con B.

¿Cuántas personas hacen falta para un test de preferencia?

25–50 para una primera señal, 100–150 para decisiones importantes. Por debajo de 25, los resultados son poco fiables; por encima de 150, cada participante extra aporta valor marginal. La calidad del reclutamiento (usuarios reales del target) importa más que la cantidad.

¿Puedo hacerlo internamente con mis compañeros?

Para una exploración muy inicial, sí — como calentamiento. Para decisiones reales, no: tus compañeros no son tu público y casi siempre reflejan el gusto del equipo, no el de los usuarios. Un test serio se hace con usuarios reales del segmento objetivo.

¿Sirve para decisiones de UX writing?

Solo sirve para decisiones estilísticas puras (p. ej. "tono serio vs tono amigable"). Para decisiones de claridad ("¿es este botón más comprensible?") un cloze test o un test de usabilidad por tareas dan resultados mucho más fiables.

¿Cuánto dura un test de preferencia?

Un test online no moderado lo completa cada participante en 5–10 minutos. El tiempo total de recogida de datos (con panel externo) suele ser de 24–72 horas. El análisis cualitativo añade 2–4 horas extra para una muestra de 50 personas.

Próximos pasos

El test de preferencia es una de las herramientas del kit de un UX researcher. Como cualquier herramienta, es estupenda para los problemas para los que está pensada e inadecuada para los demás.

Para situarlo en el panorama completo:

En el Curso de User Research de CorsoUX el test de preferencia es uno de los 7 métodos principales que enseñamos, con ejercicios prácticos guiados por mentores sobre proyectos reales de equipos de España y LATAM.

Condividi