Evaluación Heurística: Cómo Hacer Auditorías de UX Cuando Trabajas Sola

Evaluación Heurística: Cómo Hacer Auditorías de UX Cuando Trabajas Sola

Por Paulina Contreras12 min de lectura
📑 Ver contenido

Confesión inicial: El elefante en la habitación

Ok, voy a ser honesta desde el principio.

Si buscas en Google “evaluación heurística” vas a encontrar un montón de artículos que te dicen que necesitas entre 3 y 5 evaluadores expertos para identificar el 75-80% de los problemas de usabilidad. Y tienen razón. La literatura lo dice, Nielsen lo dice, los papers lo confirman.

¿El problema? Trabajo en consultoría. Sola.

Bueno, no totalmente sola (hola Mauro 👋), pero cuando hago evaluaciones heurísticas para clientes como OficinaVirtual o Mudango, soy yo la que se sienta frente a la pantalla a revisar flujos y detectar problemas. No tengo un equipo de 5 UX researchers esperando para triangular hallazgos.

¿Y sabes qué? Eso no invalida el método. Solo significa que hay que ser más estratégico sobre cómo usarlo.

En este artículo te voy a contar cómo adapto la evaluación heurística a la realidad de trabajar como consultora independiente en Chile, por qué nunca la uso de forma aislada, y cómo la combino con otras herramientas para que los hallazgos tengan el respaldo que merecen.

¿Qué es la evaluación heurística? (la versión honesta)

La evaluación heurística es un método de inspección de usabilidad donde un experto (o varios, en el mundo ideal) revisa una interfaz y la compara contra un conjunto de principios de diseño reconocidos, llamados heurísticas.

El término viene del griego heuriskein, que significa “descubrir”. Y eso es exactamente lo que hacemos: descubrir problemas potenciales antes de que los usuarios reales se frustren con ellos.

“La evaluación heurística implica que un pequeño grupo de evaluadores examine la interfaz y juzgue su cumplimiento con los principios de usabilidad reconocidos.” — Jakob Nielsen

¿Por qué sigue siendo útil después de 30 años?

Las 10 heurísticas de Nielsen cumplen 32 años en 2026, y siguen siendo el estándar. ¿Por qué? Porque no son reglas de diseño específicas que cambian con cada nueva tecnología, sino que abordan factores humanos fundamentales: la capacidad de memoria, la necesidad de retroalimentación, el control del sistema.

La cognición humana no cambia a la misma velocidad que la tecnología.

Lo que NO es una evaluación heurística

Antes de seguir, aclaremos algo importante:

  • No es un test de usabilidad. No observas usuarios reales haciendo tareas.
  • No es un cognitive walkthrough. Aunque se parecen, el walkthrough simula el paso a paso de un usuario nuevo; la heurística evalúa principios generales.
  • No es una checklist de “pasa/no pasa”. Este es uno de los errores más comunes. Tratar las heurísticas como un checklist binario ignora el propósito del método: el diagnóstico contextual.

Las 10 Heurísticas de Nielsen: El estándar que sigue vivo

Aunque existen otros frameworks (Shneiderman, Gerhardt-Powals, las UX Quality Heuristics), las 10 heurísticas de Nielsen siguen siendo el punto de partida para cualquier evaluación. Son la “lengua franca” de la usabilidad.

Aquí te las explico con ejemplos que he encontrado en proyectos reales:

1. Visibilidad del estado del sistema

El sistema debe mantener informados a los usuarios sobre lo que está sucediendo, con retroalimentación apropiada y en tiempo razonable.

Ejemplo de problema: Un formulario de cotización que no muestra ningún indicador de progreso. El usuario no sabe si está en el paso 2 de 3 o en el 2 de 10.

2. Coincidencia entre el sistema y el mundo real

El sistema debe hablar el lenguaje de los usuarios, no jerga técnica.

Ejemplo de problema: Un sitio de servicios que usa “Dispositivos periféricos de entrada” cuando el usuario busca “Teclados y Ratones”. O peor: usar términos legales sin explicación en un flujo de contratación.

3. Control y libertad del usuario

Los usuarios cometen errores y necesitan “salidas de emergencia” claras.

Ejemplo de problema: Un flujo de compra donde no puedes volver atrás sin perder todo lo que ingresaste. O un modal que no tiene forma de cerrarse sin completar una acción.

4. Consistencia y estándares

El mismo término debería significar lo mismo en todo el sitio.

Ejemplo de problema: Un panel administrativo que usa “Dashboard” para referirse al área completa Y a una sub-página específica. Esto obliga al usuario a aprender dos significados para la misma palabra.

5. Prevención de errores

Mejor que un buen mensaje de error es evitar que el error ocurra.

Ejemplo de problema: Un campo de fecha que acepta cualquier formato pero después falla en la validación. Mejor: un datepicker que solo permite fechas válidas.

6. Reconocer en lugar de recordar

Minimizar la carga de memoria haciendo visibles los objetos, acciones y opciones.

Ejemplo de problema: Un sitio que no muestra los “últimos productos vistos” ni las búsquedas recientes. El usuario tiene que recordar todo lo que hizo en sesiones anteriores.

7. Flexibilidad y eficiencia de uso

El sistema debe servir tanto a novatos como a expertos.

Ejemplo de problema: No ofrecer atajos de teclado en una herramienta que usuarios frecuentes usan diariamente. O al revés: abrumar a usuarios nuevos con opciones avanzadas.

8. Estética y diseño minimalista

Cada elemento extra de información compite con los elementos relevantes.

Ejemplo de problema: Una página de producto con tanta información que el botón de “Comprar” se pierde entre banners, badges, y texto promocional.

9. Ayudar a reconocer, diagnosticar y recuperarse de errores

Los mensajes de error deben ser claros, indicar el problema y sugerir una solución.

Mal ejemplo: “ERROR DE SINTAXIS” o “Error 500”.

Buen ejemplo: “La contraseña debe tener al menos 8 caracteres. Te faltan 2.”

10. Ayuda y documentación

Aunque lo ideal es que el sistema no necesite documentación, a veces es necesaria.

Ejemplo de problema: Un sistema complejo sin ningún tooltip, guía contextual, o sección de ayuda. El usuario queda abandonado.

Más allá de Nielsen: Las heurísticas conductuales de Cugelman (AIM)

Acá es donde la cosa se pone interesante (según yo).

En mi último proyecto con OficinaVirtual, no me limité a las heurísticas de Nielsen. Incorporé el framework AIM de Brian Cugelman, que viene del análisis conductual aplicado.

¿Qué es el framework AIM?

AIM significa Attention, Interpretation, Motivation (Atención, Interpretación, Motivación). Es un framework desarrollado por Cugelman y su equipo en AlterSpark que complementa las heurísticas tradicionales con principios de psicología del comportamiento.

La idea es simple pero profunda:

  1. Atención (Attention): ¿El diseño captura la atención del usuario en los puntos correctos?
  2. Interpretación (Interpretation): ¿El usuario entiende lo que está viendo? ¿Hace sentido dentro de sus esquemas mentales?
  3. Motivación (Motivation): ¿Hay suficiente motivación para realizar la acción deseada? ¿Es fácil de ejecutar?

Este framework conecta directamente con el Modelo de Fogg (B=MAP): un comportamiento ocurre cuando hay suficiente Motivación, Habilidad (Ability), y un Estímulo (Prompt) en el momento correcto.

¿Por qué lo uso?

Porque las heurísticas de Nielsen te dicen si algo está bien diseñado, pero no necesariamente si va a funcionar para el objetivo de negocio.

Un botón puede cumplir perfectamente con “Visibilidad del estado del sistema” y aún así no generar conversiones porque el usuario no está motivado, o porque el copy no conecta con sus esquemas mentales.

Con AIM evaluamos:

  • ¿El diseño está capturando la atención en el lugar correcto?
  • ¿El lenguaje conecta con los modelos mentales del usuario?
  • ¿La fricción del proceso está calibrada con el nivel de motivación?

Cómo lo hago en la práctica: Casos reales

Te cuento cómo he aplicado esto en proyectos reales:

Caso 1: OficinaVirtual (2025)

Contexto: Startup de servicios de oficina virtual que necesitaba revisar el flujo de venta de su nueva página antes del lanzamiento. Tenían solo 2 semanas.

El desafío: Tres decisiones simultáneas en una sola pantalla (elegir plan, elegir sucursal, elegir plazo). Demasiada carga cognitiva.

Mi enfoque:

  1. Evaluación heurística con Nielsen + AIM (Cugelman)
  2. Análisis de Analytics y Search Console para entender comportamiento actual
  3. Benchmark de referentes (telcos, que manejan bien la presentación de planes)

Lo que encontré con las heurísticas tradicionales:

  • Violación de “Reconocer en lugar de recordar” (el usuario tenía que comparar mentalmente demasiadas variables)
  • Problemas de “Consistencia” (la tabla de precios cambiaba de formato según el plazo seleccionado)

Lo que encontré con AIM:

  • La atención estaba dispersa (el ojo no sabía dónde mirar primero)
  • La interpretación fallaba porque el modelo mental del usuario (comparar precios como en una telco) no coincidía con la estructura presentada
  • La motivación se perdía en la fricción de tener que tomar 3 decisiones juntas

Recomendación: Separar las decisiones en pasos o usar progressive disclosure. Destacar el plan más vendido como anchor (técnica que usan las telcos).

Caso 2: Mudango (2023)

Contexto: Servicio de bodegas que quería mejorar el flujo de cotización mediante su Bot.

Mi enfoque:

  1. Evaluación heurística del flujo web
  2. Análisis del funnel en Analytics (desde entrada hasta conversión)
  3. Entrevistas en profundidad con clientes (10 por país: Chile, Colombia, México)
  4. Test de usabilidad moderado con 5-7 personas

Por qué combiné métodos:

  • Las heurísticas me dieron un diagnóstico rápido de los problemas evidentes
  • Las entrevistas me revelaron dolores que jamás habría encontrado solo mirando la interfaz
  • El funnel de Analytics me mostró DÓNDE se caían los usuarios
  • Los tests de usabilidad CONFIRMARON las hipótesis

Aprendizaje clave: La evaluación heurística fue el filtro inicial que me permitió priorizar qué flujos testear con usuarios. Sin ella, habría perdido tiempo testeando cosas que obviamente estaban mal.

El método de triangulación: Por qué nunca uso heurísticas solas

Acá viene el punto más importante de este artículo.

La evaluación heurística es un filtro de calidad inicial, no un diagnóstico final.

Cuando trabajas solo (como yo), tienes que compensar la falta de múltiples evaluadores con triangulación de fuentes. Esto significa combinar la evaluación heurística con al menos 2-3 fuentes adicionales de datos.

Mi combo típico

Opción A: Cuando hay poco tiempo (como OficinaVirtual)

  • Evaluación heurística (Nielsen + AIM)
  • Análisis de Analytics y Search Console
  • Benchmark de competidores/referentes

Opción B: Cuando hay más tiempo y presupuesto (como Mudango)

  • Evaluación heurística
  • Análisis de data interna (funnels, heatmaps, grabaciones)
  • Entrevistas con usuarios
  • Test de usabilidad

¿Por qué funciona?

Porque cada método te da un pedazo del rompecabezas:

Método Te dice…
Evaluación heurística Qué PUEDE estar mal (hipótesis)
Analytics/Funnels DÓNDE se caen los usuarios
Entrevistas POR QUÉ se frustran
Tests de usabilidad SI el problema es real y grave

La heurística sola te da hipótesis. La triangulación te da evidencia.

Y cuando llego a presentar los resultados a un cliente, no digo “yo creo que esto está mal”. Digo “las heurísticas sugieren un problema aquí, Analytics confirma que hay una caída del 40% en este punto, y las entrevistas revelan que los usuarios no entienden X”.

Es la diferencia entre opinión y evidencia.

Paso a paso: Cómo ejecutar tu evaluación heurística

Ok, ahora lo práctico. Así es como hago una evaluación heurística:

1. Definir el alcance

No intentes evaluar TODO el sitio. Enfócate en:

  • Los flujos críticos (cotización, compra, registro)
  • Las páginas con mayor tráfico o mayores tasas de abandono
  • Los elementos nuevos que se van a lanzar

2. Entender el contexto

Antes de abrir la interfaz:

  • ¿Quiénes son los usuarios objetivo?
  • ¿Cuáles son los objetivos de negocio?
  • ¿Hay personas/arquetipos definidos?

Sin contexto, la evaluación se vuelve genérica.

3. Primera pasada: Visión general

Navego por el sitio sin tomar notas, solo para entender el flujo general. ¿Cómo se siente? ¿Dónde me pierdo? ¿Qué me frustra?

4. Segunda pasada: Evaluación sistemática

Ahora sí, con las heurísticas en mano (Nielsen + AIM), evalúo cada pantalla y cada flujo crítico.

Para cada problema encontrado documento:

  • Ubicación: En qué pantalla/paso ocurre
  • Descripción: Qué está mal
  • Heurística violada: Cuál principio no se cumple
  • Severidad: Del 0 al 4 (escala de Nielsen)
  • Captura de pantalla: Evidencia visual

5. Clasificar severidad

Uso la escala clásica de Nielsen:

Severidad Descripción
0 No es un problema de usabilidad
1 Problema cosmético - arreglar si hay tiempo
2 Problema menor - baja prioridad
3 Problema mayor - importante arreglar
4 Catástrofe - debe arreglarse antes del lanzamiento

6. Triangular con otras fuentes

NUNCA entrego un reporte basado solo en heurísticas. Siempre cruzo con:

  • Datos de Analytics
  • Feedback de usuarios (si existe)
  • Benchmark de competidores

7. Priorizar y recomendar

El entregable final incluye:

  • Lista de problemas priorizados por severidad
  • Evidencia de cada problema (capturas, datos)
  • Recomendaciones concretas de mejora
  • Matriz de impacto vs esfuerzo

Plantilla y herramientas

Plantilla básica de registro

Puedes usar una simple hoja de cálculo con estas columnas:

ID Ubicación Descripción del problema Heurística violada Severidad (0-4) Evidencia Recomendación
1 Checkout paso 2 No hay indicador de progreso H1 - Visibilidad del estado 3 [captura] Agregar stepper con pasos

Herramientas que uso

  • Capturas: Cualquier herramienta de screenshot (Loom para videos)
  • Documentación: Google Sheets para el registro, Notion para el reporte
  • Analytics: Google Analytics 4, Clarity (heatmaps y grabaciones)
  • Benchmark: Simplemente navegar sitios de referencia y documentar buenas prácticas

Recursos adicionales

  • Pósters de heurísticas: NNGroup tiene pósters gratuitos que puedes tener en tu espacio de trabajo
  • Guía de Hassan Montero: Una checklist detallada en español disponible en nosolousabilidad.com
  • Framework AIM de Cugelman: Disponible en el sitio de AlterSpark y Behavioral Design Academy

Reflexión final

La evaluación heurística tiene más de 30 años y sigue siendo relevante porque aborda algo que no cambia: cómo funcionamos los humanos.

Sí, lo ideal es tener 3-5 evaluadores. Sí, en consultoría a menudo trabajamos solos. Pero eso no significa que el método no sirva. Significa que tenemos que ser más estratégicos, más honestos con las limitaciones, y más rigurosos en triangular la información.

Al final del día, lo que importa no es cumplir con un checklist. Es entender al usuario y ayudar a crear productos que realmente funcionen para ellos.

Y eso, con un poco de método y mucha honestidad, se puede hacer incluso desde una consultora pequeña en Chile.

Recursos relacionados

Referencias

  • Cugelman, B. (2013). Gamification: What It Is and Why It Matters to Digital Health Behavior Change Developers. JMIR Serious Games, 1(1), e3. https://doi.org/10.2196/games.3139
  • Hassan Montero, Y., & Martín Fernández, F. J. (2003). Guía de Evaluación Heurística de Sitios Web. No Solo Usabilidad, nº 2. https://www.nosolousabilidad.com/articulos/heuristica.htm
  • Nielsen, J. (1994). 10 Usability Heuristics for User Interface Design. Nielsen Norman Group. https://www.nngroup.com/articles/ten-usability-heuristics/
  • Nielsen, J., & Molich, R. (1990). Heuristic evaluation of user interfaces. CHI '90 Proceedings, 249-256.
  • Rubin, J., & Chisnell, D. (2008). Handbook of Usability Testing: How to Plan, Design, and Conduct Effective Tests (2nd ed.). Wiley.