¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?
La evaluación de la experiencia de las personas mayores en servicios digitales masivos requiere un enfoque multidimensional: técnico, humano y ético. La creciente proporción de población mayor obliga a diseñar, medir y mejorar plataformas (banca, salud, comercio, transporte, administración pública) de manera que sean seguras, útiles y fáciles de usar para quienes presentan diversidad funcional asociada a la edad.
Por qué resulta apremiante evaluar esta experiencia
- Demografía: de acuerdo con Naciones Unidas, la cantidad de personas con 60 años o más crecerá de manera considerable en las próximas décadas, lo que exige que los servicios de gran alcance atiendan adecuadamente a ese grupo.
- Impacto social: la exclusión digital provoca obstáculos que dificultan el acceso a beneficios, atención sanitaria y derechos esenciales.
- Riesgos financieros y de seguridad: fallos o malentendidos durante operaciones pueden derivar en pérdidas económicas o en mayor vulnerabilidad frente a fraudes.
Componentes clave de la evaluación
- Accesibilidad técnica: observancia de las pautas de accesibilidad web, ajustes de contraste, ampliación tipográfica, uso adecuado de etiquetas semánticas y compatibilidad con herramientas de asistencia.
- Usabilidad: sencillez para llevar a cabo acciones esenciales como crear una cuenta, acceder, efectuar pagos o pedir una cita.
- Comprensibilidad: empleo de un lenguaje directo, mensajes de error orientativos y ausencia de tecnicismos, además de instrucciones claramente delineadas.
- Sostenibilidad de uso: provisión de soporte, capacitación y ayudas contextuales que faciliten la continuidad en la utilización del servicio.
- Seguridad percibida y confianza: sensación de resguardo de la privacidad y de protección ante posibles fraudes.
Métricas cuantitativas recomendadas
- Tasa de éxito de tareas: porcentaje de usuarios mayores que completan una tarea sin asistencia.
- Tiempo medio por tarea: tiempo que tarda un usuario en completar tareas críticas; útil para detectar fricciones.
- Tasa de abandono: porcentaje que inicia pero no finaliza un proceso (por ejemplo, pago o registro).
- Errores por tarea: número de errores recurrentes (clics en lugar equivocado, campos mal completados).
- Índice de satisfacción: puntuaciones post-tarea o post-sesión (escala de 1 a 5 o similar).
- Uso de ayuda: frecuencia con la que las personas mayores recurren a ayuda telefónica, chat o tutoriales.
Métodos cualitativos imprescindibles
- Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
- Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
- Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
- Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
- Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.
Segmentación y criterios de muestreo
- Edad y subgrupos: 60–69, 70–79, 80+. La capacidad funcional varía dentro de cada rango.
- Capacidades funcionales: visión reducida, audición, movilidad de manos, memoria y atención.
- Nivel de alfabetización digital: desde nativos digitales tardíos hasta usuarios mínimos; incluir quienes dependen de intermediarios.
- Contexto socioeconómico: acceso a dispositivos, calidad de internet, soporte familiar.
Diseño de tareas de evaluación
- Establecer tareas prácticas y pertinentes, como acceder a la cuenta, recuperar una contraseña, efectuar un pago, agendar una cita médica o revisar el historial.
- Agregar situaciones con posibles interrupciones, por ejemplo una llamada imprevista, una caída de la conexión o la ausencia del comprobante impreso.
- Registrar desde el primer contacto cuánto tardan en comprender la función, y no únicamente el tiempo de ejecución.
- Autorizar ayuda simulada en ciertos casos para identificar la cantidad y el tipo de apoyo que necesitan.
Accesibilidad y diseño orientado a la edad
- Tipografía y disposición: uso de una fuente clara, tamaños ajustables por la persona usuaria, interlineado amplio y adecuada distancia entre zonas táctiles.
- Contraste y color: paletas con contraste elevado y variantes aptas para daltónicos; se recomienda no basar la comunicación únicamente en el color.
- Navegación simplificada: recorridos breves, alternativas visibles y evitar menús demasiado profundos.
- Lenguaje claro: indicaciones precisas, sin abreviaturas, con ejemplos sencillos y avisos de confirmación explícitos.
- Protecciones ante errores: guardado en segundo plano, avisos previos a acciones sensibles y posibilidad de revertir cambios.
Aspectos éticos y de reclutamiento
- Consentimiento informado: explicar claramente el propósito de la prueba, la grabación de datos y derechos del participante.
- Privacidad: anonimizar datos y proteger grabaciones que muestren información personal.
- Compensación y accesibilidad del lugar: cubrir desplazamiento, adaptar instalaciones físicas o virtuales y ofrecer apoyo técnico previo.
- Representatividad: evitar sesgos por reclutar solo usuarios ya activos; incluir quienes han abandonado el servicio.
Análisis de resultados y priorización
- Ordenar las fricciones según su impacto y frecuencia: las incidencias que bloquean la ejecución de transacciones reciben atención inmediata, mientras que los detalles de usabilidad con menor efecto se consideran de prioridad intermedia.
- Mapas de recorrido y detección de puntos de dolor: reconocer las fases donde se registran mayores tasas de abandono o momentos de desorientación.
- Planteamiento de soluciones comprobables: elaborar prototipos simples que permitan validar ajustes antes de llevarlos al entorno final.
- Evaluar el impacto de las mejoras: contrastar métricas previas y posteriores empleando cohortes comparables (personas mayores).
Casos prácticos ilustrativos
- Banca digital: un banco de gran alcance detectó que el 40% de los usuarios abandonaba las transferencias por dudas al elegir la cuenta correcta. Al simplificar el formulario, ampliar los campos y ofrecer una confirmación por voz opcional, la tasa de operaciones completadas creció un 25% entre personas mayores y las consultas al centro de ayuda cayeron un 30%.
- Portal de salud: una plataforma de citas médicas notó que quienes superaban los 75 años no concluían el proceso al no comprender las ventanas emergentes. Optaron por un diseño con lenguaje claro y un recorrido lineal; con ello, la confirmación de citas aumentó un 18% en ese grupo.
- Comercio electrónico: una tienda lanzó una «versión para mayores» con botones ampliados y soporte telefónico visible. La conversión en usuarios de 70+ creció, aunque se generó una fuerte dependencia del soporte; para equilibrarlo, incorporaron microvideos de entrenamiento y asistencia por videollamada guiada.
Indicadores de éxito a mediano plazo
- Disminución continua en la tasa de abandono dentro de los procesos esenciales.
- Incremento en la frecuencia de uso sin necesidad de apoyo externo.
- Elevación del nivel de confianza y de la percepción de seguridad.
- Reducción de llamadas al soporte relacionadas con gestiones elementales.
Recomendaciones prácticas para equipos productivos
- Involucrar a personas mayores desde el inicio del diseño y en cada iteración.
- Integrar pruebas de accesibilidad como parte del ciclo de desarrollo continuo.
- Crear métricas desagregadas por edad y capacidad para detectar brechas.
- Formar a equipos de soporte con lenguaje empático y protocolos adaptados.
- Documentar cambios y compartir aprendizajes para replicar soluciones en otros servicios.
Al analizar cómo las personas mayores interactúan con servicios digitales de gran escala se integran datos, observación directa y una mirada social atenta; esta medición no solo destapa fallas técnicas, sino que también pone en evidencia vacíos en diseño, comunicación y apoyo. Ajustes que hacen más sencillo el uso para este grupo suelen repercutir positivamente en toda la comunidad de usuarios y refuerzan la equidad digital, de modo que la evaluación debe mantenerse constante, ser inclusiva y orientarse a soluciones precisas y verificables.
