Hace poco leíamos en el blog de Action Rocket un post sobre test A/B de emails Responsive. El titular es “Split testing responsive email design: You’re doing it wrong” y venía a decir que un test de un email responsive VS otro que no lo es no tiene mucho sentido.
La tesis principal del artículo es que el responsive email design tiene como principal objetivo mejorar la experiencia del usuario y por ello medir los resultados numéricamente es una quimera. Eliot Ross, autor del artículo, mantiene que las diferencias de aperturas, clics o incluso conversión entre ambas versiones a duras penas nos estarían aportando datos fiables.
Sin embargo, el objetivo del responsive design, una mejor experiencia del usuario, debe repercutir en los resultados medibles de las campañas. Al fin y al cabo, el objetivo de optimizar la experiencia del usuario es hacer nuestros esfuerzos de marketing más eficaces.
Cuando un usuario recibe un email que no se adapta a su dispositivo móvil su comportamiento debe ser diferente a si lo recibe y el mail se renderiza permitiendo una cómoda interación (textos y botones grandes, sin necesidad de ampliar o hacer scroll lateral…) Por tanto, ¿como no nos va a portar datos útiles la analítica de este tipo de tests A/B?
Podemos intuir que la interacción de nuestro público con un email adaptable será mejor que si el email está diseñado solo para un tipo de dispositivo (desktop/mobile), pero puede que los resultados de un test nos indiquen que el esfuerzo de diseñar y maquetar emails responsive no aporte resultados significativamente mejores a maquetar emails exclusivamente orientados a escritorio o móvil.
En cualquier caso, desde Digital Response, dadas las circunstancias y los datos de apertura en dispositivos móviles que manejamos, recomendamos en la mayoría de los casos el Responsive Email Design, sin embargo, no debemos olvidar que supone un esfuerzo extra respecto a la maquetación no responsive, y que muchas veces hemos de sacrificar la visualización en Gmail App. Puede que este test (quizá realizado varias veces) nos muestre que nuestro email responsive arroja mejores resultados de interacción, pero también puede decirnos que no existe una mejora importante y que por tanto, podemos ahorrar el esfuerzo (y el disgusto de Gmail) en caso de ir justos de tiempo para realizar un envío, por ejemplo. Sí, hay muchos factores que pueden influir en el comportamiento del usuario, pero un Split-Test, o mejor, una rutina de testeo, siempre nos dará información sobre el comportamiento de nuestros usuarios, nos permitirá conocerlos mejor y adaptar nuestro esfuerzo para optimizar y rentabilizar unestras acciones de email marketing.
También recomendamos, antes de este split test, conocer los dispositivos desde los que nos están abriendo los usuarios. Puedes obtener este dato de tu plataforma de envíos o de herramientas de analítica como la de Litmus.
¿Qué opináis? ¿Habéis realizado este tipo de test? ¿Habéis obtenido resultados interesantes, o por contra, igual que Eliot Ross, pensáis que no es útil?
Hola, buen artículo! Yo creo que depende del objetivo que tengas con tus emailings. Si el objetivo es la conversión, como en el 90% de los emails (newsletter incluidas), los datos sobre clics e interacción son los que te interesan. Hay que probar y hay que medir los datos.
Nosotros nos estamos planteando ahora el responsive. Y, por supuesto, lo único que tenemos en mente es mejorar las tasas de conversión. Si esos datos no mejoran, no cambiaremos a responsive, independientemente de que el usuario tenga una “experiencia” positiva. Lo que queremos es captar negocio, al menos en mi caso…