“El Pescao” y el Neuromarketing
Se puede leer en los medios que “El Pescao” ha elegido su nuevo single utilizando una tecnología de la que ya hemos hablado aquí anteriormente: El Sociograph.
Se puede leer en los medios que “El Pescao” ha elegido su nuevo single utilizando una tecnología de la que ya hemos hablado aquí anteriormente: El Sociograph.
Bitbrain acaba de lanzar al mercado una tecnología de introducción al neuromarketing bastante interesante: usenns. Es la primera de una serie de tecnologías que tienen intención comercializar para hacer más sencillo poder realizar estudios de neuromarketing . Se trata de un sensor wireless que detecta el ritmo cardiaco y la respuesta galvánica y que además incorpora un acelerómetro que ayuda a eliminar los artefactos que el movimiento (de los brazos, normalmente) genera en este tipo de sensores.
El aparato va en dos dedos, con lo que esa mano no se puede utilizar para manipular nada en los estudios. No obstante, ese posicionamiento asegura una calidad de señal muy superior que si estuviera en cualquier otra parte del cuerpo, ya que los dedos es una zona con una gran densidad de glándulas sudoríparas.
El aparato te da la lectura de 6 variables básicas dentro de dos categorías:
Basándose en varias investigaciones científicas (se puede consultar una revisión en Kreibig, S.D., 2010. Autonomic nervous system activity in emotion: A review. Biological Psychology 84 (3), 394-421), puedes ver cómo evolucionan las emociones que te interese rastrear según el contexto (el tipo de estímulo, por ejemplo):
Usenns viene con un software (uLab) diseñado para gestionar una base de datos de sujetos, diseñar experimentos sencillos, monitorización y análisis de datos. Por supuesto, permite exportar los datos en diferentes formatos (el más sencillo de ellos, excel) para después trabajar con ellos. El paquete completo está pensado para ser un kit de iniciación al uso de tecnologías de medición psicofisiológica en la investigación: sencillo de usar, relativamente barato y completamente escalable.
Usenns transmite los datos vía wifi y permite trabajar con hasta 50 sujetos simultaneamente (para por ejemplo análisis de reacción de grandes audiencias). Las características completas del producto se pueden leer en la web del lanzamiento (anillo y software).
Está claro que el interés en tecnología móvil que pueda usarse para monitorizar respuestas fisiológicas o conductas en tienda no hace sino crecer. El éxito de acogida de Neuroretail Revolution en Amsterdam es un indicador claro.
Y el último producto que ha lanzado SMI es otro de ellos: unas gafas de eyetracking que se pueden monitorizar desde un móvil (SMI Eye Tracking Glasses 2.0). En el video podéis ver la presentación.
El viernes pasado realicé una visita a las instalaciones de Bitbrain Technologies en Zaragoza junto con personal de Core Strategy. María, Javier y Juan tuvieron a bien enseñarnos la tecnología que están desarrollando para usar en neuromarketing. Su experiencia proviene del ámbito clínico, por lo que su “laboratorio de neuromarketing” es instrumental que ofrece muy buena calidad de señal pero está diseñado para que pueda ser utilizado por personal sin grandes conocimientos tecnológicos (psicólogos, por ejemplo).
Si tuviéramos que definir su sistema con tres características, y dejáramos de lado la facilidad de uso, éstas serían portabilidad, integración y precisión.
En cuanto a la portabilidad, su sistema puede ser transportado en un maletín con toda comodidad. Para ellos es requisito de diseño que esto sea siempre así y, a medida que modifican el aparataje, el conjunto no puede superar el tamaño del maletín.
En lo que se refiere a la integración, su sistema fue diseñado desde el principio para emplear conjuntamente y sincronizar las diferentes tecnologías que forman parte de él. Esta lista de tecnologías incluye EEG (electrodos húmedos), respuesta galvánica de la piel, electrocardiograma, temperatura y muy pronto también eye-tracking. Pero la cuestión fundamental es que las señales de todos los aparatos (y hasta cuatro canales de video adicionales para el estímulo o la observación del sujeto) están sincronizadas entre sí.
En lo que respecta a la precisión, la preocupación por la calidad de la señal ha sido uno de ejes tractores del proceso de diseño. Baste poner un ejemplo: su sistema incluye un fotómetro que utilizan para sincronizar la señal. Al parecer, Windows tiene un error de diseño por el cual existe un retraso entre que muestra una imagen en pantalla entre 50 y 100 milisegundos después del momento en el que dice que la está mostrando. Este tiempo es variable e impredecible, por lo que si quieres sincronizar las señales al milisegundo con los estímulos debes tomar medidas para corregirlo. De ahí el fotometro.
En marketing en general rara vez 100 milisegundos de error nos van a suponer algún problema, puesto que si bien nuestros estímulos son relativamente cortos (segundos), no llegan al punto en el que la precisión del milisegundo sea tan importante. Estamos más interesados en unidades (como el plano, de entre 1 y 3 segundos) con varios órdenes de magnitud mayor.
Sin embargo, existe una aplicación para la que es fundamental conocer exactamente los tiempos al milisegundo. Tanto Neurofocus como Human Mind and Brain han comentado, bien en conferencias, bien a través del libro The Buying Brain, que miden mediante tiempos de respuesta las asociaciones que generan las marcas o las personas famosas. En este tipo de estrategia estás midiendo y comparando entre sí tiempos de respuesta que pueden rondar, por ejemplo, los 300 milisegundos y en los que 100 milisegundos de retraso de Windows son un 33% de error.
La verdad es que nunca he oído a ninguno de los dos (Neurofocus o Human Mind and Brain) explicar cómo solucionan este retraso inherente de Windows. Quiero creer que algo harán al respecto.
Affectiva ha enviado hoy un email a los clientes de sus sensor de respuesta galvánica (el Q Sensor) para explicarles que deja de vender el producto a partir del día 30 de este mes. Affectiva continuará ofreciendo soporte y garantía para el producto hasta dentro de un año pero, por lo demás, se puede considerar que este producto va a desaparecer.
La compañía aduce que es una decisión guiada por la evolución del mercado y la necesidad de especializarse. No obstante, entre los usuarios y profesionales han surgido numerosas críticas con respecto a la tecnología (como muestra esta discusión en el grupo Neuromarketing de LinkedIn).
He leído quejas con respecto a la recogida de datos vía wireless (pérdida de datos), con respecto al nivel mínimo de actividad necesario para mantener el sensor húmedo, con respecto a la sensibilidad del aparato…
Supongo que nadie quiere decir que no es lo que se esperaba de él cuando un producto fracasa…
Leo en Brainethics que han desarrollado una herramienta que es capaz de predecir los “mapas de calor” que se pueden crear a a partir de la agrupación de varias lectura de un sistema de eye-tracking. Según declaran, la herramienta tiene un 80% de capacidad predictiva y una fracción del coste de un estudio de eye-tracking real. Han llamado al sistema Eye2D2.
La idea es sencilla. Coloca una imagen en el sistema y sabrás cuales son los elementos de ella que más atención atraerán en los primeros segundos de exposición. De una forma parecida a la que lo harías con un estudio de eye-tracking, pero mucho más rápido y sin que ninguna persona tome parte como receptor. Eso sí, el sistema utiliza un algoritmo basado en experimentos previos y puede que no revele algunas cosas que un experimento real si que haría.
He de confesar que, aunque la idea me parece buena, no sé hasta que punto tiene sentido trabajar solo con eyetracking. Y mucho menos sólo con un algoritmo que encuentra los puntos calientes de la imagen. Del estudio de Sands Research en tienda, sabemos que el 80% de las fijaciones visuales en tienda son para productos que finalmente no compramos y que la cuestión que decide realmente si hay compra o no es la respuesta emocional (medida mediante asimetría cerebral) en los primeros segundos de exposición al producto. Al parecer, varios otros investigadores están en vías de publicación de trabajos científicos que confirman esa noción en distintos experimentos y contextos.
Como el mismo autor de blog, Thomas Ramsoy, comenta, muchos factores influyen en la dirección de la mirada. Algunos de ellos son bottom-up, es decir se basan en las características de la imagen (colores, líneas, ..) y nuestra predisposición hacia ellas, mientras que otros factores son top-down, es decir, dependientes de lo que estemos buscando, de nuestra agenda y expectativas al examinar la imagen. No estoy seguro de qué beneficio podemos obtener de los mapas de calor per sé, sin otras herramientas que contextualicen esa información, a la hora de desarrollar nuestra labor publicitaria. Pero mucho menos de un sistema así que entiendo que está más orientado a los elementos bottom-up que controlan la percepción.
Aún sin ser propiamente “neurociencia” (lo podríamos catalogar como observación de la conducta), el eyetracking es una herramienta fabulosa para el neuromarketing. Muchas de las consultoras en este mercado han comenzado a integrar el seguimiento ocular dentro de sus metodologías para averiguar dónde está mirando el sujeto estudiado en cada instante.
Podemos considerar que es una herramienta útil para evaluar la respuesta a un estímulo audiovisual (un spot, por ejemplo), pero desde luego es absolutamente indispensable para que los datos tengan algún sentido cuando estudiamos datos producidos por un consumidor en tienda, evaluando un determinado packaging o en cualquier otra situación “de la vida real”. Sin el seguimiento ocular para agregar los datos de distintos sujetos, estaríamos perdidos.
He estado recopilando una serie de ideas en torno a las lecciones aprendidas con esta técnica. Se suman cosas que he leído, cosas que he oído comentar a profesionales que la emplean y reflexiones personales. No puedo documentar en este momento ninguna de las afirmaciones que siguen, así que tomense con cuidado. Son más ideas para mi archivo personal:
Hasta aquí una serie ideas que quería recopilar sobre la mirada y el seguimiento ocular.
Recuerdo que cuando conocí a Gemma Calvert en Neuro Connections (Cracovia, febrero 2009), la presentadora de la conferencia la denominó “la reina del fMRI” por su trabajo con esa tecnología. La resonancia magnética funcional ofrece muchas ventajas: resolución espacial, capacidad para medir la actividad de regiones profundas del cerebro que no podríamso medir de otra manera,… Por supuesto, tiene otros muchos inconvenientes incluyendo la falta de movilidad del paciente, la situación incómoda o la resolución temporal. Pero el principal inconveniente para la investigación comercial es que es una técnica cara, muy muy cara. El coste de la maquinaria necesaria puede rondar entre 1 millon y tres millones. El coste de los operarios entrenados para utilizarla tampoco es despreciable.
Las características de la fMRI la han llevado a ser considerada a veces como la “hermana mayor” de la EEG, cosa que no es cierta en todos los aspectos porque la EEG también ofrece sus ventajas. El debate fMRI/EEG ha sido una constante en este mercado, con partidarios y detractores en ambos extremos. En algunos casos, el debate has sido fMRI y EEG (las técnicas “neuro”) contra otras técnicas como respuesta galvánica de la piel, eye tracking o electromiografía (“bodymarketing”).
En el Neuromarketing World Forum el mensaje de Gemma Calvert fue completamente diferente a lo que podríamos esperar. La doctora Calvert abogó por la inclusión de todas las técncicas dentro del “paraguas” del neuromarketing. Desde su punto de vista hay una técnica apropiada para resolver cada problema de investigación. Como muestra, presentó la siguiente lista en la que aducía una serie de
Test de Asociaciones Implícitas
Supongo que si la “reina de la fMRI” aboga por la inclusión de todas las técnicas bajo la denominación neuromarketing, el resto podemos hacer lo mismo. Cada problema tendrá su técnica ideal para ser resuelto.
He tenído la oportunidad de leer esta interesante discusión en LinkedIn acerca de las diferentes capacidades de electroencefalografía y la resonancia magnética funcional (fMRI). Me ha parecido interesante traducir y conservar aquí varias afirmaciones del Doctor Fabio Babiloni.
Ambas técnicas (EEG y fMRI) y otras muchas que se utilizan en neurociencias (PET, MEG, TMS, NIRS…) tienen ventajas y desventajas. El Dr. Babiloni apunta que toda técnica tiene sus fuentes visibles, es decir, el grupo de neuronas cuya actividad espaciotemporal puede ser detectada (al menos en parte) por la técnica en cuestión. Pero por definición, toda técnica tiene también sus fuentes invisibles, aquellos grupos de neuronas que producen un patrón de actividad indetectable por dicha técnica.
Cuando hablamos de EEG de alta densidad, las fuentes visibles están situadas en la zona cortical y se suele decir que el EEG es capaz de obtener información de las partes más superficiales del cerebro. El EEG tiene otra limitación y es que las activaciones coherentes de grupos de neuronas están sobrerepresentadas en sus mediciones. Es decir, si el 99% una población de neuronas que se activa de manera incoherente mientras que hay un 1% que se activa coherentemente, ese 1% producirá un potencial 30 veces mayor que el restante 99% gracias a la sincronicidad. Los requerimientos energéticos de esa modesta población de neuronas que se activa de manera síncrona serían pequeños relativamente y probablemente “invisibles” para el fMRI.
Al revés, también nos encontramos con poblaciones de neuronas con altos requerimientos metabólicos, como las células estrelladas (stellate cells) que suponen un 15% de la polación neural total, pero que ocupan volumes esféricos en el cortex. Estos volumenes esféricos generan patrones de campos electromágneticos cerrados que no pueden ser registrados por medios eléctricos o magnéticos pero cuya actividad metabólica si es visible para la fMRI.
Esta fue la noticia que encendió la discusión.
Hemos hablado en numerosas ocasiones de cómo se pueden utilizar los movimientos de los músculos faciales para detectar emociones (publiqué un artículo sobre Mienteme y otro sobre Emotionomics). Casi todos los sistemas se basan de un modo u otro en el trabajo que Paul Ekman realizó en los 70 y 80, y en el producto de ese trabajo: el FACS (Facial Action Coding System).
Hoy en día algunas empresas están utilizando las técnicas de codificación del Doctor Ekman para desarrollar software de reconocimiento de emociones que es capaz de analizar un video y marcar la emoción que esa persona muestra en su cara en tiempo real. Potencialmente, esto tiene interesantes aplicaciones a la investigación de mercados.
Tengo dos referencias de software de ese tipo:
Además de esas dos referencias, he encontrado una empresa más, Noldus (también en Holanda), que vende varios tipos de software orientados a la observación de la conducta, tanto en seres humanos como en animales. Tienen un programa dedicado a la investigación mediante la codificación de la conducta (The Observer) y un complemento que codifica automáticamente las expresiones faciales denominado FaceReader. Desconozco si está relacionado con el trabajo de la universidad de Amsterdam al que me he referido antes.
¿Y vosotros? ¿Conocéis más empresas/universidades con programas de reconocimiento facial de emociones? ¿Algo similar? ¿Os animáis a compartir información con los demás lectores?
La base de lectores de este blog ha ido multiplicándose. Tengo que confesar que la última vez que revisé las estadísticas me quedé bastante sorprendido, ya que no es un proyecto que esté publicitando demasiado. No obstante, a pesar de que somos varios cientos de lectores, los comentarios permanecen bastante desiertos. ¿Nos animamos a contar algo sobre este tema?
Actualización: Me comentan el nombre de otra empresa, en este caso suiza, que también está en este mundillo de la detección automática de emociones mediante expresiones faciales: nVISO.