“El Pescao” y el Neuromarketing

20 de noviembre de 2014 No hay comentarios todavía

Se puede leer en los medios que “El Pescao” ha elegido su nuevo single utilizando una tecnología de la que ya hemos hablado aquí anteriormente: El Sociograph.

Usenns, tecnología de introducción al neuromarketing de Bitbrain

11 de febrero de 2014 3 comentarios

usenns - Bitbrain

Bitbrain acaba de lanzar al mercado una tecnología de introducción al neuromarketing bastante interesante: usenns. Es la primera de una serie de tecnologías que tienen intención comercializar para hacer más sencillo poder realizar estudios de neuromarketing . Se trata de un sensor wireless que detecta el ritmo cardiaco y la respuesta galvánica y que además incorpora un acelerómetro que ayuda a eliminar los artefactos que el movimiento (de los brazos, normalmente) genera en este tipo de sensores.

El aparato va en dos dedos, con lo que esa mano no se puede utilizar para manipular nada en los estudios. No obstante, ese posicionamiento asegura una calidad de señal muy superior que si estuviera en cualquier otra parte del cuerpo, ya que los dedos es una zona con una gran densidad de glándulas sudoríparas.

El aparato te da la lectura de 6 variables básicas dentro de dos categorías:

  • Actividad electrodérmica (EDA): Se caracteriza por el grado de variación de corriente eléctrica al atravesar la piel, la cual depende de la cantidad de sudoración. Las medidas más utilizadas por los investigadores para discriminar emociones son el skin conductance level (SCL), skin conductance response rate (nSRR) y el skin conductance amplitude (SCR).
  • Actividad cardiovascular (ACV): Se caracteriza por variaciones en el flujo de sangre por las arterias y venas. Las medidas más utilizadas por los investigadores para discriminar emociones son el ritmo cardíaco (HR), la variabilidad de ritmo cardíaco (HRV) y la presión sanguínea sistólica y diástólica (SBP y DBP).

Basándose en varias investigaciones científicas (se puede consultar una revisión en Kreibig, S.D., 2010. Autonomic nervous system activity in emotion: A review. Biological Psychology 84 (3), 394-421), puedes ver cómo evolucionan las emociones que te interese rastrear según el contexto (el tipo de estímulo, por ejemplo):

Emociones

Usenns viene con un software (uLab) diseñado para gestionar una base de datos de sujetos, diseñar experimentos sencillos, monitorización y análisis de datos. Por supuesto, permite exportar los datos en diferentes formatos (el más sencillo de ellos, excel) para después trabajar con ellos. El paquete completo está pensado para ser un kit de iniciación al uso de tecnologías de medición psicofisiológica en la investigación: sencillo de usar, relativamente barato y completamente escalable.

Usenns transmite los datos vía wifi y permite trabajar con hasta 50 sujetos simultaneamente (para por ejemplo análisis de reacción de grandes audiencias). Las características completas del producto se pueden leer en la web del lanzamiento (anillo y software).

SMI lanza eyetracking que se monitoriza desde el móvil

10 de septiembre de 2013 No hay comentarios todavía

Está claro que el interés en tecnología móvil que pueda usarse para monitorizar respuestas fisiológicas  o conductas en tienda no hace sino crecer. El éxito de acogida de Neuroretail Revolution en Amsterdam es un indicador claro.

Y el último producto que ha lanzado SMI es otro de ellos: unas gafas de eyetracking que se pueden monitorizar desde un móvil (SMI Eye Tracking Glasses 2.0). En el video podéis ver la presentación.

Visita a Bitbrain

9 de abril de 2013 7 comentarios

Bitbrain

El viernes pasado  realicé una visita a las instalaciones de Bitbrain Technologies en Zaragoza junto con personal de Core Strategy. María, Javier y Juan tuvieron a bien enseñarnos la tecnología que están desarrollando para usar en neuromarketing. Su experiencia proviene del ámbito clínico, por lo que su “laboratorio de neuromarketing” es instrumental que ofrece muy buena calidad de señal pero está diseñado para que pueda ser utilizado por personal sin grandes conocimientos tecnológicos (psicólogos, por ejemplo).

Si tuviéramos que definir su sistema con tres características, y dejáramos de lado la facilidad de uso, éstas serían portabilidad, integración y precisión.

En cuanto a la portabilidad, su sistema puede ser transportado en un maletín con toda comodidad. Para ellos es requisito de diseño que esto sea siempre así y, a medida que modifican el aparataje, el conjunto no puede superar el tamaño del maletín.

En lo que se refiere a la integración, su sistema fue diseñado desde el principio para emplear conjuntamente y sincronizar las diferentes tecnologías que forman parte de él. Esta lista de tecnologías incluye EEG (electrodos húmedos), respuesta galvánica de la piel, electrocardiograma, temperatura y muy pronto también eye-tracking. Pero la cuestión fundamental es que las señales de todos los aparatos (y hasta cuatro canales de video adicionales para el estímulo o la observación del sujeto) están sincronizadas entre sí.

En lo que respecta a la precisión, la preocupación por la calidad de la señal ha sido uno de ejes tractores del proceso de diseño. Baste poner un ejemplo: su sistema incluye un fotómetro que utilizan para sincronizar la señal. Al parecer, Windows tiene un error de diseño por el cual existe un retraso entre que muestra una imagen en pantalla entre 50 y 100 milisegundos después del momento en el que dice que la está mostrando. Este tiempo es variable e impredecible, por lo que si quieres sincronizar las señales al milisegundo con los estímulos debes tomar medidas para corregirlo. De ahí el fotometro.

En marketing en general rara vez 100 milisegundos de error nos van a suponer algún problema, puesto que si bien nuestros estímulos son relativamente cortos (segundos), no llegan al punto en el que la precisión del milisegundo sea tan importante. Estamos más interesados en unidades (como el plano, de entre 1 y 3 segundos) con varios órdenes de magnitud mayor.

Sin embargo, existe una aplicación para la que es fundamental conocer exactamente los tiempos al milisegundo. Tanto Neurofocus como Human Mind and Brain han comentado, bien en conferencias, bien a través del libro The Buying Brain, que miden mediante tiempos de respuesta las asociaciones que generan las marcas o las personas famosas. En este tipo de estrategia estás midiendo y comparando entre sí tiempos de respuesta que pueden rondar, por ejemplo, los 300 milisegundos y en los que 100 milisegundos de retraso de Windows son un 33% de error.

La verdad es que nunca he oído a ninguno de los dos (Neurofocus o Human Mind and Brain) explicar cómo solucionan este retraso inherente de Windows. Quiero creer que algo harán al respecto.

Afectiva deja de vender el Q Sensor

3 de abril de 2013 No hay comentarios todavía

Q Sensor

Affectiva ha enviado hoy un email a los clientes de sus sensor de respuesta galvánica (el Q Sensor) para explicarles que deja de vender el producto a partir del día 30 de este mes. Affectiva continuará ofreciendo soporte y garantía para el producto hasta dentro de un año pero, por lo demás, se puede considerar que este producto va a desaparecer.

La compañía aduce que es una decisión guiada por la evolución del mercado y la necesidad de especializarse. No obstante, entre los usuarios y profesionales han surgido numerosas críticas con respecto a la tecnología (como muestra esta discusión en el grupo Neuromarketing de LinkedIn).

He leído quejas con respecto a la recogida de datos vía wireless (pérdida de datos), con respecto al nivel mínimo de actividad necesario para mantener el sensor húmedo, con respecto a la sensibilidad del aparato…

Supongo que nadie quiere decir que no es lo que se esperaba de él cuando un producto fracasa…

Sistema de predicción del calor visual de una imagen

7 de enero de 2013 No hay comentarios todavía

Leo en Brainethics que  han desarrollado una herramienta que es capaz de predecir los “mapas de calor” que se pueden crear a a partir de la agrupación de varias lectura de un sistema de eye-tracking. Según declaran, la herramienta tiene un 80% de capacidad predictiva y una fracción del coste de un estudio de eye-tracking real. Han llamado al sistema Eye2D2.

La idea es sencilla. Coloca una imagen en el sistema y sabrás cuales son los elementos de ella que más atención atraerán en los primeros segundos de exposición. De una forma parecida a la que lo harías con un estudio de eye-tracking, pero mucho más rápido y sin que ninguna persona tome parte como receptor. Eso sí, el sistema utiliza un algoritmo basado en experimentos previos y puede que no revele algunas cosas que un experimento real si que haría.

He de confesar que, aunque la idea me parece buena, no sé hasta que punto tiene sentido trabajar solo con eyetracking. Y mucho menos sólo con un algoritmo que encuentra los puntos calientes de la imagen. Del estudio de Sands Research en tienda, sabemos que el 80% de las fijaciones visuales en tienda son para productos que finalmente no compramos y que la cuestión que decide realmente si hay compra o no es la respuesta emocional (medida mediante asimetría cerebral) en los primeros segundos de exposición al producto. Al parecer, varios otros investigadores están en vías de publicación de trabajos científicos que confirman esa noción en distintos experimentos y contextos.

Como el mismo autor de blog, Thomas Ramsoy, comenta, muchos factores influyen en la dirección de la mirada. Algunos de ellos son bottom-up, es decir se basan en las características de la imagen (colores, líneas, ..) y nuestra predisposición hacia ellas, mientras que otros factores son top-down, es decir, dependientes de lo que estemos buscando, de nuestra agenda y expectativas al examinar la imagen. No estoy seguro de qué beneficio podemos obtener de los mapas de calor per sé, sin otras herramientas que contextualicen esa información, a la hora de  desarrollar nuestra labor publicitaria. Pero mucho menos de un sistema así que entiendo que está más orientado a los elementos bottom-up que controlan la percepción.

Lecciones aprendidas del eyetracking

4 de abril de 2012 3 comentarios
eyetracking

Una consumidora en centro comercial con las gafas de eyetracking de SMI Vision

Aún sin ser propiamente “neurociencia” (lo podríamos catalogar como observación de la conducta), el eyetracking es una herramienta fabulosa para el neuromarketing. Muchas de las consultoras en este mercado han comenzado a integrar el seguimiento ocular dentro de sus metodologías para averiguar dónde está mirando el sujeto estudiado en cada instante.

Podemos considerar que es una herramienta útil para evaluar la respuesta a un estímulo audiovisual (un spot, por ejemplo), pero desde luego es absolutamente indispensable para que los datos tengan algún sentido cuando estudiamos datos producidos por un consumidor en tienda, evaluando un determinado packaging o  en cualquier otra situación “de la vida real”. Sin el seguimiento ocular para agregar los datos de distintos sujetos, estaríamos perdidos.

He estado recopilando una serie de ideas en torno a las lecciones aprendidas con esta técnica. Se suman cosas que he leído, cosas que he oído comentar a profesionales que la emplean y reflexiones personales. No puedo documentar en este momento ninguna de las afirmaciones que siguen, así que tomense con cuidado. Son más ideas para mi archivo personal:

  1. Las caras es lo primero que atrae la atención en cualquier estímulo visual. Esto es cierto incluso para “el lugar en el que debería aparecer una cara”. Es decir, si el sujeto lleva un casco (como el niño en el anuncio The Force), también centramos nuestra atención en su cara a pesar de que el casco es inexpresivo. Éste es un mecanismo automático y universal para el ser humano, y probablemente tiene su razón de ser evolutiva en la enorme cantidad de información que está preparada para transmitir nuestra cara, con más de 40 músculos faciales dispuestos a alterar nuestra expresión. Compartimos esta expresividad facial con parte de los primates (los haplorrinos), pero por lo demás no encontraréis este rasgo muy extendido en el reino animal. No es que los delfines sonrían, es que tienen la boca así.
    Lección para la publicidad: Las caras llaman la atención.
  2. Lo siguiente que observamos es aquello que está en la dirección de la mirada de los rostros, si es posible. Otra característica que encontrarás en los seres humanos pero no en tu perro. Nuestro cerebro tiene los mecanismos necesarios para que nos preocupemos de seguir la mirada a nuestros congéneres. Los animales no lo hacen. Este rasgo se desarrolla cuando somos bebés de 9 meses y nos acompaña el resto de nuestras vidas.
    Lección para la publicidad: alinea aquellos elementos sobre los que quieres llamar la atención al final de la mirada de las caras que aparezcan en tu anuncio. Cuando existe descoordinación entre las miradas y el centro de interés pretendido del anuncio, la pieza no funciona bien.
  3. Cada nuevo plano en un spot genera un nuevo incremento de atención. En cada plano, buscaremos primero los rostros humanos y animales que aparezcan, después seguiremos sus miradas para ver cual es su foco de atención y finalmente atenderemos a los demás elementos de la imagen.
    Lección para la publicidad: si quieres que el espectador se fije en algo distinto de las caras que aparezcan el plano deberá durar suficiente tiempo para ello. Sucede a veces que los anuncios de coches pretenden por ejemplo mostrar el acabado del interior del producto. En muchas ocasiones muestran a un conductor y sus ocupantes en el interior del vehículo pero, puesto que los segundos en televisión cada vez son más caros, el plano es muy corto y los espectadores no tienen tiempo para apreciar los detalles interiores del coche.
  4. Texto en la derecha, imágenes a la izquierda. Según The Buying Brain (no sé hasta dónde fiarme viendo el nivel de documentación de la mayoría de sus afirmaciones), el procesamiento funciona más rápido para la mayor parte de las personas de esta manera porque lo que está en el campo visual izquierdo es procesado por el hemisferio derecho (especializado en iconografía e imágenes) y viceversa (el izquierdo se especializa en semántica).
    Lecciones para la publicidad: usa esta distribución en packaging, y formatos impresos siempre que sea posible.
  5. Las metas tienen una influencia tremenda sobre los recorridos de la mirada. Un espectador con un objetivo no mirará de la misma manera que un espectador que no tenga la misma meta. Este esfuerzo activo no suele ser común en publicidad, dónde nos enfrentamos a un espectador más bien pasivo que tiene un interés bajo por lo que podamos contarle. No obstante, hay situaciones en las que deberíamos tener en cuenta este efecto.
    Lecciones para la publicidad: no subestimes el efecto que tiene sobre la mirada que el consumidor tenga un objetivo.
  6. Probablemente variables como el sexo o el  trasfondo influyan en esas metas. En este estudio de Daily Mail se puede ver como los patrones de fijación de hombres y mujeres difieren. Aunque elementos comunes como el rostro atraen siempre la atención de ambos sexos, el orden en el que se fijan en los diferentes elementos del anuncio es diferente. Saquen sus propias conclusiones.
    Lecciones para la publicidad: no muchas. Los profesionales ya saben que cada público objetivo es diferente y que deben enfrentarlo. Quizá merezca la pena estudiar mediante eyetracking cómo se leen los anuncios que producimos (en qué orden, qué llama más la atención…).
  7. Las curvas son más atractivas para el ojo que las líneas rectas. Podemos pensar en nuestra propia experiencia. Creo que  si atendemos al diseño de los productos de consumo de de culto, podremos corroborar esta afirmación general. Esta idea proviene de nuevo de Neurofocus.
    Lecciones para la publicidad: las curvas son sexys. Inclúyelas en tus diseños siempre que sea posible. Distribuye los elementos visuales en patrones curvilíneos.
  8. En una tienda dedicamos más tiempo a mirar productos que finalmente no compraremos que productos que vamos a comprar. Aproximadamente el 80% de las fijaciones visuales se destinan a productos que finalmente no vamos a comprar. Los productos que acaban en nuestra cesta requieren muy pocas fijaciones antes de tomar la decisión. Este es un dato que dio Stephen Sand de Sands Research en el Neuromarketing World Forum y que coincide con la idea de que nuestras compras en el supermercado están profundamente influidas por el hábito. Según el Dr. Sands, es posible predecir si el cliente comprará el producto a partir de la secuencia de fijaciones visuales (varias fijaciones visuales en cadena preceden la compra, mientras que miradas exploratorias sobre el objeto indican que se rechazará).
    Lecciones para la publicidad: Que miremos un objeto u otro no nos permite sacar conclusiones positivas o negativas con respecto a su atractivo. La mayor parte de nuestras miradas en un supermercado son para evaluar opciones que desecharemos. No obstante los patrones de miradas si pueden contarnos algunas cosas.

Hasta aquí una serie ideas que quería recopilar sobre la mirada y el seguimiento ocular.

La reina del fMRI aboga por la inclusión

17 de febrero de 2012 No hay comentarios todavía

Gemma CalvertRecuerdo que cuando conocí a Gemma Calvert en Neuro Connections (Cracovia, febrero 2009), la presentadora de la conferencia la denominó “la reina del fMRI” por su trabajo con esa tecnología. La resonancia magnética funcional ofrece muchas ventajas: resolución espacial, capacidad para medir la actividad de regiones profundas del cerebro que no podríamso medir de otra manera,… Por supuesto, tiene otros muchos inconvenientes incluyendo la falta de movilidad del paciente, la situación incómoda o la resolución temporal. Pero el principal inconveniente para la investigación comercial es que es una técnica cara, muy muy cara. El coste de la maquinaria necesaria puede rondar entre 1 millon y tres millones. El coste de los operarios entrenados para utilizarla tampoco es despreciable.

Las características de la fMRI la han llevado a ser considerada a veces como la “hermana mayor” de la EEG, cosa que no es cierta en todos los aspectos porque la EEG también ofrece sus ventajas. El debate fMRI/EEG ha sido una constante en este mercado, con partidarios y detractores en ambos extremos. En algunos casos, el debate has sido fMRI y EEG (las técnicas “neuro”) contra otras técnicas como respuesta galvánica de la piel, eye tracking o electromiografía (“bodymarketing”).

En el Neuromarketing World Forum el mensaje de Gemma Calvert fue completamente diferente a lo que podríamos esperar. La doctora Calvert abogó por la inclusión de todas las técncicas dentro del “paraguas” del neuromarketing. Desde su punto de vista hay una  técnica apropiada para resolver cada problema de investigación. Como muestra, presentó la siguiente lista en la que aducía una serie de

Eye tracking

  • Sitios web
  • Análisis de lineal de supermercados
  • Packaging
  • Anuncios de televisión o prensa
  • Displays de PLV (Publicidad en el lugar de venta)

Test de Asociaciones Implícitas

  • Posicionamiento de marca
  • Packaging
  • Preferencia de folletos
  • Segmentación de categorías
  • Selección de famosos para campañas de publicidad

EEG

  • Anuncios de televisión
  • Trailers de películas
  • Identificación de recursos audiovisuales clave
  • Sitios web
  • Respuesta en tienda

fMRI

  • Investigación durante la fase de desarrollo de nuevos productos
  • Identificar necesidades y hábitos
  • Campañas de salud pública
  • Test de aromas
  • Test multisensoriales, que impliquen intracción de varios sentidos

Supongo que si la “reina de la fMRI” aboga por la inclusión de todas las técnicas bajo la denominación neuromarketing, el resto podemos hacer lo mismo. Cada problema tendrá su técnica ideal para ser resuelto.

EEG vs. fMRI

24 de octubre de 2011 No hay comentarios todavía

He tenído la oportunidad de leer esta interesante discusión en LinkedIn acerca de las diferentes capacidades de electroencefalografía y la resonancia magnética funcional (fMRI). Me ha parecido interesante traducir y conservar aquí varias afirmaciones del Doctor Fabio Babiloni.

Ambas técnicas (EEG y fMRI) y otras muchas que se utilizan en neurociencias (PET, MEG, TMS, NIRS…) tienen ventajas y desventajas. El Dr. Babiloni apunta que toda técnica tiene sus fuentes visibles, es decir, el grupo de neuronas cuya actividad espaciotemporal puede ser detectada (al menos en parte) por la técnica en cuestión. Pero por definición, toda técnica tiene también sus fuentes invisibles, aquellos grupos de neuronas que producen un patrón de actividad indetectable por dicha técnica.

Cuando hablamos de EEG de alta densidad, las fuentes visibles están situadas en la zona cortical y se suele decir que el EEG es capaz de obtener información de las partes más superficiales del cerebro. El EEG tiene otra limitación y es que las activaciones coherentes de grupos de neuronas están sobrerepresentadas en sus mediciones. Es decir, si el 99% una población de neuronas que se activa de manera incoherente mientras que hay un 1% que se activa coherentemente, ese 1% producirá un potencial 30 veces mayor que el restante 99% gracias a la sincronicidad. Los requerimientos energéticos de esa modesta población de neuronas que se activa de manera síncrona serían pequeños relativamente y probablemente “invisibles” para el fMRI.

Al revés, también nos encontramos con poblaciones de neuronas con altos requerimientos metabólicos, como las células estrelladas (stellate cells) que suponen un 15% de la polación neural total, pero que ocupan volumes esféricos en el cortex. Estos volumenes esféricos generan patrones de campos electromágneticos cerrados que no pueden ser registrados por medios eléctricos o magnéticos pero cuya actividad metabólica si es visible para la fMRI.

Esta fue la noticia que encendió la discusión.

Software de reconocimiento de emociones a través expresiones faciales

24 de junio de 2011 9 comentarios

Emociones - software reconocimiento facial

Hemos hablado en numerosas ocasiones de cómo se pueden utilizar los movimientos de los músculos faciales para detectar emociones (publiqué un artículo sobre Mienteme y otro sobre Emotionomics). Casi todos los sistemas se basan de un modo u otro en el trabajo que Paul Ekman realizó en los 70 y 80, y en el producto de ese trabajo: el FACS (Facial Action Coding System).

Hoy en día algunas empresas están utilizando las técnicas de codificación del Doctor Ekman para desarrollar software de reconocimiento de emociones que es capaz de analizar un video y marcar la emoción que esa persona muestra en su cara en tiempo real. Potencialmente, esto tiene interesantes aplicaciones a la investigación de mercados.

Tengo dos referencias de software de ese tipo:

  • Por una parte, el grupo de Affective Computing del MIT está trabajando en un proyecto denominado FaceSense. En la página de Affectiva (spin-off liderada por este grupo) se puede encontrar referencias al Affdex, un sistema para monitorizar las emociones de los internautas mientras interactúan con tu servicio o aplicación que supongo que estará basado en ese sistema. En éste video Rosalind Piccard hace una demostración de las tecnologías de Affectiva (reconocimiento facial al final del video).
  • Por otro lado, recientemente me han pasado la referencia de una empresa en Holanda, Visual Recognition (o Thirdsight, la verdad es que no queda claro cual de las dos es la compañía que actualmente comercializa el software para uso en investigación de mercados), que está utilizando tecnología desarrollada por la Universidad de Amsterdam (más concretamente por el equipo de Theo Gevers). Es un caso especialmente interesante porque os podéis bajar una demo que funciona sobre Windows XP con una webcam.

Además de esas dos referencias, he encontrado una empresa más, Noldus (también en Holanda), que vende varios tipos de software orientados a la observación de la conducta, tanto en seres humanos como en animales. Tienen un programa dedicado a la investigación mediante la codificación de la conducta (The Observer) y un complemento que codifica automáticamente las expresiones faciales denominado FaceReader. Desconozco si está relacionado con el trabajo de la universidad de Amsterdam al que me he referido antes.

¿Y vosotros? ¿Conocéis más empresas/universidades con programas de reconocimiento facial de emociones? ¿Algo similar? ¿Os animáis a compartir información con los demás lectores?

La base de lectores de este blog ha ido multiplicándose. Tengo que confesar que la última vez que revisé las estadísticas me quedé bastante sorprendido, ya que no es un proyecto que esté publicitando demasiado. No obstante, a pesar de que somos varios cientos de lectores, los comentarios permanecen bastante desiertos. ¿Nos animamos a contar algo sobre este tema?

Actualización: Me comentan el nombre de otra empresa, en este caso suiza, que también está en este mundillo de la detección automática de emociones mediante expresiones faciales: nVISO.