Entrevista TenTIC: Mar Muñoz, IT Travel services

Mar Muñoz

Nos gustan las empresas que explican cómo hacen su trabajo. Hoy entrevistamos a Mar MuñozCEO en IT Travel Services. Seguimos su blog y les queremos agradecer la pedagogía de cómo explican lo que hacen.

El análisis de datos a partir de diferentes fuentes de información, públicas y privadas, aplicando diferentes técnicas y tecnologías, es un tema complejo, que necesita de divulgación, pedagogía, y casos de estudio de éxito para poder comprender la magnitud de su importancia. Entendemos que cada proyecto es único en función a la estrategia empresarial de cada uno.

Como ella se define:” positiva es el mejor adjetivo que me define, y apasionada por la tecnología, también. Llevo en el mundo de la tecnología orientada al turismo más de 20 años y cada día se convierte en una oportunidad para aprender y aplicar algo nuevo en la transformación digital en la que estamos inmersos. Antes desarrollaba tecnología; ahora, hago llegar la tecnología como un facilitador para mejorar procesos de negocio basándome en técnicas de Big Data para conseguirlo.

 Líder generosa por naturaleza, creo entornos de trabajo eficientes, basados en el respeto hacia cada persona de mi equipo para potenciar sus aptitudes y generar a la vez en ellos un incremento de motivación y confianza. Así pues, al engrandecer lo mejor de cada uno de ellos, logramos impactar positivamente en nuestros clientes, proveedores y comunidad en general.”

Ingeniera en Informática (por la UPM), Master en Big Data (por la UNIR) y Programa Avanzado sobre Dirección General (por IESE). Ha desempeñado diferentes puestos de trabajo como Dirección de Sistemas (9 años en Barceló Viajes), Dirección de eCommerce (3 años en Barceló Viajes), Dirección Comercial y ventas (4 años en eDreams y Barceló viajes), y actualmente es CEO en IT Travel Services, donde desarrollan proyectos de Big Data.

1. ¿Nos puedes describir en qué consiste tu trabajo?

Dentro de IT Travel gestiono la parte comercial y de captación de clientes y nuevos proyectos. Me encargo de visitar a clientes y principalmente mi función es, escuchar que problemas tienen en su día a día, para intentar detectar si podemos resolver esa problemática. Normalmente antes de iniciar un proyecto de Big Data, automatizamos algún proceso que están realizando de forma manual y que les quita mucho tiempo, para poder abordar nuevos proyectos.

2. ¿Es viable para una pyme de pocos trabajadores encargar un proyecto de análisis de datos o incluso de «big data»? ¿Cómo son las empresas pequeñas, no multinacionales, que solicitan este tipo de proyectos?

Hay que perder el miedo a los proyectos de Big Data y no deberíamos creer que son caros, sin antes solicitar una propuesta económica, porque realmente se pueden hacer cosas muy útiles sin una gran inversión. Hoy en día el principal problema que tenemos es que, los gerentes desconocen qué información se puede obtener de los datos y cómo la pueden aplicar a su negocio. Muchos me hablan como si esta nueva tendencia, fuera ciencia ficción.

Las pymes que nos encargan estos proyectos tienen en su dirección a personas con una visión estratégica muy innovadora. Entienden que esta tendencia tecnológica les puede ayudar a mejorar su negocio y no dudan en realizar una inversión siempre y cuando les expliques cual va a ser el retorno.

3. Los proyectos de análisis de datos que manejáis, ¿suelen solucionar preguntas puntuales que necesitan una respuesta a un momento dado o son proyectos continuos que van realizando el seguimiento de los cruces de diferentes variables constantemente para encontrar algún punto de inflexión y tomar decisiones en el mínimo tiempo posible? ¿Nos puedes poner algunos ejemplos?

Normalmente cuando iniciamos un proyecto de BigData vamos resolviendo preguntas en varias fases. Se inicia el proyecto por una pregunta, y el análisis te lleva a muchas más. Si ponemos un ejemplo y analizamos cuál es la demanda real de ciertos productos en una web, la primera pregunta podría ser cuál es el producto más demandado, pero menos vendido. Las siguientes preguntas serían, qué le ocurre a ese producto que se pide mucho, pero que no se vende, ¿es solo un tema de precio? ¿o existen otras variables que impactan en que no se venda? Inicias el proyecto por una pregunta, pero a medida que avanzas en el análisis surgen muchas más.

4. Cuando uno piensa en «Big Data» puede venir a la cabeza «Big Questions». ¿Cuáles son las preguntas más frecuentes que intentáis responder con el análisis de datos? ¿Y las preguntas más insólitas?

Las preguntas dependen del área de análisis, si nos centramos en el área de marketing/comercial todas las preguntes van en relación a porqué no vendo más, o qué tengo que hacer para incrementar mis ventas o disminuir los costes. A todos nos gustaría tener la barita mágica para incrementar año a año las ventas y llegar al presupuesto marcado sin problemas y esto es posible si realizas un buen estudio de qué tipo de cliente tienes y sabes detectar qué está demandando. En este sentido el análisis de la demanda es básico.

5.Podemos coger de ejemplo una pregunta que queráis responder. ¿Qué fuentes de datos internas en la empresa, externas públicas y externas de redes sociales o webs necesitáis tener a disposición para empezar a analizar?

En función de las preguntas que se pretendan responder las fuentes serán una u otras. No hay un proyecto igual, y no siempre son necesarias todas las fuentes mencionadas en la pregunta.

Si pretendemos detectar qué productos han dejado de comprar nuestros clientes, la única fuente necesaria que se requerirá es el acceso al sistema de facturación. Simplemente explorando los datos que YA se están almacenando en las organizaciones, en el ERP, en el CRM y en los sistemas internos, se puede realizar un primer proyecto de BigData.

Ahora bien, si se pretenden crear modelos predictivos como, por ejemplo, para poder establecer pautas de comportamiento o repetición de compra o relación entre variables, se requieren multitud de fuentes tanto internas como externas. En este tipo de estudios intervienen muchas fuentes: características del producto/establecimiento, análisis de encuestas de calidad para poder extraer el índice de satisfacción del cliente, características del canal de compra, cómo es el comportamiento de los clientes en redes sociales, por qué medio publicitario interactúa más, cuáles son las características socioeconómicas de los clientes, datos macroeconómicos de los países de origen de nuestros clientes, y un largo etc …

6. ¿De cuántas variables estamos hablando? ¿Y registros?

Variables muchas y registros infinitos, esta es la definición de BigData múltiples fuentes de datos heterogéneas y un gran volumen de datos.

7. Los algoritmos se pueden considerar como un secreto industrial, si los utiliza una empresa?

Un algoritmo se considera hoy en día el know-how de las empresas, es decir, la clave de su ventaja competitiva.  El buscador de Google, o el sistema de recomendación de Amazon o cualquier sistema de búsqueda online utiliza múltiples variables en función del objetivo que persiga la empresa. Así que, sí, se puede llegar a considerar secreto industrial, porque detrás del algoritmo está la estrategia de la empresa. Sería como desvelar la fórmula de la coca cola.

Lo que ocurre es que un algoritmo al ser fórmulas matemáticas no puede patentarse o considerarse propiedad intelectual, no hay una ley que los ampare o que los pueda considerar como patentes. En este sentido hay un amplio camino que recorrer en materia de legislación.

8. ¿Cree que algoritmos que utilizan las administraciones públicas deberían ser públicos?

Sí, los algoritmos de las administraciones públicas deberían ser públicos, básicamente porque tratan con datos personales de los ciudadanos y todos deberíamos saber qué se hace con nuestros datos y con qué objetivo.

Las administraciones públicas tienen acceso a muchas fuentes de datos del ciudadano, datos personales, académicos, patrimoniales, censales, etc., y con más motivo se debe conocer el objetivo del algoritmo/estudio. Tenemos que recordar que la ley atribuye al ciudadano la titularidad, el control y el tratamiento de dichos datos, y que previamente hemos tenido que ser informados del objetivo del estudio.

9. ¿Puede afectar un algoritmo que toma decisiones sobre un individuo su futuro? ¿Le podría perjudicar?

Los algoritmos predictivos se basan en un conjunto de datos sobre los que se determinan unas pautas de comportamiento o para generar “semejantes” de los que el algoritmo va aprendiendo y categorizando. Puede ser totalmente peligroso tomar decisiones a partir de un conjunto de datos incompleto. Los estudios, algoritmos y la aplicación de la inteligencia artificial se deben realizar con rigor y aunque hay una tendencia a confiar totalmente en la máquina, no debemos reemplazarla por una decisión humana.

Si los algoritmos no se utilizan de una manera adecuada o con un set de datos correctos, se pueden tomar decisiones que pueden afectar de manera negativa al individuo y lo peor es que las personas afectadas ni siquiera saben que su vida se está viendo afectada por el resultado de dicho algoritmo.

10 ¿Qué ética debe aplicarse a los algoritmos?

Siempre se habla de si la tecnología es buena o mala, igual que si nos preguntamos si un cuchillo es bueno o malo. La respuesta sería según el uso que le demos. Lo que es un hecho es que la tecnología está por todas partes y no hay vuelta atrás. Ahora se trata de si queremos dirigir la tecnología o que la tecnología nos dirija a nosotros.

No solo debemos hablar de ética, sino de muchos conceptos que no se tienen que perder de vista, como la transparencia de los algoritmos, la aplicación de la seguridad, preservar la privacidad personal, la responsabilidad y los valores humanos.

11. En vuestro blog hemos leído que utilizáis diferentes tecnologías para analizar datos, ¿nos puedes describir un poco cuáles son y en qué consisten estos programas informáticos, qué coste tienen, y si los tenéis en servidores propios o en la nube?

Hay muchas técnicas que se pueden aplicar para el análisis de los datos. A continuación, os detallo las que más se utilizan con algún ejemplo de aplicación.

  • Reglas de asociación: Permiten descubrir relaciones relevantes o reglas de asociación, entre variables de datos. Se basan en una gran variedad de algoritmos que generan y prueban posibles reglas. Una de sus aplicaciones es para el análisis de qué productos se compran con frecuencia juntos.
  • Clasificación: Conjunto de técnicas para identificar la categoría a la que pertenece un nuevo conjunto de datos basándose en clasificaciones realizadas con anterioridad. Estas técnicas se denominan de aprendizaje supervisado porque parten de un conjunto de datos de entrenamiento con conjuntos de datos ya clasificados. Se utilizan por ejemplo en los sistemas de recomendación para ayudar al usuario a planificar su viaje o lo que va a hacer en una ciudad. Otro caso de uso muy frecuente es la predicción del comportamiento del cliente en las decisiones de compra.
  • Análisis de grupos (clustering): Método estadístico para la clasificación de objetos que se basa en dividir un grupo de elementos en grupos más pequeños de objetos similares, cuyas características de similitud no se conocen de antemano. Un ejemplo de utilización del clustering es en la segmentación de consumidores en grupos análogos para realización de campañas de marketing concretas.
  • Modelos predictivos: Técnicas mediante las que se crea o elige un modelo matemático para predecir la probabilidad de un resultado. Un ejemplo de aplicación es la predicción con antelación de la entrada de turistas extranjeros y las pernoctaciones previstas. Ejemplo: podemos predecir con que antelación por nacionalidad y cuantas pernoctaciones tendremos, por lo que podemos orientar el producto de extras en un hotel por ejemplo.
  • Análisis de redes: Conjunto de técnicas utilizadas para caracterizar las relaciones entre nodos en un gráfico o una red. Muy utilizado en el análisis de redes sociales para determinar las conexiones entre los individuos de una comunidad, cómo viaja la información, o quién tiene mayor influencia sobre quién.

12. En caso de que estén en la nube, ¿qué ancho de banda mínimo necesita para que funcionen óptimamente?

En este caso depende mucho del volumen de datos que estés manejando. Hoy en día estamos generando un volumen muy grande de datos, pero realmente tenemos que preocuparnos de la calidad de dichos datos. Es normal que se piense en el almacenamiento, la conectividad, la potencia y la latencia para realizar un buen proyecto de Big Data, primero tenemos que plantearnos qué capacidad de análisis tenemos, ya que, todo lo que se guarde, en teoría deberíamos poder analizarlo. Y en función de ese criterio, adecúas tu infraestructura tanto de máquinas como el ancho de banda.

13. Parece que hay una gran demanda de trabajo para trabajar en estos campos del análisis de datos, ¿qué formación se necesita para poder trabajar? ¿Qué tecnologías básicas hay que dominar?

En la mayoría de los proyectos de BigData intervienen varios perfiles, no todos son técnicos, porque no todo lo que se tiene que resolver es tecnológico, hay muchas tareas que se resuelven con sentido común. Los principales perfiles son:

  • Por un lado, están los arquitectos de sistemas que son los encargados del montaje físico del sistema de almacenamiento y procesado de datos. Son perfiles muy técnicos especializados en HW y Comunicaciones.
  • Por otro lado, están los perfiles de inteligencia de negocio, alguien que no necesariamente es técnico, que conoce muy bien el negocio y sabe qué preguntas realizar a todos esos datos en bruto. Hay veces que este perfil hace de “traductor” entre el cliente y el técnico, ya que, conoce perfectamente el sector para saber qué necesita el cliente y luego tiene habilidades técnicas para indicarle a un informático lo que se pretende realizar.
  • También tenemos a los analistas de datos, aquellas personas técnicas que dada la pregunta a realizar tienen los conocimientos técnicos y/o matemáticos para desarrollar la consulta y/o algoritmo.
  • Intervienen también los perfiles de Visualización de Datos, que tienen mucha visión espacial, y que saben perfectamente como esos datos van a encajar en un tipo de gráfico determinado. Son perfiles más de marketing con mucho interés en la representación gráfica de los datos.

14. ¿Nos puede recomendar un libro y una película que le haya inspirado en su profesión?

AVATAR es una de mis películas favoritas y en general cualquier película de ciencia ficción que me haga soñar. En mi trabajo tiendo a soñar y a pensar que todo es posible, y con recursos, tiempo y gracias a la buena aplicación de la tecnología, para mí, TODO ES POSIBLE.

Y libros me engancho a cualquier novela histórica o de fantasía, me encanta la narrativa de Julia Navarro, María Dueñas, Noah Gordon, Carlos Ruiz Zafón o Ken Follett, etc …. Hay muchos libros, muchas temáticas, muchos autores a los que admiro, y si tuviera que elegir uno, me quedo con “Dispara, yo ya estoy muerto”, de Julia Navarro, por la combinación de misterio, aventura, emociones y por el hecho de estar encajando piezas de un gran puzle.

 

Acerca de Dr.TIC

Servei d'assessorament tecnològic per a empreses que volen obtenir una visió general del grau d'ús de les TIC al seu negoci i millorar la seva salut TIC.
Esta entrada fue publicada en Big Data, Dr. TIC, Entrevistas, Inteligencia artificial, Noticias y etiquetada , , . Guarda el enlace permanente.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Spam protection by WP Captcha-Free