Data science y su verdadero valor en las organizaciones

By Diego Martinez

En JDA constantemente hacemos alianzas estratégicas y de gran valor para nuestros clientes. Así lo hicimos con Dunnhumby (www.dunnhumby.com), la compañía inglesa líder en ciencia de datos, que ha obtenido excelentes resultados con sus clientes a nivel mundial. Nos gustaría explicar qué es la ciencia de datos (data science) y el valor que ofrece a las organizaciones. En un segundo artículo abordaremos con detalle los beneficios que esta alianza brindará al mercado y a nuestros clientes.

Data science no consiste en hacer modelos matemáticos complicados ni en hacer visualizaciones de información complejas o escribir líneas de códigos, sino en utilizar datos para crear el mayor impacto posible en las organizaciones. Este impacto puede tratarse de insights o recomendaciones para la toma de decisiones claves.

Para que una empresa pueda alcanzar sus objetivos debe contar con herramientas que le permitan hacer y visualizar esos modelos de datos complicados o escribir ciertos códigos; sin embargo, el trabajo de la ciencia de datos es resolver problemas reales dentro de las organizaciones. Nuestra alianza con Dunnhumby ofrece una plataforma robusta de información que requiere de profesionistas que la usen de la mejor manera en beneficio de las empresas.

Hay muchos conceptos erróneos sobre data science, especialmente en redes sociales, y la probable razón es la falta de alineación entre la definición o creencia popular y lo que en realidad necesita la industria.

El término “data mining” se popularizó en 1996 en el artículo “De la minería de datos al descubrimiento del conocimiento en bases de datos” (From data mining to knowledge discovery in databases), que hacía referencia al proceso de descubrimiento de información útil de datos. En 2001, William S. Cleveland quería llevar esa “minería de datos” a otro nivel al combinarla con informática: hizo estadísticas más técnicas con la firme creencia de que ampliaría las posibilidades de la minería de datos hacia la innovación. Hoy vemos que tenía mucha razón.

Después de aprovechar el poder del cómputo de datos para las estadísticas, se estableció el término “data science” al uso que le damos hoy día. Por otro lado, en aquellos tiempos surgió la web 2.0, en la que los sitios web habían pasado de ser una hoja digital a un medio experiencial compartido entre millones de usuarios de sitios como MySpace en 2003, Facebook en 2004 y YouTube en 2005.

Actualmente interactuamos en estos sitios web y contribuimos con la red al publicar comentarios, fotografías, reseñas de productos o artículos como este. Dejamos huella en el paisaje digital que llamamos internet; ayudamos a crear y a configurar el ecosistema que conocemos, aprovechamos y amamos.

Manejar y administrar todos estos datos se había convertido en una tarea muy compleja con las tecnologías tradicionales. Por eso decimos que la big data abrió un mundo de posibilidades para encontrar ideas e insights a partir de estos datos, aunque significó que las preguntas más simples de responder requirieran una infraestructura sofisticada tan sólo para respaldar el manejo de estos datos.

Por lo tanto necesitábamos una tecnología pionera en cómputo paralelo, como MapReduce —bajo el modelo de implementación open source llamado Hadoop—, en el que Yahoo fue uno de los principales desarrolladores.

El crecimiento del big data en 2010 provocó que las empresas necesitaran usar la ciencia de datos para obtener información relevante con datos que aún no estaban estructurados y escondían grandes hallazgos. Así se describió data science en una revista especializada: “Todo lo que tiene que ver con la recopilación de datos y el análisis de modelos”; sin embargo, esta definición no cubre aspectos importantes como las posibles aplicaciones, el machine learning y la inteligencia artificial.

Así pues, en 2010 se comenzaron a entrenar máquinas con un enfoque en los datos, en vez de en nuestro propio conocimiento. Todos los artículos teóricos sobre redes neuronales recurrentes soportan máquinas vectoriales que los convierten en algo que puede cambiar la forma en que vivimos y experimentamos las cosas. El deep learning ya no es un concepto puramente académico, ya se ha convertido en algo tangible y capaz de afectar nuestras vidas. Es por eso que el machine learning y la inteligencia artificial son temas predominantes en los medios.

A temas de data science como la experimentación, las habilidades de exportación o en análisis de datos se les ha llamado “inteligencia comercial”, por lo que la gente puede pensar que los expertos en data science son sólo investigadores enfocados en desarrollar machine learning e inteligencia artificial; sin embargo, actualmente la industria los está contratando como analistas.

Aunque existe una discrepancia en los conceptos debido a que la mayoría de los profesionales de data science puede trabajar en problemas más técnicos, grandes compañías como Google, Facebook y Netflix han obtenido buenos resultados gracias a las aportaciones de profesionales que han mejorado sus productos y servicios incluso sin desarrollar modelos técnicos complejos que lleven años de desarrollo e investigación.

En vista de lo anterior, un buen profesional de la ciencia de datos no es el que trabaja en los modelos más avanzados o complejos sino el que logra un mayor impacto real en su trabajo; no es sólo un analista de datos, es un solucionador de problemas.

Es por esto que, gracias a nuestra alianza con Dunnhumby, nuestros clientes se verán beneficiados al contar con la información necesaria para tomar decisiones de gran impacto para sus organizaciones a través de una plataforma tecnológica de clase mundial.

Para informaciones adicionales, por favor comuníquese con nosotros a LatAm@jda.com

No Comments

Be the first to start a conversation

Leave a Comment